Die Eisheiligen werden trotz der milden Tage 2017 immer kälter.

Dieser Artikel ist eine Ergänzung unserer Vorschau auf die Eisheiligen vor kurzem bei EIKE: https://eike.institute/2017/05/07/die-eisheiligen-werden-immer-kaelter-vorschau-auf-2017/
Nachdem nun Mitte Mai vorbei ist, kann man sagen, die echten Eisheiligen 2017 fanden diesmal in der Woche vor dem 11. Mai statt. Beispiel: Entsprechend der Wetterlage, errechnete der Stationsleiter in dem sehr ländlichen Goldbach bei Bischofswerda vom 7. bis 11. Mai einen Schnitt von 8,0°C. Dazu gab erstmals wieder Frost seit 2011, und zwar am 9. Mai mit  -1°C.
Just zu Eisheiligenbeginn wurde der Mai allmählich wärmer, so dass unsere drei Vergleichsstationen genauso wie der restliche Teil Deutschlands auf angenehme Temperaturen zurückblicken konnten.
Wir haben möglichst wärmeinselarme Stationen gewählt, also nicht Frankfurt-Land, denn die Station steht bekanntermaßen an den Landebahnen des Großflughafens im Strahle der 600°C heißen Abgase. In den Heizräumen unserer Häuser ist am Thermometer bekanntermaßen auch kein Eisheiliger feststellbar und natürlich dieses Jahr sowieso nicht.
Eigentlich sind die Eisheiligen ein unbedeutendes Problem, gäbe es nicht den Deutschen Wetterdienst, besser gesagt dessen Presseabteilung mit seinen Interpretationen gegen die eigenen Daten. Übrigens – was der DWD für einen Unfug über die Eisheiligen schreibt, findet der Leser unter http://www.dwd.de/DE/Home/_functions/Stage/klima/stage_klima_eisheilige_artikel_160510.html
Richtig am Artikel ist die Erklärung der Eisheiligen, nicht aber die Schlussfolgerungen und Vorhersagen. Die Eisheiligen sollen laut DWD-Artikel nicht mehr wahrnehmbar sein, eine Aussage, die für 2017 sicherlich stimmt, wir betrachten jedoch längere Zeiträume. Wie üblich wird das DWD-Dahergeschwätz von den wärmer werdenden Tagen ohne irgendeine Grafik belegt. Angeblich sollen die fünf Tage in den letzten Jahren ganz ausgeblieben sein. Die Überprüfung dieser Aussagen holen wir anhand dreier Standorte nach.
PIK-Potsdam: Beginnen wir mit der Station des Potsdamer Institutes für Klimafolgenforschung. Der Schnitt der fünf Tage betrug 2017: 15,05 C

Grafik 1: Trotz der relativ milden Eisheiligentage 2017 in Potsdam wurden die fünf Tage seit 1985 eindeutig kälter. Kein Spur davon, dass die Eisheiligen immer mehr verschwinden.


Die DWD-Station Dresden-Klotzsche: Die zweite Grafik kommt aus Dresden Klotzsche, genauso wie Potsdam eine offizielle Messstation des Deutschen Wetterdienstes. Auch an der Elbe waren die Eisheiligen dieses Jahr relativ mild. Der Schnitt 2017 betrug 15,1 C, deutlich über dem Schnitt des letzten Jahres.

Grafik 2: DWD-Station Dresden Klotzsche: Trotz der milden Eisheiligen 2017 ist die Trendlinie der letzten 33 Jahre eindeutig fallend.


Goldbach: Und schließlich Goldbach bei Bischofswerda, ein kleiner ländlicher Vorort. Die Klimastation gibt es erst seit 1996, und dort werden die Eisheiligen deutlich kälter. Mit den ungenauen Zeit-Angaben der DWD-Vorstände mit „in jüngster Zeit“ oder „in der „Gegenwart“ würden die Eisheiligen wärmer, könnte man vielleicht die letzten 20 Jahre meinen. Aber auch „in jüngster Zeit“ ist das Ergebnis eindeutig, die Eisheiligen werden kälter. Je kürzer der Betrachtungszeitraum, desto fallender die Trendlinien. Fallende Temperaturtrendlinien sind das genaue Gegenteil von Erwärmung. Der Eisheiligenschnitt 2017 lag mit 14,5 C deutlich über dem Schnitt des letzten Jahres.

Grafik 3: Auch in dem kleinen Ort Goldbach werden die Eisheiligen in der Gegenwart kälter, daran können auch die fünf milden Tage 2017 nichts ändern.


Was könnten die Gründe sein, dass es zu den Eisheiligen kälter wird?
Die wahren Gründe für das Kälter werden haben wir ausführlich in Teil 1 – siehe link oben- beschrieben. Und 2017 waren die fünf Tage mild, weil die Großwetterlage sich umstellte.
Wie man an den drei Grafiken erneut erkennt, hat die Zunahme von Kohlendioxid in der Atmosphäre keinerlei wärmenden Einfluss auf den Schnitt der fünf Eisheiligentage. Die Trendlinie von Potsdam ist bereits seit 1967 leicht fallend, während CO2 in diesem Betrachtungszeitraum über 30% gestiegen ist. Die einzig statistisch relevante Aussage wäre, eine Zunahme von Kohlendioxid brachte gleichzeitig eine Abkühlung der Eisheiligen seit 1967.

Grafik 4: Potsdam zeigt bereits seit 1967 eine leicht, nicht signifikant fallende Trendlinie. Die wärmsten Eisheiligen waren um 1970. Vor allem die letzten 25 Jahre ziehen die Vergleichsbetrachtung nach unten.


Und am Ende zeigt sich: Die stetig steigende CO2- Konzentration vermag unser Klima auch im Mai nicht zu erwärmen und kann die Plage der „Eisheiligen“, den Horror aller Gärtner und Landwirte, nicht verhindern.
Dem Deutschen Wetterdienst sei geraten, seine Aussagen irgendwann einmal mit Grafiken zu belegen, und zwar mit Grafiken von wärmeinselarmen Stationen. Aber selbst in Städten wie Potsdam und Dresden zeigen die Eisheiligen eine fallende Tendenz.
Josef Kowatsch, unabhängiger, weil unbezahlter Natur- und Klimaforscher




‚Wasserstandsmeldung‘ aus Japan!

Heute existiert für diese Bekanntgabe im Internet eine Website, auf der sich die Interessierten informieren können (und die seit jeher außerhalb der Gebiete direkt um das vom Tsunami demolierte Kernkraftwerk keine lebensbedrohliche Radioaktivität anzeigt). Dem Konzern TEPCO (Betreiber dieses und weiterer Kraftwerke) wird zwar misstraut, zumal kürzlich wieder direkt aus dem Bereich eines zerstörten Reaktors ein außergewöhnlich hoher Strahlungswert übermittelt wurde – was aber nach einer solchen Katastrophe nichts Ungewöhnliches ist. Die Reaktorblöcke waren zwar schon abgeschaltet, bevor der verheerende Tsunami eintraf, aber die Nachzerfallswärme konnte durch die Verkettung technologischer Mängel und unglücklicher Umstände nicht mehr abgeführt werden. Darauf folgende Gasexplosionen zerstörten Umhüllungen und die Reaktorgebäude, verschiedene Druckbehälter zerbarsten, ohne allerdings die Sicherheitseindämmung völlig zu zerstören.
Den Todesopfern der Naturkatastrophe wird in ihren Familien gedacht, doch das Desaster um die Kernreaktoren ist allgemein im japanischen Alltag kaum mehr präsent. Auf privaten Blogs kursiert die Behauptung, dass die Rate an Früherkennungen von Schilddrüsenkrebs bei Kindern der Präfektur Fukushima und im Großraum Tokio angestiegen sei, doch ein auf dieses Gerücht hin befragtes Komitee vom Fukushima Health Management Survey gab die Antwort, dass dieses Ergebnis auf umstrittene Testreihen zurückzuführen sei. Das Ministry for Health, Labour and Welfare berichtet auf seiner Website über die möglichst lückenlose, gesundheitliche Überwachung der seit der Katastrophe tätigen Arbeiter vor Ort in Fukushima Daiichi – keine Todesopfer zu beklagen soweit. Befragt man die Surfer an der östlichen Küste, in benachbarten Präfekturen (Ibaraki, Chiba, Kanagawa), zucken diese mit den Schultern und schmunzeln eher über die Vorstellung von z.B. verstrahlten Pazifik-Küsten („Oh, mein Guter, halten sie sich mal die Größe des Pazifik vor Augen …“).
Japan ist in relativ kurzer Zeit ein gewaltiger Sprung in die Moderne gelungen, doch hält es gern fest an bewährten Traditionen aus der Periode seiner Abgeschlossenheit. Während der Zeit großer Katastrophen erlebt man hier so viel Zusammengehörigkeitsgefühl, wie Hierarchiedenken und Disziplin, doch im Alltag sind die Leute sehr pragmatisch veranlagt. Freaks finden außerhalb diverser Fernsehshows und bestimmter Zentren in den Großstädten kaum eine Bühne und die in Deutschland so lästig gewordene Klein- und Gewaltkriminalität findet hierzulande praktisch nicht statt. Immigration und eine damit einhergehende Integrationsproblematik ist im Gegensatz zu Europa kein Problem, da Zuwanderung nicht geduldet wird. Die Japaner senden gern und schnell ihre Hilfstruppen zum Katastrophenschutz weltweit aus, sie heißen auswärtige Fachleute und Spezialisten zur Lösung wichtiger Fragen unter Zögern willkommen – doch immer nur für eine begrenzte Zeit. Wenn ein Volk für sich geschlossen ein Inseldasein kultiviert hat, dann sind es die Japaner.
Was sie ebenso gut ausbildeten, ist ihr Sinn fürs Praktische, für das, was nötig ist und das, was überflüssig. Wer aus beruflichen oder alltäglichen Gründen ein Auto benötigt, fährt steuerlich gut gestellte Kleinwagen oder als Besserverdienender gerne mal Hybrid, und dass elektrische Energie rund um die Uhr zur Verfügung steht, ist viel wichtiger als die Art und Weise, wie sie erzeugt wird. Wer als Krebskranker zur Strahlentherapie zu den Nuklearmedizinern geht, wird kaum zu hören bekommen, dass die Substanz, mit deren Hilfe sein Krebs bekämpft wird, im Verdacht steht, Krebs zu erzeugen. Anders als in Deutschland, wo die Grünen mit zu den politischen Meinungsführern gehören, spielt die hiesige politische Vereinigung Midori No To, die als die Grünen Japans bezeichnet wird, politisch überhaupt keine Rolle. Die herausragende japanische Ästhetik zeigt sich auch in ihrem Umgang mit der sie umgebenden Sphäre – von der Mülltrennung bis zur Parkpflege. Dass sie zur Regulierung ihres Miteinanders mit der Natur eine spezialisierte Partei bräuchten, wäre den Japanern wohl keine Überlegung wert. WWF und Greenpeace haben zwar Büros in Tokio, doch sind sie für die Mehrheit der Japaner uninteressant und so spielen sich die meisten der auf deren Websites veröffentlichten Projekte mehr im Großraum Asien/Afrika ab, als in Japan selbst. Auch wenn in Kyoto eine wichtige Konferenz zur Klimathematik abgehalten wurde, und selbst wenn ihre Abgesandten artig diverse Vereinbarungen unterzeichnen, so ist den Japanern ihr besonderer Weg, ihre Gemeinsamkeit und das politische Verhältnis zu ihren Nachbarn Korea, China und Russland weitaus wichtiger, als das Verfolgen spekulativer Ziele (Klimaschutz).
Bei ihrer exponierten geologischen Lage ist der Wettstreit gegen die Natur mit jedem schweren Beben tatsächlich ein Kampf ums Überleben. Die Japaner, die über viele Jahrhunderte dieses gewaltige Felsenriff besiedelten, das nach alter Vorstellung regelmäßig durch göttliche Kräfte aus dem Erdinneren erschüttert wird, trotzten diesem mit großer Mühe ihren Lebensraum ab, weil sie es bis heute als ein göttliches Land der aufgehenden Sonne verehren.
 
 
 




Aus Paris-Abkom­men aussteigen ist richtige Entschei­dung für die USA und die Welt

Das Paris-Abkommen und die damit verbundenen Prozesse müssen vollständig aufgegeben werden. Stattdessen muss ein neuer Prozess gestartet werden, welcher frei ist vom Stigma der Korruption, welche das bestehende Pariser Abkommen und dessen Auswirkungen durchzieht.

Das Pariser Abkommen ist ein Programm auf der Grundlage einer vollkommen ungeeigneten Wissenschaft, wie das IPCC inzwischen auch eindeutig eingeräumt hat. Der Prozess des Abkommens ist ausschließlich getrieben von der Politik des Klima-Alarmismus‘.

Im AR3 des IPCC aus dem Jahr 2001 wurde festgestellt, dass es unmöglich ist, Klimamodelle zu erschaffen, welche das globale Klima akkurat abbilden, kam es doch zu dem Ergebnis „Bei der Klimaforschung und -modellierung sollten wir erkennen, dass wir es mit einem gekoppelten, nicht linearen und chaotischen System zu tun haben und dass daher die Vorhersage zukünftiger Klimazustände nicht möglich ist“.

Der jüngste Zustandsbericht AR5 stützt sich auf diese ungeeigneten Klimamodelle und versucht, die Unzulänglichkeit zu verstecken, indem man sich eines Taschenspielertricks bedient, nämlich einer „geschätzten Wahrscheinlichkeit“ [assessed likelihood] sowie Vermutungen und Spekulationen, um einen falschen Grad an Gewissheit bzgl. erwarteter Klimaereignisse vorzugaukeln, welche von wissenschaftlich etablierten und mathematisch abgeleiteten Wahrscheinlichkeiten nicht gestützt werden.

Die Provisionen des Paris-Abkommens, welche sich auf Klima-„Modelle“ stützen, sind eindeutig ungeeignet. Wissenschaftliche Vermutungen werden fälschlich zu Gewissheiten gemacht, obwohl auch sie eindeutig als falsch und gescheitert erkannt worden sind. Dokumentiert wird dies durch eine Anhörung vor dem Kongress im März 2017.

Curry: Computer-Prophezeiungen bzgl. Klima-Alarm sind betrügerisch

Neue Studie erklärt inhärenten Betrug von Computermodellen, welche den zukünftigen Klimawandel prophezeien.

London, 21. Februar: Behauptungen, denen zufolge der Planet durch eine vom Menschen verursachte globale Erwärmung bedroht ist, basieren auf einer Wissenschaft, welche ungeeignete Computer-Modellierungen zur Grundlage hat. Das ist die Schlussfolgerung einer neuen Informationsschrift, welche die GWPF heute veröffentlicht hat.

Die Autorin der Schrift, die bekannte amerikanische Klimatologin Prof. Judith Curry erklärt, dass sich der Klima-Alarm auf hoch komplexe Computer-Simulationen des Klimas der Erde stützt.

Aber obwohl Wissenschaftler Jahrzehnte lang Zeit und Mühe aufgewendet haben, müssen diese Simulationen immer noch „frisiert“ werden, um zum ralen Klima zu passen. Dies macht sie im Wesentlichen nutzlos für den Versuch, welche Ursachen Änderungen des Klimas haben, und unzuverlässig zur Ausgabe von Vorhersagen, was in Zukunft geschehen wird.

Die Klimawissenschaftlerin Dr. Judith Curry führte bei ihrer Anhörung vor dem Wissenschaftskomitee des Weißen Hauses im März 2017 aus, wo sie die fundamentalen Fehler in den Klimamodellen sieht:

Einschätzung von Klimamodellen

Im kürzlich erschienenen Report [übersetzt] ,Klimamodelle für Laien‘ beschrieb ich, wie Klimamodelle nützlich sein können für Forschungen zum besseren Verständnis des Klimasystems.

Allerdings argumentierte ich, dass gegenwärtige globale Klimamodelle nicht geeignet sind für das Ziel, die Gründe der jüngsten Erwärmung einzuordnen oder für die Vorhersage globaler und regionaler Klimaänderungen in Zeitskalen von Jahrzehnten und Jahrhunderten. Zu den Bedenken der Brauchbarkeit von Klimamodellen gehören:

● Vorhersagen der Auswirkungen eines zunehmenden CO2-Gehaltes auf das Klima können nicht für Jahrhunderte im Voraus sicher evaluiert werden.

● Der Fehlschlag der Klimamodelle hinsichtlich einer konsistenten Erklärung der Erwärmung zum Beginn des 20. Jahrhunderts und die nachfolgende Abkühlung zur Mitte des Jahrhunderts.

● Unfähigkeit der Klimamodelle, Größenordnung und Phase der großräumigen Ozean-Oszillationen im Zeitmaßstab von Jahrzehnten und Jahrhunderten zu simulieren.

● Unzureichende Erkundung der Unsicherheiten in den Klimamodellen.

● Die extrem große Anzahl willkürlicher Auswahl von Modellparametern und Parametrisierungen.

● Evaluierung der Klimamodelle gegenüber den gleichen Beobachtungen, die für die Feinabstimmung der Modelle herangezogen worden sind.

● Bedenken hinsichtlich eines fundamentalen Fehlens der Vorhersagbarkeit in einem komplexen, nicht linearen System.

Und weiter:

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, welche das IPCC bekannt gemacht hatte, enthalten keine Grundlagen-Elemente der Klima-Variabilität und sind daher nicht brauchbar als Projektionen, wie sich das 21. Jahrhundert entwickelt.

…sie sind nicht nicht geeignet für das Ziel, die Gründe der jüngsten Erwärmung einzuordnen oder für die Vorhersage globaler und regionaler Klimaänderungen in Zeitskalen von Jahrzehnten und Jahrhunderten mit irgendeinem hohen Niveau der Sicherheit.

…sie sind nicht fit für das Ziel, politische Entscheidungen zu rechtfertigen, welche soziale, ökonomische und Energie-Systeme fundamental verändern.

Dr. Curry schließt mit drei Kernaussagen zu den Fähigkeiten der Klimamodelle:

Wenn das „wissenschaftliche Verfahren“ auf den Output von Klimamodellen wie im AR5 des IPCC dargestellt angewendet wird, vor allem hinsichtlich der großen atmosphärischen Temperaturtrends seit 1979 (eine Grundsatz-Variable mit einer starken und offensichtlichen Reaktion auf zunehmende Treibhausgase während dieses Zeitraumes) zeige ich, dass der Konsens der Modelle bei dem Test gegenüber den Beobachtungen in der realen Welt auf signifikante Weise durchfällt.

Der Klimawissenschaftler Dr. John Christy sagte ebenfalls bei der Anhörung vor dem Wissenschaftskomitee aus. Er stellte das wissenschaftliche Verfahren vor, die Glaubwürdigkeit der Temperaturprojektionen der Klimamodelle gegenüber tatsächlich gemessenen globalen Temperaturen zu evaluieren. Er kam zu dem Ergebnis:

Die Temperaturprojektionen der Klimamodelle zeigten im Vergleich zu den tatsächlich gemessenen globalen Temperaturen, dass die Modelltheorie nach Strich und Faden gescheitert ist, und zwar mit einem Vertrauensniveau über 99%.

Die Aussage von Dr. Curry vor dem Komitee hinsichtlich der extensiven Fehlschläge der Klimamodelle passte zu den Ausführungen von Dr. Christy hinsichtlich der außerordentlich schlechten Performance dieser Klimamodelle in Übereinstimmung mit dem eigenen Eingeständnis des IPCC, dass es unfähig sei, Klimamodelle zu konstruieren, welche das globale Klima vertrauenswürdig repräsentieren. Dies diktiert eindeutig, dass derartige Modelle als Entscheidungsgrundlage für globale politische Klima-Maßnahmen vollkommen ungeeignet und ungerechtfertigt sind.

Dr. Roger Pielke, Jr. sprach bei der Anhörung Behauptungen von Klima-Alarmisten an, denen zufolge anthropogene CO2-Emissionen mehr Extremwetter mit sich brächten. In seiner Aussage porträtierte Dr. Pielke folgende Ergebnisse:

Die wissenschaftlichen Beweise als Unterstützung für meine im Jahre 2013 diesem Komitee vorgestellten Schlussfolgerungen sind heute sogar noch stärker. Es gibt kaum eine wissenschaftliche Grundlage für Behauptungen, dass Extremwetter-Ereignisse – im Einzelnen Hurrikane, Überschwemmungen, Dürren, Tornados – nebst deren ökonomischen Schäden während der letzten Jahrzehnte zugenommen haben aufgrund von Treibhausgasen. Tatsächlich verzeichnete man in den USA und auf der ganzen Welt seit dem Jahr 2013 eine bemerkenswert gute Phase, gab es doch weit weniger Extremwetter im Vergleich zur Vergangenheit.

Das Fehlen von Beweisen zur Stützung von Behauptungen über eine Zunahme von Häufigkeit oder Stärke dieser Extremwetter-Ereignisse wird auch vom IPCC beschrieben sowie in noch größerem Umfang von der begutachteten wissenschaftlichen Literatur, auf die sich das IPCC stützt.

Die USA waren extrem erfolgreich hinsichtlich der Reduktion von Treibhausgasen und CO2-Emissionen. Erreichten diese im Jahre 2007 noch ihr höchstes Niveau, sind sie danach deutlich zurückgegangen dank der Marktvorteile durch Erdgas-Fracking.

EPA-Daten zufolge haben die US-Emissionen im Laufe des Jahres 2015 um über 10% abgenommen und liegen jetzt auf dem Niveau des Jahres 1994. Diese Reduktion ergibt insgesamt 763 Millionen Tonnen weniger Treibhausgas-Emissionen.

Der gerade veröffentlichte EIA – AEO-Bericht aktualisiert die CO2-Emissionen der USA über das Jahr 2016 und zeigt, dass die Emissionen im Vergleich zu 2015 noch weiter zurückgegangen sind. Er enthält auch die Vorhersage, dass es stabile CO2-Emissionen mindestens bis zum Jahr 2030 geben werde, ohne dass die Vorschriften von Präsident Obama bzgl. seines Krieges gegen die Kohle überhaupt in Kraft sind.

Der Bericht zeigt, dass die Reduktionen des Jahres 2016 sowie zukünftige Emissionen erreicht wurden als Konsequenz der zunehmenden Zuwendung zu billigem, auf dem Energiemarkt erhältlichen Erdgas. Dies lässt den Verbrauch von Kohle-Treibstoff abnehmen mit der weiteren Auswirkung geringerer CO2-Emissionen.

Folglich treiben und kontrollieren die Kräfte des Energiemarktes die Reduktion mittels Fracking von Erdgas, ohne dass die Regierung der Öffentlichkeit unnötige, kostspielige und bürokratisch sehr aufwändige Vorschriften aufbürdet.

Im Jahre 2030 werden die CO2-Emissionen der USA einer Vorhersage der EIA zufolge 5210 Millionen Tonnen betragen (ohne Obamas Clean Power Plan). Dies bedeutet eine Reduktion von 790 Tonnen und liegt um über 14% unter dem Spitzenniveau des Jahres 2007.

Die signifikanten Reduktionen von Treibhausgasen und CO2-Emissionen der USA wurden der Öffentlichkeit seitens der klima-alarmistischen Main Stream Medien und klimaaktivistischen Wissenschaftlern vorenthalten.

Während des gleichen Zeitraumes, also von 2007 bis 2030, als die USA ihre CO2-Emissionen um fast 800 Millionen Tonnen pro Jahr reduzieren, zeigen Daten der EIA IEO der Jahre 2011 und 2016, dass in den Entwicklungsländern der Welt die CO2-Emissionen um über 9900 Millionen Tonnen zunahmen, wobei China und Indien über 5700 Millionen Tonnen zu dieser Zunahme beitrugen.

Die massiven zunehmenden CO2-Emissionen der Entwicklungsländer einschließlich Chinas und Indiens sind laut Präsident Obama nach dem Paris-Abkommen 2015 akzeptabel.

Die NOAA hat jüngst ihre Daten von Tidenmesspunkten bzgl. küstennahem Anstieg des Meeresspiegels einschließlich aktueller Messungen durch das Jahr 2016 aktualisiert. Daraus ergeben sich nach wie vor keinerlei Anhaltspunkte für eine Beschleunigung des Meeresspiegel-Anstiegs an den Küsten.

Diese Messungen enthalten Daten von Tidenmesspunkten an 25 Stellen der Westküste, der Golf-Küste und der Ostküste entlang des Pazifischen, des Atlantischen Ozeans und es Golfes von Mexiko. Außerdem sind Daten von 7 Inselgruppen im Pazifik und 6 im Atlantik enthalten. Insgesamt sind es über 200 Messpunkte.

Die längste Reihe von Tidendaten des küstennahen Meeresspiegels stammt aus The Battery in New York und ist 160 Jahre lang. Die Daten zeigen eine stetige Rate des Anstiegs von etwa 11 Inches [ca. 28 cm] pro Jahrhundert.

Es ist sehr wahrscheinlich, dass es einen substantiellen anthropogenen Beitrag zum mittleren globalen Anstieg des Meeresspiegels während der siebziger Jahre gab. Dies basiert auf dem hohen Vertrauen in einen anthropogenen Einfluss auf die beiden größten Komponenten des Anstiegs, nämlich thermische Ausdehnung und Verlust von Gletschermasse.

In der ,Summary for Policymakers‘ des IPCC-Berichtes AR5 schreibt das IPCC:

„Die NOAA-Messungen an Tidenmesspunkten der Küste umfassen den 46-jährigen Zeitraum von 1970 bis einschließlich 2016. Sie stützen nicht, ja widersprechen sogar, der Schlussfolgerung im IPCC-Bericht AR1 hinsichtlich vermeintlicher Beiträge des Menschen zum Anstieg des Meeresspiegels seit Anfang der siebziger Jahre“.

Zusammenfassung:

Die Klimamodelle zur Stützung des Paris-Abkommens haben sich eindeutig als falsch und gescheitert herausgestellt, was selbst das PCC einräumt.

Behauptungen, wonach menschliche Treibhausgas-Emissionen Extremwetter verursachen (Hurrikane, Dürren, Überschwemmungen, Tornados) werden durch tatsächliche Klimadaten einschließlich der IPCC-eigenen Daten nicht gestützt.

Die USA haben bedeutende Reduktionen von Treibhausgas- und CO2-Emissionen erreicht mittels Hinwendung zur Erdgas-Fracking-Technologie auf dem Energiemarkt und Abkehr von kostspieligen, belastenden und unnötigen Vorschriften der Regierung.

Emissionen der Entwicklungsländer übersteigen bei weitem jene der USA und werden sogar aufgrund des Paris-Abkommens noch weiter steigen.

Die jüngsten verfügbaren Daten der NOAA von Tidenmesspunkten bis einschließlich 2016 zeigen keine Beschleunigung des küstennahen Meeresspiegelanstiegs, was den IPCC-Behauptungen bzgl. anthropogener Einflüsse auf steigende Raten seit den siebziger Jahren diametral widerspricht.

Schlussfolgerung:

Die Wissenschaft im Pariser Klimaabkommen wird von Politik bestimmt und nicht durch eine eindeutig etablierte und verifizierbare Klimawissenschaft.

Die Klimawissenschaftlerin Dr. Judith Curry führte bei der Anhörung vor dem Kongress bzgl. des Jahrzehnte langen Frusts hinsichtlich die Politisierung der Klimawissenschaft sowohl seitens des IPCC als auch der Obama-Regierung aus:

Die Klima-Gemeinde hat seit über zwei Jahrzehnten daran gearbeitet, einen wissenschaftlichen Konsens bzgl. eines vom Menschen verursachten Klimawandels zu fabrizieren, hauptsächlich dadurch, dass sie eine Hypothese zu einer vorherrschenden, absolut richtigen Theorie erhoben hat.

Der nach Konsens trachtende Prozess und deren Verbindungen zur Politik der Reduktion von Emissionen seitens des UNFCCC hatten die unbeabsichtigte Konsequenz einer Hyper-Politisierung der Wissenschaft und der Einbringung eines Bias‘ sowohl in die Wissenschaft als auch in damit in Verbindung stehende Entscheidungsprozesse.

Das Ergebnis dieser grob vereinfachten Darstellung eines verzwickten Problems ist, dass uns die Arten von Informationen fehlen, welche zu einem größeren Verständnis der Klimavariabilität und der gesellschaftlichen Verwundbarkeit beitragen.

Die Politisierung der Klimawissenschaft hat die akademische Klimaforschung und diejenigen Institutionen kontaminiert, welche die Klimaforschung stützen. Deshalb sind individuelle Wissenschaftler und Institutionen zu Aktivisten und zu Befürwortern einer Politik zur Reduktion von Emissionen geworden.

Wissenschaftler mit einer Perspektive, dass dies nicht konsistent mit dem Konsens ist, werden im besten Falle marginalisiert (d. h. sie haben Schwierigkeiten, zu Ergebnissen zu kommen und Studien zu veröffentlichen, die nicht an ,Pförtner‘-Herausgebern der Journale vorbeikommen) und im schlimmsten Falle mit Schimpfwörtern wie ,Leugner‘ oder ,Häretiker‘ belegt.

Dann hat Dr. Curry glasklar den „Krieg gegen die Wissenschaft“ angesprochen, welcher von der klimawissenschaftlich alarmistischen Politik der Regierung während der letzten Jahre vollführt worden ist:

Der ,Krieg gegen die Wissenschaft‘, der mich am meisten besorgt, ist der Krieg von innerhalb der Wissenschaft – von Wissenschaftlern und den Organisationen, welche eine Wissenschaft stützen, die Machtpolitik betreibt mit ihrer Expertise, und welche ihre naiven Prämissen von Risiko und politischen Meinungen als Wissenschaft verkaufen.

Wird der IPCC-Konsens in Frage gestellt oder die Autorität der Klimawissenschaft hinsichtlich der Steuerung der Klimapolitik angezweifelt, nennen diese aktivistischen Wissenschaftler und Organisationen die Zweifler ,Leugner‘ und erklären den Zweifel zum ,Krieg gegen die Wissenschaft‘.

Diese aktivistischen Wissenschaftler scheinen sich weniger Gedanken zu machen hinsichtlich der Integrität des wissenschaftlichen Prozesses als vielmehr um ihre privilegierte Position und ihren Einfluss in der öffentlichen Debatte um Klima- und Energiepolitik.

Sie verweigern sich der wissenschaftlichen Diskussion – und verleumden Wissenschaftler, die nicht mit ihnen übereinstimmen.

Diese aktivistischen Wissenschaftler und Organisationen pervertieren den politischen Prozess und versuchen, die Klimawissenschaft von genauer Überprüfung abzuhalten. Das ist der wirkliche Krieg gegen die Wissenschaft.

Die freiwillig eingegangenen Verpflichtungen bzgl. des Paris-Abkommens 2015 werden Billionen Dollar kosten, um kaum etwas zu tatsächlichen Temperatur-Reduktionen und damit zusammenhängenden Auswirkungen beizutragen.

Es ist absurd seitens der globalen Nationen, Billionen Dollar auszugeben für von der Regierung verordnete Klimamaßnahmen, welche auf falschen und gescheiterten Klimamodell-Projektionen beruhen, welche wiederum die Erzeugnisse von Vermutungen und Spekulationen sind, gekoppelt mit mit einem korrupten politischen Prozess, welcher einen künstlichen „Konsens“ erschaffen hat, um die Wahrheit bzgl. der betrügerischen klimawissenschaftlichen Fähigkeiten zu verstecken.

Die Tatsache, dass all jene, die nach so massiven Ausgaben schreien, so hart daran gearbeitet haben, die außerordentlichen Schwächen der globalen Klimamodell-Simulationen zu verstecken und zu leugnen, zeigt, dass ein massives globales Zusammenspiel der Regierungen von der klimaalarmistischen Gemeinschaft durchdrungen wird, wenn es um die Öffentlichkeit geht.

Klimamodelle mögen nützlich sein für akademische und wissenschaftliche Studien, aber sie sind vollkommen ungeeignet für Zwecke durch Vorschriften getriebener Verpflichtungen, welche Ausgaben in Höhe von Billionen Dollar globalen Kapitals erfordern. Diese Gelder können mit erheblich größerem Nutzen zum Kampf gegen bekannte schwere globale Probleme eingesetzt werden, als da wären Armut, Gesundheitsvorsorge, Bildung usw.

Präsident Trump muss die richtige Entscheidung für die USA und die Welt reffen, indem er das politisch und wissenschaftlich korrupte Paris-Abkommen in die Tonne tritt. Er sollte eine zukünftige Klimapolitik auf etwas richten, was hoffentlich ein neuer Anfang sein wird, frei von monumentalen Stigmen einer „Politisierung der Klimawissenschaft“, welche so schwer das gegenwärtige Paris-Abkommen und damit in Verbindung stehende Prozesse durchdrungen hat.

Link: https://wattsupwiththat.com/2017/05/10/dumping-paris-agreement-right-decision-for-u-s-and-the-world/
Übersetzt von Chris Frey EIKE




Bonner UN Klimakonferenz verlangt zusätzliche 300 Milliarden p.a. um die lange Wartezeit der Klimabetroffenen zu lindern

Innovative Finanzierung benötigt, um 300 Milliarden Dollar pro Jahr für Klimaverluste zu finden
Bericht von der UNFCCC Bonn Climate Conference
Von Laurie Göring
LONDON (Thomson Reuters Foundation) – Für Maßnahmen zum Klimawandel, die bereits kurzfristig anfallen, müssen schätzungsweise 300 Milliarden Dollar jährlich für Länder, die mit unvermeidlichen Klimaverlusten umgehen, aus innovativen neuen Quellen kommen, wie z.B. eine Finanztransaktionssteuer oder CO2-Steuer, sagen Forscher.
Die Finanzierung für „Verlust und Beschädigung“ durch Klimawandel zielt darauf ab, Menschen zu helfen, die ihr Land wegen steigendem Meeresspiegel verlieren, oder die sind gezwungen sind, auszuwandern, da Dürre wachsende Kulturen in einigen Regionen unmöglich macht.
„Was sich am deutlichsten herausstellt, ist, dass es derzeit nicht genügend Mittel gibt, um anzufangen, über die Finanzierung von Verlust und Beschädigung nachzudenken, bei dem vorhandenen Klima, der Entwicklung, der Risikominderung und der Finanzierung einer Katastrophen-Rückversicherung, die alle um eine Größenordnung kostspieliger ausfallen“, so die Forscher der Berliner Heinrich-Böll-Stiftung. [Aha, es haben sich noch mehr „Trittbrettfahrer“ gefunden, der Übersetzer].
In dem Bericht, der zu den UN-Klimaschutzverhandlungen in Bonn veröffentlicht wurde, die nun in die zweite Woche gegangen ist, sagten die Forscher, dass im Jahr 2020 etwa 50 Milliarden Dollar pro Jahr benötigt werden, um Menschen zu helfen, die ihr Land und ihre Kultur verlieren oder gezwungen sind, auszuwandern, als Folge Klima bezogener Probleme.

Es sollte kein neuer Träger geschaffen werden, um die Mittel anzunehmen und zu verteilen, stattdessen sollten bestehende Organisationen wie der Green Climate Fund oder die Global Environment Facility dafür zuständig werden
Harjeet Singh, der Vorsitzende für Klimawandel-Politik der „charity ActionAid“ [NGO], sagte auch, dass die Einrichtung einer neuen Organisation für Finanzierung von Verlust und Schaden keinen Sinn macht.
„Es ist so ermüdend, eine Institution einzurichten und es seinen Gang gehen zu lassen und dabei sicher zu stellen, dass das Geld die zugedachten Menschen erreicht. Es ist sinnvoll, die vorhandenen Mechanismen zu nutzen, um das Geld zu transferieren „, sagte er der Thomson Reuters Foundation in einem Telefoninterview aus Bonn.

Die ausführliche Zusammenfassung und den vollständigen Bericht finden Sie hier.
Den originalen Artikel: http://www.reuters.com/article/us-climatechange-finance-idUSKCN18B21Z
 
Mir fehlen die Worte. Da gibt es Menschen, die mit einem atemberaubenden Gefühl der Berechtigung zu denken scheinen, dass wir zustimmen, sie zusätzliche $ 300 Milliarden auf ihre Bankkonten schaufeln zu lassen und im gleichen Atemzug mit einer angeblich edlen Geste so tun, als ob Sie uns den zusätzlichen Papierkram ersparen könnten, um einen weiteren, zusätzlichen Trog aufzubauen.
Je früher diese arroganten Parasiten von unserem Geld abgeschnitten werden, desto besser.
Gefunden auf WUWT am 15.05.2017
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2017/05/15/un-bonn-climate-conference-demand-300-billion/




Rechnerisch lohnt sich die solare Eigenver­sorgung nicht – so lange unser Versor­gungsnetz stabil ist. Doch das wird sich ja ändern

Der Autor will dies an einem Beispiel zeigen. Entweder er blamiert sich fürchterlich, weil „sein“ Excel nicht richtig rechnet, oder etwas ist weiterhin „faul im Staate Strommarkt“.

Energie wird innogy

Die neue (alte) auf einen RWE-Kern basierende Firma innogy wirbt mit einem super-Angebot für potente Selbstversorger, bestehend aus den Solarpaneln, einem Akkuspeicher, Steuerung (incl. einer Haussteuerung) und Montage / Inbetriebnahme:

Bild 2 Screenshot Leistungs-und Preisdarstellung Solarkomponenten


Bild 3 Screenshot Leistungs-und Preisdarstellung Akkuspeicher

Und investieren so in die Zukunft Ihrer Familie

Dieser Satz (der Kapitelüberschrift) steht in der innogy-Werbung [2], wie auch die folgende Darstellung über die Sonne, welche zwar zum Thema nichts beiträgt, aber wohl an den schon in die Welt(Unsinns)Historie eingegangenen Spruch des Obergrünen Franz Alt anlehnen soll, dass die Sonne keine Rechnungen stellt.

Bild 4 Screenshot aus der innogy-Werbung


Ansonsten verspricht die Werbung:
[2] Eine Photovoltaikanlage von innogy macht Sie vom reinen Stromverbraucher zum echten Erzeuger von sauberem Solarstrom. Und mit einem Batteriespeicher genießen Sie sogar nachts die Kraft der Sonne.
innogy, Dortmund/Essen, 20. März 2017: … Alle Solaranlagen können bei der Installation oder später mit einem maßgeschneiderten Batteriespeicher von Mercedes-Benz und der intelligenten Haussteuerung innogy SmartHome kombiniert werden. So lässt sich mehr Sonnenstrom vom eigenen Dach selbst im Haus nutzen … Hausbesitzer mit Solaranlage lassen den Sonnenstrom so einfach rein in den Tank.
Das zergeht richtig auf der Zunge und man bekommt neben dem Versprechen, innovativ, nachhaltig und klimarettend zu sein, auch technische Möglichkeiten, deren Zwang sich zwar aus einem Mangel ergeben, aber der Frau fürs Kaffeekränzchen gleich den Doppelbeleg „nachhaltig innovativ“ zu sein liefert, vor allem wenn sie ihr Elektroauto auch noch an der eigenen Wallbox aufgeladen hat und nicht auf der Suche nach einer kostenlosen, kommunalen war (im Heimatort des Autors ist das noch so, weil das Verrechnen technisch zu aufwendig sei und man die „Elektrofahrer“ auch belohnen muss):
innogy: … Wenn viel anfällt, schaltet das intelligente Energiemanagement automatisch Batteriespeicher, Waschmaschine und Trockner dazu – oder lädt das Elektroauto an der passenden innogy Ladebox
Wer der Werbung bis hierher gefolgt ist, steht vielleicht kurz davor, das Angebot anzunehmen – bis man die Zahlen unter die Lupe nimmt und eine kleine Excel-Tabelle „drüber laufen“ lässt.
Bei innogy wird die mit dieser Basiskonfiguration erwartbare Stromausbeute mit 2.000 kWh/Jahr angegeben, ein Portal gibt auch etwas niedrigere „Solar-Erntemengen“ an:
Photovoltaik.org: So ist zum Beispiel wichtig zu wissen, dass pro kWp in Deutschland durchschnittlich im Jahr 800 bis maximal 1.000 Kilowattstunden Strom erzeugt werden können.

Der Jahres-Ertragswert der innogy-Basisinstallation dürfte deshalb zusätzlich abhängig vom Standort zwischen 1.664 … 2.048 kWh / pa liegen. Für die folgende Abschätzung werden die oberen 2.000 kWh / pa angenommen, obwohl diese die Wenigsten erreichen werden.

Lass die Sonne rein – und des Verkäufers Herz erfreun

In der folgenden Tabelle ist eine Basisinstallation anhand der innogy-Angaben mit einfachsten Annahmen berechnet. Dabei hat sich der Autor erlaubt, dem Akkusatz nur 50 % Verschleißkosten über die (für Akkus) sehr lange Laufzeit von 20 Jahren zuzurechnen, obwohl dies bei einer fast täglichen Lade- / Entlade-Zyklen-Belastung bestimmt viel zu wenig ist. Die 2 % Verzinsung sind, sofern man noch laufende, sonstige Kosten mit einbezieht, auch auf keinen Fall zu viel angenommen. Man denke nur daran, dass die GRÜNEN Eigenverbrauch mit zusätzlichen Abgaben belegen wollen.

Bild 5 Tabellierte Rechenwerte des Autors zur innogy Basiskonfiguration für eine Laufzeit von 20 Jahren

Worin liegt der Sinn, wenn der selbst erzeugte Strom das Doppelte des Bezugspreises kostet?

Die Tabelle mit der Kostenabschätzung zeigt, dass selbst bei einem aktuellen Privatbezugspreis von 30 ct / kWh sich das Invest in 20 Jahren gerade einmal zur Hälfte amortisiert hat – das aber nur infolge der sehr gutwillig gerechneten Kostenschätzung. Umgedreht ausgedrückt: Der selbst erzeugte Solarstrom kostet mindestens 60 ct / kWh und lehnt sich damit gut an das in einer früheren Artikelreihe [3] vermittelte an.
Damit ist aber auch klar, wer alleine von dem Deal wirklich profitiert.

Doch das Erfolgsmodell lässt sich nicht aufhalten

Das was innoggy praktiziert und von vielen großen Firmen kopiert wird, haben auch lokale Versorger auf ihre Fahne geschrieben. „Wenn es das Einkommen als Vorstand mehrt, ist einem Vorstand der Kunde nichts mehr wert“, hat der Autor schon mehrmals angeprangert. Für ihn ist es eher ein Vorzeigebeispiel für die beim EEG übliche Desinformation der Verbraucher – welche auch von kommunalen EVUs inzwischen aus reinem Eigennutz ebenfalls massiv betrieben werden [4] [5] – und ein gutes Beispiel, zu welchen Konsequenzen das Speicherproblem wirklich führt und entgegen allen gegenteiligen Beteuerungen eklatant vorhanden ist.

Bild 6 Werbung der N-Ergie (großer süddeutscher Versorger mit kommunalen Wurzeln)


 

Stromausfälle werden erforderlich

Nachdem sich solche Systeme noch für längere Zeit nicht entfernt amortisieren können, müssen andere Lösungen her. Im Artikel: EIKE 13.05.2017: [1] Wie dank SPD-Super Martins genialer Idee die Energiewende gerettet wird,
hat es die SPD Energie-Verantwortliche deutlich gemacht, wie solche aussehen: Die konventionelle Erzeugung muss ganz drastisch verteuert werden – leider ein Argument, dem alle etablierten Parteien anhängen.
Doch gelingt dies über eine CO2-Zertifikateverteuerung nicht schnell genug. In dieser Not hilft ein mit Bestimmtheit kommendes EEG-Problem: Der Strom muss häufig ausfallen! Nur dann „erkennt“ der Bürger den „Wert“ eines eigenen Stromspeichers so drastisch und schnell, dass das erwünschte Vermarktungsszenario starten kann.
Es wird deshalb ein Treppenwitz der Energiegeschichte werden, dass das Land mit der weltweit (beneideten) stabilsten Energieversorgung Wert darauf legt, diese selbst zu zerstören – und alle dabei begeistert mitmachen. Doch nachdem es dank einer jahrelangen Medienkampagne gelungen ist, alle Probleme der konventionellen Energiegewinnung zur Last zu legen (konventioneller Strom verstopft die Leitungen, durch die der Ökostrom sonst problemlos fließen könnte) und den Bürgern sogar weis zu machen, dass Strom über das Internet verteilbar wäre (die über Smartphone geregelten „Nachbarschaftsmodelle“):
EIKE 26.08.2016: In Brooklyn beginnt gerade die Revolution der Energiewende, welche inzwischen auch in Deutschland gefordert werden [1], verdient „jeder“ daran, nur eben nicht der private Stromkunde.
Früher war das Netzt aufgrund des von Fachleuten geplanten Aufbaus in sich stabil, heute muss es intelligent werden, um nicht sofort zusammenzubrechen. Wie pflege-, kostenaufwendig und mindestens zeitweise unstabil – auch angreifbar [11] – diese gelobte „Intelligenz“ ist, zeigt Microsoft jedem Nutzer fast täglich.
Doch die Hersteller verdienen prächtig daran:
EIKE: Intelligente Stromzähler für Dummerchen jetzt Pflicht
EIKE 06.08.2016: Wenn statt billigem Strom der teure Servicespezialist kommt und man beim Kontingent-Überschreiten an seinen Nachbarn Strafgebühr bezahlt – nennt sich das Energie-autark
EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze
Und zum großen Glück wird dies aufgrund des EEG-Ausbaus automatisch erfolgen, wie es Australien kürzlich anschaulich vorgemacht hat [6]). Als Folge dieser Erwartung sind die gesetzlichen Regelungen auch in Deutschland bereits vorbereitet, was zeigt, dass die Politik irgendwann immer eine „Lösung“ anbietet:
EIKE 02.11.2016: [7] Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Um die Blackouts auch ganz sicher zu stellen, wird dazu die Mär verbreitet, dass ein Leitungsausbau nicht wie geplant erforderlich ist, da eine regional bezogene Erzeugung und Versorgung doch viel „zukunftsträchtiger“ wäre, wie immer unterstützt durch willige „Wissenschaftler“ [10].
Wer sich also bisher wunderte, warum es in den verantwortlichen Kreisen „niemanden interessiert“, wie unser Versorgungssystem immer konsequenter in die Katastrophe „geschleust“ wird (E.ON Vorstand Theyssen fand es sogar „sexy“), findet bestimmt darin eine (zumindest teilweise) Erklärung.

Das gewünschte (instabile) Versorgungsnetz der Zukunft

Wie es vorbereitet wird und aussehen soll, hat der Autor bereits In einem früheren Artikel aufs Korn genommen (Auszug):
N-ERGIE [4] Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
In einer Präsentation erklärte darin der Vorsitzende des Vorstands des lokalen Versorgers wie er sich die EEG-Zukunft unter seiner Führung vorstellt und dass das „Zerschlagen“ der bisher bewährten Energiestruktur und Firmen vorteilhaft wäre, weil im Gegenzug die lokalen Versorger „ .. an Einfluss gewinnen“.
In der Einleitung des Artikels hieß es dazu: „Die Energiewende ist nicht nur ein Riesenprojekt, sie ist auch ein Riesengeschäft – und davon hätte die Nürnberger N-Ergie gerne ein großes Stück.“

Das neue Geschäft lautet: Errichte ein lokales Energienetz. Sorge dafür, darüber „Alleinherrscher“ zu werden, indem die Außenverbindungen so schwach bleiben, dass keine Konkurrenz von extern darüber möglich ist. Verkaufe dies dann der Politik und den Medien als Innovation und vor allem als Klimarettung und niemand wird einen daran hindern, es durchzuführen, auch, da diese Idee den gegen Trassen opponierenden Bürgen und Politikern entgegen kommt.
Allerdings benötigt man für ein solches Vorhaben „technische Expertisen“, welche die Realisierung als innovative Lösung versprechen. Auf klimaretter.info lassen sich viele nachlesen, da die Energieberaterin unserer Regierung selbst eine glühende Verfechterin davon ist. Was global gelang, gelingt natürlich auch auf unterer, mehr lokaler Ebene. Zum Beispiel hat die Prognos AG, unterstützt von der Erlanger Friedrich Alexander Universität im Auftrag der N-ERGIE eine solche Studie erstellt:
Studie: [10] Dezentralität und zellulare Optimierung – Auswirkungen auf den Netzausbaubedarf
Dazu die N-Ergie Pressemitteilung (Auszüge): [8][9] Energiewende mit weniger HGÜ-Trassen möglich
„Die heutige Netzausbauplanung wird den vielen technischen Entwicklungen zur Integration der erneuerbaren Energien nicht gerecht“, versichert Josef Hasler, Vorstandsvorsitzender der N-ERGIE Aktiengesellschaft. „Der weitere Ausbau erneuerbarer Energien in Deutschland lässt sich auch mit der Hälfte der im Netzentwicklungsplan vorgesehenen HGÜ-Trassen realisieren.“
Die Forscher konzentrierten sich in der Studie auf die Parameter, die in der heutigen Netzentwicklungsplanung wenig beachtet werden. Dazu zählen
• die Ansiedlung der Erneuerbare Energien-Anlagen,
• die Flexibilität von Verbrauchern,
• Verteilung der KWK-Anlagen und
• ein optimales Einspeisemanagement für die erneuerbaren Energien.
Aus volkswirtschaftlicher Gesamtperspektive ist die regionale Ansiedlung von EE-Anlagen mit einem hohen Wohlfahrtsgewinn von 1,7 Mrd. Euro pro Jahr verbunden, wenn man sie kombiniert mit der Einführung eines wohlfahrtsoptimierten Einspeisemanagements, dem Redispatch, der kostenoptimalen räumlichen Ansiedlung von KWK und Power to X (Gas/Heat).
Die Studie zeigt zudem, dass keine Notwendigkeit besteht, den Ausbau erneuerbarer Energien zu dämpfen. Im Gegenteil: Bei Einsatz der vorgeschlagenen Maßnahmen lässt sich dieselbe erneuerbare Erzeugung mit wesentlich weniger Netzausbau realisieren.
Hasler plädiert deshalb für einen zellularen Ansatz, in dem Energie entsprechend dem Subsidiaritätsprinzip soweit möglich auf der lokalen und regionalen Ebene erzeugt, gespeichert und verbraucht wird.

Einer der wichtigsten Vorschläge in dieser Studie ist allerdings der, den überflüssigen und die Netze gefährdenden EEG-Strom besser konsequent „wegzuschmeissen“, anstelle die von der Politik gewollte Zwangsverwendung mit viel unnützem Kostenaufwand weiter zu betreiben. Darüber zu informieren, wurde in der Presseerklärung des Auftraggebers allerdings „vergessen“:
[10] Empfehlungen Optimale EE-Abregelung. Die Vorhaben zur markt- und systemgetriebenen Abregelung von EE-Erzeugung sollten konsequent weitergedacht werden. Anstelle einer Kappung der Erzeugungsspitzen sollte eine Abregelung bei negativen Strompreisen und im Rahmen des Redispatches treten, wo dies die günstigste Alternative darstellt. Durch die Koppelung des Abregelungsvorgangs an Preissignale ist gewährleistet, dass genau in den Momenten abgeregelt wird, in denen dies aufgrund der Angebots- und Nachfragekonstellation aus Gründen der Kosteneffizienz geboten erscheint.
Fazit
Mit dieser neuen Konstellation von finanziellen Abhängigkeiten und Forderungen wird eine Lösung des EEG-Problems wieder in eine weite Ferne verschoben, beziehungsweise unmöglich gemacht. Es wird (soziologisch) interessant werden, ob es gelingt, die Maßnahmen dazu wie in der Pressemitteilung dem immer noch (gut-)gläubigem Volk als „Wohlfahrtsgewinn“ zu verkaufen.
Quellen
[1] EIKE 13.05.2017: Wie dank SPD-Super Martins genialer Idee die Energiewende gerettet wird
[2] innogy, Werbung: für zu hause
[3] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
[4] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
[5] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
[6] EIKE: Die Realität schlägt zurück: „Grüne“ Träumer kämpfen um Süd-Australiens gescheitertes Experiment mit Windenergie
[7] EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
[8] N-Ergie Pressemitteilung, 07.10.2016: Studie zur Dezentralität: Energiewende mit weniger HGÜ-Trassen möglich
https://www.n-ergie.de/header/presse/mitteilungen/studie-zur-dezentralitaet-energiewende-mit-weniger-hg–trassen-moeglich.html
[9] photovoltaik 10.10.2016: Energiewende braucht weniger HGÜ-Trassen:
http://www.photovoltaik.eu/Archiv/Meldungsarchiv/Energiewende-braucht-weniger-HGUe-Trassen,QUlEPTczNDg5MSZNSUQ9MTEwOTQ5.html
[10] FAU und Prognos AG, Studie Langfassung: Dezentralität und zellulare Optimierung – Auswirkungen auf den Netzausbaubedarf
[11] EIKE 31.08.2016: Kann man bald per App Deutschland „den Saft“ abdrehen