Elektroautopflicht: Die dümmsten Kälber…

Praktisch heißt das: Die bisherige Antriebstechnik mit Verbrennungsmotoren soll dann verboten werden. Für ein Land, dessen wichtigste verbliebene Industrie die Automobilbranche ist, eine erstaunliche Direktive. Man könnte es auch Selbstmord aus Angst vorm Tod nennen.

Nach der Energiewende will das Allparteien-Konglomerat offenbar die von den Grünen schon lange betriebene "Verkehrswende" ins Werk setzen. Nach der nächsten Bundestagswahl wird diese Partei mit großer Wahrscheinlichkeit an einer wie auch immer gearteten Bundesregierung beteiligt sein. Und der jetzige Beschluss ist ein Vorgeschmack darauf, wie gut die handelnden Personen mittlerweile auf dem Gesetzgeber-Klavier spielen. Richtig erschreckend ist aber etwas anderes: Das Schweigen der Automobilindustrie. Die ist mittlerweile durch den Diesel-Skandal weitgehend mit sich selbst beschäftigt und offenbar völlig enteiert, wenn es darum geht einer wildgewordenen Politik laut und deutlich zu widersprechen. In sofern ist der Zeitpunkt für diesen Vorstoß kein Zufall.

Die Herrschaften in der Autoindustrie glauben wohl, die Sache durch vertrauliche Lobbyarbeit im Hinterzimmer vom Tisch zu kriegen. Wenn sie sich da mal nicht täuschen. Das haben schon andere vor Ihnen gedacht, etwa die Gentechnik-, Atom- oder Fracking-Branche. Beide sind in Deuschland Vergangenheit. Besichtigen lässt sich die Folge solcher Appeasement-Politik gegenüber Ideologen aber auch bei den großen Energieversorgern. Einstmals stolze Unternehmen wie RWE oder Eon schliddern mittlerweile als Schatten ihrer selbst am Bankrott entlang, entlassen tausende von Leuten, greifen Subventionen ab und werden wohl früher oder später unter einen staatlichen Schutzschirm schlüpfen, ergo verstaatlicht.

So soll es offenbar auch mit Deutschlands Automobilindustrie von statten gehen. Das ist ein Problem für viele hundert tausende Arbeitsplätze, nicht aber für Ideologen, denen das Individual-Fortbewegungsmittel Auto schon lange ein Doirn im Auge ist. Wobei eines den Herrschaften im Bundesrat klar sein sollte: Ein deutsches Kraftwerk kann nicht davon laufen. Eine deutsche Automobilfabrik jedoch schon. Aber sie braucht es gar nicht: Es stehen schon Dutzende Zweigwerke etwa in China, man muss nur die Produktion hochfahren. Shanghai statt Wolfsburg geht auf Knopfdruck.

Politiker glauben hier auch mal wieder, schlauer zu sein als der Markt. Der sagt aber: Elektroautos sind im Moment, wenn überhaupt noch nicht einmal mit Subventionen in nennenswerten Stückzahlen zu verkaufen. Und wenn sie mal so weit entwickelt sind, dass sie mit den jetztigen Verbrennungsmotoren konkurrieren können, dann werden die Leute ganz von selbst auf das bessere System umsteigen. Dafür brauchen sie aber keine Grünen Verbots-Apostel.

Einstweilen ist das Elektroauto jedoch nicht nur eine ökonomisch, sondern auch eine ökologisch fragwürdige Veranstaltung. „In Deutschland dominieren Kraftwerke, die mit fossilen Brennstoffen betrieben werden. Das wird noch etliche Jahre so bleiben. Dementsprechend ‚schmutzig‘ bleibt der Ladestrom für E-Autos – unabhängig davon, ob man einen Ökostrom-Tarif abschließt“, schreibt heute der Tagesspiegel in einem hellsichtigen Beitrag, „in einer kompletten Lebenszeit-Analyse kommt das Heidelberger Umwelt- und Prognose-Institut daher zu dem Schluss, dass bei durchschnittlicher Nutzung E-Autos pro Personenkilometer nur unwesentlich weniger CO2 ausstoßen als Benziner und Diesel.“ Aber das ist noch nicht alles: „Vor allem beim Feinstaub sieht es trübe aus für die Elektro-Flitzer. Da diese bei der Herstellung mehr Ressourcen erfordern als gewöhnliche Pkw, bleibt unterm Strich das paradoxe Fazit: Je mehr ich fahre, desto ‚grüner‘ wird der E-Wagen im Vergleich zum herkömmlichen Fahrzeug.“

Es gibt übrigens auch wenig Erfahrungen darüber, wie lange so eine teure und schwere Elektroauto-Batterie überhaupt hällt. Fünf Jahre? Zehn Jahre? Wie viel Energie bei der Produktion von Batterien verbraucht wird, ist ebenfalls nicht ganz klar, sie erfolgt meist in China (Die Hersteller von Solarpanels lassen grüssen). Und das bisschen Restauto produziert man dann sinnvollerweise gleich nebenan ebenfalls in China. Bekanntermaßen ist dort der Anteil an Kohlestrom recht hoch, es werden im Wochentakt neue Kohlekraftwerke hochgezogen. Deutschland wird die Arbeitsplätze der Automobilindustrie also mitsamt der Abgase nach China exportieren. Einfach irre.

Übernommen von ACHGUT hier




Eine missverständlich präsentierte Umfrage zum EEG kommt wie gerufen: Wenn das Umfrageinstitut forsa nicht eindeutiger berichtet, braucht es sich nicht zu wundern, dass jeder die Ergebnisse nach seinen Wünschen auslegt

Bild rechts: Screenshot von der NRW-Homepage
Leider las fast jeder etwas Anderes aus den Umfrageergebnissen heraus, was das durchführende Institut forsa schließlich veranlasste, eine Gegendarstellung abzugeben. Ursprünglich wollte der Autor auch „auf den Putz hauen“. Beim Durchlesen der Umfragepräsentation von forsa muss er allerdings zugeben, dass man sich seine „Wunschergebnisse“ darin herrlich zusammenstellen kann – was auch ausgiebig genutzt wurde.
Aber mit der Gegendarstellung von forsa weiß man nun, wie es gemeint war. Nur werden diese wohl die wenigsten Bürger lesen (können), denn diese wurde von fast keinem Medium – und auch nicht beim Auftrag gebenden NRW Umweltministerium – veröffentlicht.

Die Informationen der Medien

WDR: [5] Bürger für schnellen Ausbau erneuerbarer Energien
Laut aktueller Forsa-Umfrage sind 90 Prozent für einen schnellen Ausbau der Erneuerbaren Energien
Beim Engagement für mehr Klimaschutz finden allein 90 Prozent den Ausbau der erneuerbaren Energien für wichtig.
71 Prozent sind für den schnellen Ausstieg aus der Braunkohleförderung.

Was steht dazu im Ergebnisbericht der forsa Umfrage?[3]

Bild 1 [3] Screenshot aus dem Bericht, Handlungsfelder zur Erreichung der Nachhaltigkeitsziele: Klimaschutz I
Wie man sieht, wurden beim WDR zum Thema „schnellen Ausbau der Erneuerbaren Energien“ die Werte für „sehr wichtig“ und „wichtig“ addiert, was 90 % ergibt. Das ist nicht falsch, denn die gemeinsame Menge (Vereinigungsmenge) ist „wichtig“ mit 90 %.
Gleiches gilt für „den schnellen Ausstieg aus der Braunkohleförderung“. Die Addition ergibt die 70 % für die gemeinsame Menge „wichtig“.

Genau gleich gingen auch die Rheinische Post und auch das NRW-Umweltministerium [1] vor:
RP ONLINE 26. September 2016: [6] Umfrage Mehrheit fordert raschen Braunkohle-Ausstieg

In Nordrhein-Westfalen wächst der Widerstand gegen Abbau und Verstromung von Braunkohle. 71 Prozent der Bürger fordern einen schnellen Ausstieg aus der Braunkohle: Für 36 Prozent ist dies "sehr wichtig", für 35 Prozent "wichtig".

… Demnach ist es für 90 Prozent der NRW-Bürger "wichtig" oder "sehr wichtig", dass die erneuerbaren Energien schnell ausgebaut werden.

Was wollte forsa wirklich sagen?

Das lässt sich nur anhand der Gegendarstellung [4] erkennen:
[2] Der forsa-Chef und Gründer des forsa-Instituts, Manfred Güllner, widerspricht der Auslegung der forsa-Ergebnisse. In der Untersuchung sei nach der Bedeutung der „Nachhaltigkeit“ und nicht danach gefragt worden, ob man einen Braunkohle-Ausstieg fordere, sagt er.
Insgesamt waren 23 Nachhaltigkeitsziele angegeben worden, eine Mehrfachnennung war möglich.
Gefragt wurde zum Beispiel nach Wichtigkeit der Reinhaltung von Luft und Wasser, den Verzicht auf den Einsatz der Gentechnik bei der Produktion von Lebensmitteln, die Sicherung der ärztlichen und medizinischen Versorgung im ländlichen Raum, die Förderung von mehr artgerechter Tierhaltung oder eine bessere und ausführlichere Information der Verbraucher über Inhaltsstoffe und die Art der Produktion von Lebensmitteln.

Erneuerbare Energien: Einen “schnellen Ausbau der erneuerbaren Energien” wünschten sich nur 45 Prozent der Befragten (Rang 8).
Braunkohle: Ein schneller Ausstieg aus der Braunkohleförderung in NordrheinWestfalen wurde nur von einer Minderheit von 36 Prozent aller Befragten als „sehr wichtig“ eingestuft (Rang 15).

Der Artikel der Rheinischen Post sei “ein weiteres unrühmliches Beispiel dafür, wie Befindlichkeiten von Menschen trotz vorliegender Informationen völlig verzerrt dargestellt werden”, sagt Güllner. Im rheinischen Braunkohlerevier werde die Braunkohle nach wie vor als bedeutender Wirtschaftsfaktor hoch geschätzt. Dies sei durch eine Vielzahl von forsa-Untersuchungen belegt, unter anderem durch eine bundesweite „forsa“-Studie vom Juli 2015, berichtet der Erft-Kurier. Die Akzeptanz der Braunkohle sei nachhaltig gut, auch als wichtiger Wirtschaftsfaktor. „Sie wird zwar nicht geliebt, jedoch akzeptiert. Denn 75 Prozent aller Bundesbürger sind sich im Klaren, dass neben Sonne und Wind auch weiterhin die herkömmlichen Energiearten genutzt werden müssen.“

Es ist sehr schade, aber nun hat Deutschland seine „90 % Zustimmung“ zum schnellen Ausbau der Neuen Energien und „71 % Zustimmung“ für den schnellen Ausstieg aus der Braunkohleförderung, obwohl aktuell hauptsächlich davon Betroffene – denn dazu gehört Nordrhein-Westfalen – eigentlich eher das Gegenteil geantwortet hatten.
Diese „zustimmenden“ Werte werden die EEG- und Braunkohlediskussion nun lange Jahre konsequent „verfolgen“.

Man kann nur hoffen, dass forsa bei der nächsten Umfrage in der Ergebnispräsentation professioneller vorgeht. Es ist völlig unrealistisch, zu hoffen, irgendjemand in der Politik würde sich an der Gegendarstellung orientieren. Dazu müsste forsa mindestens den Abschlussbericht zurückziehen und einen neuen, nicht mehr missverständlich interpretierbaren erstellen. Doch so weit wird man nun doch nicht gehen (wollen).

Anmerkung der Redaktion

Diese (oft bewusst) missverständliche Formulierung der Fragen die zur Beantwortung den Probanden vorgelegt werden ist leider keine Ausnahme. Der Statistik-Professor Walter Krämer bezeichnet diese Art des Vorgehens vornehm zurückhaltend als "Ergebnis-orientierte Demografie" im Gegensatz zur Erkenntnis-orientierte Demografie". Für uns Normalbürger ist das jedoch nichts anderes als vorsätzliche Täuschung, auch Betrug genannt.

Als Beispiel dient dazu u.a. eine Umfrage eines ominösen You Gov Instituts im Auftrag des WWF zum Klimaschutz bzw. zur Weiterverwendung der Braunkohle- und veranlasste die berichtende Rhein-Ruhr-Nachrichten (RNN) zu der Schlagzeile: "Wenn die Antwort vorher feststeht". Den erhellenden Beitrag in der RNN über gängige Manipulation der Statistik hat ein Leser gescannt und uns als pdf zugesandt. Er ist im Anhang herunterladbar.

Quellen

[1] umwelt.nrw: 26.09.2016 Minister Remmel: "Klimaschutz und erneuerbare Energien finden großen Rückhalt in der Bevölkerung" (siehe unten)
https://www.umwelt.nrw.de/presse/detail/news/2016-09-26-forsa-umfrage-zeigt-die-bedeutung-der-nachhaltigkeit-in-nrw-klimaschutz-und-erneuerbare-energien-finden-grossen-rueckhalt-in-der-bevoelkerung/

[2] Ruhrkultour: Braunkohle: Ergebnisse der forsa-Umfrage über “Nachhaltigkeit in Nordrhein-Westfalen” verzerrt
http://ruhrkultour.de/braunkohle-ergebnisse-der-forsa-umfrage-ueber-nachhaltigkeit-in-nordrhein-westfalen-verzerrt/

[3] forsa: 22. Juni 2016 n6379/33320 Le, Gü Nachhaltigkeit in Nordrhein-Westfalen

[4] forsa 26. September 2016 Gü/Sh, Prof. Manfred Güllner: Stellungnahme zu einem verzerrenden Beitrag der Rheinischen Post über die Einstellung der Bürger in Nordrhein-Westfalen zur Braunkohle

[5] WDR: Bürger für schnellen Ausbau erneuerbarer Energien
http://www1.wdr.de/nachrichten/umfrage-klimaschutz-erneuernbare-energie-100.html

[6] RP ONLINE
26. September 2016: Umfrage Mehrheit fordert raschen Braunkohle-Ausstieg
http://www.rp-online.de/wirtschaft/umfrage-71-prozent-der-buerger-fordern-raschen-braunkohle-ausstieg-aid-1.6285165

Related Files




Chaosforscher Lorenz erneut bewiesen

Der Höhepunkt der Presseerklärung ist das Bild rechts mit der Original-Bildunterschrift:

Trends der Wintertemperatur für Nordamerika zwischen 1963 und 2012 für jedes einzelne der 30 Mitglieder des CESM Large Ensemble. Die Variationen zwischen Erwärmung und Abkühlung in den 30 Membern illustrieren die weit reichenden Auswirkungen der natürlichen Variabilität, die dem vom Menschen verursachten Klimawandel überlagert sind. Das Ensemble-Mittel (EM; unten, zweites Bild von rechts) mittelt die natürliche Variabilität heraus, was allein den Erwärmungstrend zurücklässt, der dem vom Menschen verursachten Klimawandel zuzuordnen ist. Das Bild rechts unten (OBS) zeigt aktuelle Messungen aus dem gleichen Zeitraum. Vergleicht man das Ensemble Mean mit den Messungen, konnte das Wissenschaftlerteam aufgliedern, ein wie großer Anteil an der Erwärmung in Nordamerika der natürlichen Variabilität und welcher Anteil dem vom Menschen verursachten Klimawandel geschuldet ist. Die ganze Studie steht im American Meteorological Society’s Journal of Climate. (© 2016 AMS.)

Was ist das? Das Large Ensemble Community Project des UCAR hat eine Datengrundlage erzeugt von „30 Simulationen mit dem Community Earth System Model (CESM) mit einer Auflösung von 1° Länge/Breite. Jede einzelne Simulation erfährt ein identisches Szenario historischen Strahlungsantriebs, startet jedoch jeweils von einem etwas unterschiedlichen atmosphärischen Zustand“. Aber genau welche Art von „unterschiedlicher atmosphärischer Zustand“ ist gemeint? Wie unterschiedlich waren die Anfangsbedingungen? „Die Wissenschaftler modifizierten die Anfangsbedingungen des Modells leicht, indem sie die globale atmosphärische Temperatur um weniger als ein Billionstel Grad variierten“.

Die Bilder, Nummern 1 bis 30, repräsentieren jeweils die Ergebnisse eines Einzellaufes des CESM mit einheitlichen, sich um ein Billionstel Grad unterscheidenden Anfangstemperatur – jede einzelne eine Projektion der Wintertemperaturtrends in Nordamerika im Zeitraum 1963 bis 2012. Das Bild rechts unten mit der Bezeichnung OBS zeigt die tatsächlich beobachteten Trends.

Es gibt eine Studie, aus der dieses Bild stammt: Forced and Internal Components of Winter Air Temperature Trends over North America during the past 50 Years: Mechanisms and Implications. Dabei handelt es sich um eine Studie, die lediglich eine von „etwa 100 begutachteten Artikeln in wissenschaftlichen Journalen ist, welche Daten des CESM Large Ensemble herangezogen hatten“. Ich werde diese Studie nicht kommentieren, sehr wohl aber das Bild, dessen Bildunterschrift sowie die Statements in der Presseerklärung selbst.

Ich bekenne verblüfft zu sein – nicht durch die Tatsache, dass 30 CESM-Modellläufe 30 vollkommen unterschiedliche 50-Jahre-Klimaprojektionen aus nahezu identischen Ausgangsbedingungen erzeugt haben. Das war absolut zu erwarten. Tatsächlich zeigte dies schon Edward Lorenz mit seinen Spielzeug-Wettermodellen auf seinem (verglichen mit heutigen Standards) „Spielzeug“-Computer in den sechziger Jahren. Seine Entdeckungen führten zu einem Studienbereich, der heute als Chaos-Theorie bekannt ist, also die Untersuchung nichtlinearer dynamischer Systeme, vor allem solcher, die hoch sensitiv bzgl. ihrer Ausgangsbedingungen sind. Unsere 30 CESM-Läufe wurden initialisiert mit einem Unterschied von – was? Ein Billionstel Grad beim Anfangswert der globalen atmosphärischen Temperatur – ein so geringer Betrag, dass er buchstäblich von modernen Thermometern unmessbar ist. Lässt man die Simulationen gerade mal über 50 Jahre laufen – von 1963 bis 2012 – ergeben sich Resultate vollständig den Ergebnissen von Lorenz zufolge: „Zwei Zustände, die sich nicht wahrnehmbar unterscheiden, können bei der Simulation eventuell zwei Zustände herauskommen, die sich erkennbar unterscheiden … Falls es dann zu irgendeinem Fehler welcher Art auch immer kommt bei der Messung des Ist-Zustandes – und in jedwedem realen System sind derartige Fehler unvermeidlich – kann eine akzeptable Vorhersage eines unmittelbaren Zustandes in ferner Zukunft sehr gut unmöglich sein … Angesichts der unvermeidlichen Ungenauigkeit und der Unvollständigkeit von Wetterbeobachtungen wären präzise langfristige Vorhersagen nicht existent“.

Worin liegt die Bedeutung von Lorenz? Von buchstäblich ALLEN unserer Daten der historischen „globalen atmosphärischen Temperatur“ weiß man, dass sie um mindestens ±0,1°C ungenau sind. Egal welcher Initialwert die engagierten Leute am NCAR/UCAR in das CESM als globale atmosphärische Temperatur eingeben, es wird sich von der Realität um viel, viel mehr Größenordnungen unterscheiden als der Temperaturunterschied von 1 Billionstel Grad bei der Initialisierung dieser 30 CESM-Läufe ausmacht. Spielt das wirklich eine Rolle? Meiner Ansicht nach spielt es keine Rolle. Man kann leicht erkennen, dass die kleinsten aller Unterschiede, selbst bei einem einzelnen Initialwert, zu 50-Jahre-Projektionen führen, die sich so stark voneinander unterscheiden wie nur irgend möglich (siehe Fußnote 1 unten). Ich weiß nicht, wie viele Initialbedingungen in das CESM eingehen müssen, um es zu initialisieren – aber es ist sicher mehr als nur eine. Um wieviel mehr würden sich die Projektionen unterscheiden, falls jeder der Initialwerte verändert werden würde, selbst wenn auch nur leicht?

Was mich verblüfft ist die in der Bildunterschrift enthaltene Behauptung: „Das Ensemble-Mittel (EM; unten, zweites Bild von rechts) mittelt die natürliche Variabilität heraus, was allein den Erwärmungstrend zurücklässt, der dem vom Menschen verursachten Klimawandel zuzuordnen ist“.

In der Studie, die zur Erstellung dieser Graphik geführt hat, lautet die präzise Behauptung:

Dieser Rahmen der Modellierung enthält 30 Simulationen des Community Earth System Model (CESM) mit einer Auflösung von 1° Länge/Breite, von denen jede Einzelne ein identisches Szenario des historischen Strahlungsantriebs erfährt, aber mit einem leicht unterschiedlichen atmosphärischen Anfangszustand. Folglich resultiert jedweder Spread innerhalb der Ensemble-Ergebnisse aus der unvorhersagbaren internen Variabilität, die sich dem erzwungenen Klimawandel-Signal überlagert.

Dieser Gedanke ist sehr verführerisch. Oh wie schön es wäre, wenn das stimmen würde – falls es wirklich so einfach wäre.

Aber so einfach ist es nicht. Und meiner Überzeugung nach ist er fast mit Sicherheit falsch.

Das Klimasystem ist ein gekoppeltes, nichtlineares und chaotisches dynamisches System – wobei die beiden gekoppelten Hauptsysteme die Atmosphäre einerseits und die Ozeane andererseits sind. Diese beiden sich ungleich erwärmenden Systeme agieren unter dem Einfluss der Gravitationskräfte von Erde, Mond und Sonne, während sich der Planet im All dreht und einem ungleichmäßigen Orbit um die Sonne folgt. Dies erzeugt ein kombiniertes dynamisches System unglaublicher Komplexität, welches die erwarteten Typen chaotischer Phänomene zeigt, die von der Chaos-Theorie vorhergesagt werden – wobei ein Aspekt dieser Theorie eine ausgeprägte Abhängigkeit von den Anfangsbedingungen ist. Wenn ein solches System mathematisch modelliert wird, ist es unmöglich, alle Nichtlinearitäten zu eliminieren (vielmehr ist es so, dass ein Modell umso ungültiger ist, je mehr die nichtlinearen Formeln vereinfacht werden).

Die Mittelung von 30 Ergebnissen, die durch das mathematisch chaotische Verhalten jedweden dynamischen Systems erzeugt werden, „mittelt die natürliche Variabilität NICHT heraus“ in dem modellierten System. Die Mittelung bringt nicht einmal auch nur ansatzweise Derartiges zustande. Die Mittelung von 30 chaotischen Ergebnissen erzeugt lediglich das „Mittel jener speziellen 30 chaotischen Ergebnisse“.

Warum wird mit der Mittelung die natürliche Variabilität herausgemittelt? Weil es einen gewaltigen Unterschied gibt zwischen Zufalls-Systemen und chaotischen Systemen. Diesen Unterschied scheint man bei der Aufstellung der obigen Behauptung übersehen zu haben.

Das Werfen einer Münze (mit einer nicht gezinkten Münze) ergibt Zufallsergebnisse – nicht Kopf-Zahl-Kopf-Zahl. Wenn man die Münze oft genug geworfen hat, ist es möglich, die Zufälligkeit herauszumitteln und zu einem wahren Verhältnis möglicher Ergebnisse zu kommen – welches 50 zu 50 für Kopf-Zahl sein wird.

[Anders gesagt: Hier wird der in der Tat gravierende Unterschied angesprochen zwischen deterministischem Chaos {Klima, Wetter} und dem absoluten Chaos {Würfel, Münzwurf}. Anm. d. Übers.]

Dies gilt nicht für chaotische Systeme. In chaotischen Systemen scheinen die Ergebnisse nur zufällig zu sein – aber sie sind in keiner Weise zufällig – sie sind durchweg deterministisch, wobei jeder nachfolgende Zustand präzise bestimmt wird durch die Anwendung einer speziellen Formel auf den bestehenden Wert, was man dann bei dem folgenden Wert wiederholt. Bei jedem Wechsel kann der nächste Wert exakt berechnet werden. Was man in einem chaotischen System nicht tun kann, ist vorherzusagen, welcher Wert nach den nächsten 20 Wechseln auftreten wird. Man muss sich durch jeden einzelnen der 19 Schritte zuvor hindurch rechnen, um dorthin zu kommen.

In chaotischen Systemen haben diese Nicht-Zufalls-Ergebnisse – obwohl sie zufällig aussehen können – Ordnung und Struktur. Jedes chaotische System weist Regimes der Stabilität, Periodizität, Perioden-Verdoppelung auf, welche nach Zufall aussehen, aber im Wert abhängig sind. In einigen Fällen treten auch Regimes auf, die hoch geordnet in etwas sind, was man „Fremd-Attraktoren“ [strange attractors] nennt. Einige dieser Zustände, dieser Regimes, sind Gegenstand statistischer Analysen und können als „glatt“ [smooth] angesehen werden (Regionen, die statistisch gleichmäßig daherkommen) – andere variieren phantastisch, wunderschön anzusehen im Phasenraum [phase space], und ausgeprägt „un-glatt“ [un-smooth], wobei einige Regionen vor Aktivität strotzen, während andere kaum angesprochen werden und die zutiefst widerstandsfähig sind gegen einfache statistische Analyse – obwohl es ein Studienbereich in der Statistik gibt, der sich auf dieses Problem konzentriert. Dies involviert jedoch nicht die Art des Mittels, das in diesem Falle herangezogen wird.

Die Ergebnisse chaotischer Systeme können folglich nicht einfach gemittelt werden, um Zufälligkeit oder Variabilität herauszumitteln – die Ergebnisse sind nicht zufällig und nicht notwendigerweise gleich variabel. In unserem Fall haben wir absolut keine Ahnung bzgl. Gleichheit und Glätte des realen Klimasystems.

Auf einem grundlegenderen Niveau wäre die Mittelung von 30 Ergebnissen nicht einmal gültig für ein echt zufälliges Zwei-Werte-System wie dem Werfen einer Münze oder ein Sechs-Werte-System beim Werfen eines einzigen Würfels. Dies ist für jeden Statistik-Student im ersten Semester offensichtlich. Vielleicht ist es die nahezu unendliche Anzahl möglicher chaotischer Ergebnisse des Klimamodells, welche es so aussehen lässt, als ob ein gleichmäßiger Spread von Zufallsergebnissen vorliegt, der es dem Anfänger erlaubt, diese Regel zu ignorieren.

Hätten sie das Modell 30 oder 100 mal mehr laufen lassen und unterschiedliche Ausgangsbedingungen adjustiert, würden sie potentiell einen vollkommen unterschiedlichen Satz von Ergebnissen bekommen – vielleicht eine Kleine Eiszeit in einigen Läufen – und sie hätten ein unterschiedliches Mittel. Würde man von diesem neuen, unterschiedlichen Mittel auch sagen, dass es ein Ergebnis repräsentiert, welches „die natürliche Variabilität herausmittelt, was allein den Erwärmungstrend zurücklässt, der dem vom Menschen verursachten Klimawandel zuzuordnen ist“? Wie viele unterschiedliche Mittelwerte könnten auf diese Art und Weise erzeugt werden? Ich habe den Verdacht, dass sie nichts anderes repräsentieren würden als das Mittel aller möglichen Klima-Outputs dieses Modells.

Das Modell hat von Anfang an nicht wirklich irgendeine „natürliche Variabilität“ – es gibt keine Formel in dem Modell, von der man sagen kann, dass sie jenen Part des Klimasystems repräsentiert, der „natürliche Variabilität“ ist – was das Modell hat, sind mathematische Formeln, die vereinfachte Versionen der nichtlinearen mathematischen Formeln sind, die Dinge repräsentieren wie den Nicht-Gleichgewichts-Wärmetransfer [non-equilibrium heat transfer], den dynamischen Fluss ungleichmäßig erwärmter Flussobjekte, konvektive Abkühlung, Flüsse aller Arten (Ozeane und Atmosphäre), von deren Dynamik man weiß, dass sie in der realen Welt chaotisch sind. Die mathematisch chaotischen Ergebnisse spiegeln das, was wir als „natürliche Variabilität“ kennen – wobei dieser Terminus nur Gründe nichtmenschlicher Natur meint – und sind in das Modell als solches eingebaut. Die chaotischen Klima-Ergebnisse der realen Welt, welche die wahre natürliche Variation sind, verdanken ihre Existenz den gleichen Prinzipien – der Nichtlinearität dynamischer Systeme – aber die in der realen Welt agierenden dynamischen Systeme, in denen die natürliche Variabilität nicht nur jene in das Modell eingebaute „Natürlichkeit“ enthält, sondern auch alle jene Ursachen, die wir nicht verstehen, sowie jene, die uns nicht bewusst sind. Es wäre ein Fehler, die beiden unterschiedlichen Variabilitäten als eine Identität anzusehen – ein und dasselbe.

Folglich kann man nicht sagen, dass „jedweder Spread im Ensemble“ die Folge der internen Variabilität des Klimasystems ist oder jenen als buchstäblich die „natürliche Variabilität“ repräsentierend ansehen, und zwar in dem Sinne, in dem dies in der Klimawissenschaft allgemein genannt wird. Der Spread im Ensemble resultiert einfach aus dem mathematischen Chaos, das inhärent in den Formeln steckt, die im Klimamodell gerechnet werden. Er repräsentiert lediglich den Spread, den erzwungene Struktur und die Parametrisierung des Modells selbst.

Man erinnere sich, jedes der 30 Bilder aus den 30 Modellläufen des CESM sind durch einen identischen Code erzeugt worden, identische Parameter, identische Antriebe – aber unter alles andere als identischen Ausgangsbedingungen. Und doch passt keines der Ergebnisse zum beobachteten Klima des Jahres 2012. Nur eines kommt diesem halbwegs nahe. Niemand glaubt, dass diese tatsächliche Klimazustände repräsentieren. Ein volles Drittel der Läufe erzeugt Projektionen, die wenn sie für 2012 passend gewesen wären, die Klimawissenschaft auf den Kopf gestellt hätten. Wie können wir dann annehmen, dass die Mittelung dieser 30 Klimazustände auf magische Weise irgendwie das reale Klima repräsentieren kann mit der herausgemittelten natürlichen Variabilität? Dies sagt uns in Wirklichkeit nur, wie ausgesprochen empfindlich das CESM gegenüber den Ausgangsbedingungen ist. Und es sagt uns etwas über die Grenzen projizierter Klimazustände, die das modellierte System zulassen kann. Was wir im Ensemble-Mittel und Spread sehen, ist lediglich das Mittel jener exakten Läufe und deren Spread über einen 50-jährigen Zeitraum. Aber es hat kaum etwas zu tun mit dem realen Weltklima.

Die mathematisch chaotischen Ergebnisse des modellierten dynamischen Systems mit der „natürlichen Variabilität“ der realen Welt – die Behauptung, dass beides ein und dasselbe ist – ist eine Hypothese ohne Grundlage, vor allem dann, wenn man die Klimaauswirkungen in ein Zwei-Werte-System aufteilt, das einzig die „natürliche Variabilität“ und den „vom Menschen verursachten Klimawandel“ enthält.

Die Hypothese, dass die Mittelung von 30 chaotisch erzeugten Klimaprojektionen ein Ensemble Mean erzeugt, folgt mit Sicherheit nicht aus einem Verständnis der Chaos-Theorie. Zumindest wenn dieses Ensemble Mean die natürliche Variabilität auf eine Art und Weise herausgemittelt hat, dass der Vergleich der EM-Projektion mit den tatsächlich gemessenen Daten erlaubt „zu zergliedern, wie viel der Erwärmung in Nordamerika der natürlichen Variabilität und wie viel davon dem vom Menschen verursachten Klimawandel“ geschuldet ist.

Das Zwei-Werte-System (natürliche Variabilität vs. vom Menschen verursacht) ist nicht ausreichend. Weil wir keine adäquaten Kenntnisse darüber haben, welche alle diese natürlichen Gründe sind (auch nicht über die wahre Größenordnung ihrer Auswirkungen), können wir sie nicht von all den menschlichen Gründen trennen – wir können noch nicht Ausmaße von Auswirkungen abgrenzen wegen der „natürlichen“ Gründe, und folglich können wir auch nicht den „vom Menschen verursachten Rest“ berechnen. Wie auch immer, vergleicht man das Ensemble Mean vieler nahezu identischer Läufe eines modellierten, bekannt chaotischen Systems mit den Beobachtungen der realen Welt, ist dies kein mathematisch oder wissenschaftlich gestütztes Verfahren im Lichte der Chaos-Theorie.

Im Klima-System gibt es bekannte Ursachen, und es verbleibt die Möglichkeit unbekannter Ursachen. Der Vollständigkeit halber sollten wir bekannte Unbekannte erwähnen – wie etwa Wolken sowohl Auswirkung als auch Ursache sind. In unbekannten Beziehungen – und unbekannten Unbekannten – mag es Ursachen für klimatische Änderungen geben, die uns bislang nicht einmal andeutungsweise bekannt sind, obwohl die Möglichkeit bedeutsamer „Großer-Roter-Knopf“-Ursachen des verbleibenden Unbekannten von Jahr zu Jahr abnehmen. Und doch, weil das Klimasystem ein gekoppeltes, nichtlineares System ist – chaotisch in seiner ureigenen Natur – ist das Auseinanderfieseln der gekoppelten Ursachen und Auswirkungen ein laufendes Projekt und wird es auch noch lange bleiben.

Man beachte auch, dass weil das Klimasystem seiner Natur nach ein eingezwängtes [constrained] chaotisches System ist (siehe Anmerkung 2), wie diese Studie zu zeigen versucht, kann es einige Klima-Ursachen geben, welche – obwohl sie so klein sind wie „eine Änderung der globalen atmosphärischen Temperatur um ein Billionstel Grad“ – zukünftig Klimaänderungen auslösen können, die viel, viel größer sind als wir uns vorstellen können.

Was das vom NCAR/UCAR Large Ensemble Community Project erzeugte Image tatsächlich bewirkt, ist die totale Validierung der Entdeckung von Edward Lorenz, dass Modelle von Wetter- und Klimasystemen ihrer ureigenen Natur nach chaotisch sind und unabdingbar sein müssen – ausgesprochen empfindlich gegenüber Anfangsbedingungen – und sich daher Versuchen einer „präzisen Langfristvorhersage“ entziehen.

——————————————————-

Anmerkungen:

1. Klimamodelle sind so parametrisiert, das sie erwartete Ergebnisse erzeugen. Beispiel: Falls ein Modell allgemein keine Ergebnisse erzeugen kann, die aktuelle Beobachtungen spiegeln, wenn man sie zur Projektion bekannter Daten heranzieht, dann muss es solange adjustiert werden, bis das doch der Fall ist. Es ist offensichtlich: falls ein Modelllauf im Jahre 1900 startet und über 100 Jahre projiziert und sich dabei eine Kleine Eiszeit bis zum Jahr 2000 ergibt, dann muss man davon ausgehen, dass irgendetwas in dem Modell fehlt. Dieser Gedanke ist berechtigt, obwohl es zunehmende Beweise gibt, dass die spezifische Praxis ein Faktor sein kann für die Unfähigkeit der Modelle, selbst kurzfristige Zukunft (Dekaden) korrekt zu projizieren, und für deren unverändertes Erzeugen von Erwärmungsraten weit oberhalb der gemessenen Raten.

2. Ich beziehe mich auf das Klimasystem als „eingezwängt“ allein auf der Grundlage unseres langfristigen Verständnisses des Klimas der Erde – Temperaturen verharren in einem relativ engen Band, und größere Klimazustände scheinen auf Eiszeiten und Zwischeneiszeiten beschränkt zu sein. Genauso in der Chaos-Theorie – Systeme sind bekannt eingezwängt durch Faktoren innerhalb des Systems selbst – obwohl sich die Ergebnisse als chaotisch erweisen können, sind sie nicht „bloß irgendetwas“, sondern ereignen sich innerhalb definierter mathematischer Räume – von denen einige phantastisch kompliziert sind.

Link: https://judithcurry.com/2016/10/05/lorenz-validated/

Übersetzt von Chris Frey EIKE




C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation

Frau Professorin C. Kemfert wurde im September gleich mit zwei Preisen für ihr Klima- und Energie-Engagement bedacht:
DIW Berlin, Pressemitteilung vom 29.09.2016: Zweifache Auszeichnung für Claudia Kemfert
Die Energieökonomin Claudia Kemfert … wird in diesen Tagen gleich zweimal für ihre Leistungen ausgezeichnet.
Zum einen verleiht ihr EUROSOLAR wegen ihres konsequenten und nachhaltigen Einsatzes für eine an Fakten orientierte Energiepolitik zusammen mit der EnergieAgentur.NRW am 8. Oktober 2016 den Deutschen Solarpreis 2016 in der Kategorie „Sonderpreis für persönliches Engagement“.
Zum anderen wird sie am 20. Oktober 2016 vom Forum Ökologisch-Soziale Marktwirtschaft als eine der prominentesten und präsentesten VerfechterInnen einer ökologischen Steuerreform, des Verursacherprinz
ips und einer nachhaltigen Energiewirtschaft mit dem Adam-Smith-Preis für marktwirtschaftliche Umweltpolitik geehrt.
DIW-Präsident Marcel Fratzscher beglückwünschte seine Kollegin: „Die zweifache Auszeichnung ist eine schöne Anerkennung für Claudia Kemfert und ihre langjährige exzellente wissenschaftliche Arbeit und Politikberatung. Gleichzeitig zeigt sich darin die Expertise des DIW Berlin in den wichtigen Zeitfragen von Umwelt und Nachhaltigkeit.“
An sich wäre eine solche Meldung keine Erwähnung wert, wenn nicht ihr oberster DIW-Chef, Herr Fratscher, bei der Verleihung verkündet hätte, die Preise wären das Ergebnis „exzellenter, wissenschaftlicher Arbeit“ und Frau Kemfert nicht auch noch Beraterin für EEG und Klima unserer Umweltministerin – Frau Hendricks – wäre, also zu Themen, die EIKE originär tangieren.

In dieser kurzen Sichtung wird gezeigt, was Deutsche Wissenschaft inzwischen scheinbar unter „exzellente wissenschaftliche Arbeit“ versteht.

Hilfst du mir, so Preis ich dir

Der Preis von Eurosolar
Eurosolar ist mit dem Portal „Klimaretter.Info“ von Frau C. Kemfert eng verbunden.
Bereits im Jahr 2009 bekam diese Plattform von Eurosolar den deutschen Solarpreis als „innovatives Medienprodukt“ verliehen – wohl deshalb, weil der von Eurosolar als reine Lobbyorganisation publizierte, teils abgrundtiefe, technische Unsinn in dem zum Beispiel schon im Jahr 2009 das Speicherproblem als gelöst fabuliert steht (von dem auch aktuell hinten und vorne noch nichts zu sehen ist[2]), vorwiegend auch von Klimaretter.Info publiziert wird:
Klimaretter.Info, Nov. 2009: Konferenz: Wohin mit dem Windstrom?,
Wird die Energieversorgung auf Erneuerbare Quellen umgestellt, sind viel mehr Speicher notwendig als heute – weil Wind- und Sonnenkraft wetterabhängig sind. Ob in Schwungrädern, Pumpspeicherwerken oder in Form von Methan – die nötigen Technologien längst fertig, zeigte diese Woche eine Konferenz in Berlin. Nun müsste die großtechnische Einführung mit einem Einspeisegesetz gefördert werden  
Somit war eine Wiederholung dieser Auszeichnung wohl unumgänglich, um sich Frau Kemferts „Verkündungsplattform“ für ihre Publizierungen weiter zu erhalten.

Der Preis vom FÖS

Das Forum „Ökologisch-Soziale Marktwirtschaft“ scheint ein recht einfaches Verständnis von einer „nachhaltigen Energiewirtschaft“ zu haben. Nicht „wissenschaftliche“ Arbeit war das Losungswort, sondern Frau Kemferts „regelmäßige Präsenz“ mit der Wahrnehmung, dass sie eigentlich unisono anstelle von Wissenschaft nichts anderes, als fast manisch-messianisch das Mantra des „tödlichen CO2“ und den Zwang, diesen Atmosphärenbestandteil möglichst hoch zu besteuern fordert.

FÖS zur Preisvergabe: "Die Jury kam zu der einstimmigen Überzeugung, dass Prof. Dr. Claudia Kemfert als eine der prominentesten und präsentesten Verfechterinnen einer Ökologischen Steuerreform, des Verursacherprinzips sowie einer nachhaltigen Energiewirtschaft gilt. In ihrer regelmäßigen Präsenz in den Medien spricht sie sich immer wieder für den Ansatz einer Ökologisch-Sozialen Marktwirtschaft aus. Auch nehmen wir wahr, dass sie unermüdlich wirksame CO2-Preise sowie einen funktionierenden Emissionshandel fordert."

Seit wann ist Agitation „exzellente Wissenschaft“?

Frau Kemferts Portal ist vorwiegend dafür bekannt, alles bedingungslos gut zu heißen, was der aktuellen, politischen Meinung (welche sie ja berät) entspricht. Wenn ihre Meinung gegen den (von ihr beratenen) Staat gerichtet ist, werden (wie auch bei den Grünen üblich) bedenkenlos rechtswidrige Agitationen unterstützt:
Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier

Aktivisten besetzen Kraftwerk Chvaletice
Auch sonst ist die Homepage vorwiegend eine Plattform bewusster Desinformation, wie Beispiele zeigen:
Der Unterschied in der Klimawandel-Berichterstattung,
Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

Klimaaktivist vor Gericht

Wie sollte auch außer gewollter Agitation so etwas wie klima- und energiewissenschaftlich orientierte Information entstehen, wenn das Redaktionsteam keinerlei Ausbildung zum Thema hat, aber in aller Regel Agitations-Erfahrung. Bei den Kolumnisten und Autoren sieht es kaum besser aus, nur dass die agitatorische Vorbildung dort noch umfangreicher ist.
Eine solche „Mannschaft“ „hält“ sich niemand, der Interesse an wissenschaftlicher Arbeit zu Klima und Energie hat.

Listung der Ausbildung von Mitarbeitern der Homepage Klimaretter.Info. Quelle: Klimaretter.Info

Aktuell lässt sich die Frage, ob Wissenschaftlichkeit oder Tendenzjournalismus, an mehreren Klimawandel-Debatten zeigen.
Auf der von ihr unterstützten Seite mit dem Klima-Lügendetektor ist ein Interview mit F. Petry (AfD) rezensiert. Jeder Leser prüfe selbst, ob diese Rezension einem wissenschaftlichen Exzellenzanspruch genügt:

Klimaretter.Info: Schlagzeilen Forschung F. Petry: Wissenschaftlich disqualifiziert

6. Oktober 2016 F. Petry (AfD): Wissenschaftlich disqualifiziert

Oder die Sache mit dem Kohlendioxid und der Erwärmungswirkung, die von Leugnern des Klimawandels immer wieder aufgebracht wird: In der Tat gab es bei historischen Klimawandeln das Phänomen, dass durch eine Erderwärmung in der Natur vermehrt CO₂ freigesetzt wurde. Damals waren die Emissionen also in der Tat Folge des Klimawandels. Aber auch damals verstärkte das dann frei gewordene Kohlendioxid die Erwärmung weiter. Diese Treibhauswirkung von CO₂ in der Atmosphäre ist seit vielen Jahrzehnten und durch haufenweise Experimente belegt. Ebenso viele Belege gibt es dafür, dass menschengemachtes Kohlendioxid ursächlich für den aktuellen Klimawandel ist. Die Fachwissenschaft ist sich praktisch einig darüber.
… Vor ein paar Monaten erst ist eine große internationale Studie erschienen, an der die Mainzer Kollegen mitgewirkt haben und die im Detail den Beitrag des Menschen zum Klimawandel darstellt
.

Anmerkung (des Autors): Die verlinkte „große internationale Studie“ behandelt:

Internationales Wissenschaftlerteam unter Beteiligung des Max-Planck-Instituts für Chemie findet neue Methode, um bisherige Unsicherheiten bei der Vorhersage der Erderwärmung zu verringern – Satellitenanalyse liefert genauere Messwerte um die Aufwindgeschwindigkeit an der Wolkenuntergrenze zu ermitteln und die Fähigkeit von Aerosolpartikeln zur Bildung von Wolkentröpfchen zu quantifizieren

In dieser Studie möge ein kleines Detail zum Klimawandel erklärt, vielleicht sogar ein ganz kleines zu einem Klimaeffekt geklärt sein. Den Anspruch „… im Detail den Beitrag des Menschen zum Klimawandel darstellt“ erfüllt diese Studie aber nicht entfernt – außer wohl für eine moderne „exzellenz-Wissenschaftlerin“ und ihr Politik-, Philosophie- und Soziologenteam.

Und auch die „Darstellung“ zum Hurrycan Sandy zeigt die ganz typische, bewusst tendenziöse Informationsvermittlung, welche nicht Einzelfall, sondern durchgängig Methode ist:
Klimaretter.Info: "Matthew" fordert mehr als 840 Tote
… Wirbelsturme an der Ostküste der USA sind keine Seltenheit. Doch gewöhnlich schwächen sie sich über Land schnell ab. Das ist bei "Matthew" nun allerdings nicht der Fall. Meteorologen sehen einen Grund für die besondere Heftigkeit des Wirbelsturms in den derzeit besonders warmen Wassertemperaturen in der Karibik … Klimaforscher erwarten, dass Extremwetterereignisse durch den Klimawandel verstärkt werden. Dazu gehören auch Dürren und Hitzewellen.

Im Artikel ist kein Hinweis darauf, dass Wirbelstürme derzeit auf dem niedrigsten Stand seit Langem sind: WUWT „In the ‘warmest year ever’, U.S. tornado deaths were near lowest ever” und dass im letzten IPCC Sachstandsbericht AR5 dazu steht:
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Sogar die Süddeutsche Zeitung hat das in Ihrer Wochenendausgabe vom 07./06..10.2016 akzepiert und explizit darauf hingewiesen: SZ Nr. 233 „Riesen-Wirbel über dem Meer
… wegen dieser Widersprüche geht der Weltklimarat auch nicht mehr davon aus, dass mehr mehr Hurrikane auf die Menschen zukommen … Die Anzahl der Wirbelstürme und ihre Wucht schwanken auf längere Sicht starkt, meist in einem Rhytmus von 30 bis 40 Jahren.

Der im Klimaretter-Artikel hinterlegte „Beleglink“: „verstärkt werden“, weist auf einen weiteren Klimaretter-Artikel, in dem eine Studie des AWI rezensiert wird. Nur hat diese mit Hurrikans nichts zu tun. Und gerade diese Studie ist eher ein Beleg des Gegenteils. Ein Blogbeitrag beschreibt es treffend:
Blogeintrag bei Klimaretter.Info: Immerhin ist der "abstract" der Studie lesbar, und hier steht, was im obigen Artikel leider weggelassen wurde: "Wir stellen jedoch fest, dass die natürlichen Schwankungen der WBCs (Abkürzung für die von Westen kommenden Meeresströmungen in mittleren Breiten) den Langzeiteffekt der globalen Erwärmung in den vorhandenen Datensätzen verdecken könnten, speziell über der nördlichen Hemisphäre. Deshalb werden Langzeit-Beobachtungen oder Proxy-Daten benötigt um die Dynamik der WBC weiter berechnen / beurteilen zu können".
Und am Anfang steht bereits, dass die Dynamik der WBCs bisher nur sehr wenig verstanden wird ("poorly understood").
Und vor allem, hier im "abstract" ist nur von den Meeresströmungen die Rede und von Auswirkungen auf die Winde in Meeresnähe, von Stürmen ist keine Rede, nur von sich laut Rechenmodell verstärkenden Winde.
Alles basiert hier nur auf Rechenmodellen mit von den Autoren der Studie zugegeben wenig aussagekräftigen Daten. Die Überschrift des Artikels hier müsste korrekterweise deshalb so lauten: "Klimawandel könnte Küstenwinde verstärken", denn es ist ja nur eine auf schwachen Füßen (wie angegeben) basierte Berechnung und keine Tatsache.
Bitte "klimaretter" gebt doch den Inhalt bzw. die Zusammenfassung der Studie richtig wieder!

Sind Studien, welche Wüsche als Lösungen preisen, „exzellent“?

Auch ihre eigenen, fachlichen Ergüsse erscheinen (dem Autor) weit weg von einer „Exzellenz“, außer man versteht darunter die Beweihräucherung für mediale Omnipräsenz durch Verbreitung von Wünschen und Hoffnungen als Lösungen.
In einem Artikel wurde dies vom Autor dargestellt:

Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert
Man kann ihre angeblich wissenschaftlichen Aussagen als Fachmann deshalb oft nur belächeln. Ihr gesamtes Theoriegebäude basiert darauf, dass CO2 ein Gift ist – wohl, weil es ihr Klima-Wissenschaftspartner, Prof. Grassl und unsere Politikkaste vehement so vertreten – und deshalb aber wirklich alles, was CO2 vermeidet oder mindert „gut“ ist und auf jeden Fall gefördert werden muss; für CO2 Emittierendes gilt natürlich das Gegenteil.

Klimaretter.Info: Klima-Soziologen, Emissions-Stopp und rekordheiße Julis
Die neuerdings vertretene Ansicht, dass sich in der Klimawissenschaft vor allem Politikwissenschaftler, Soziologen und Historiker einbringen müssen (wie im Klimaretter.Info Team schon vorbildlich geschehen) zeigt nur, dass man auch in Zukunft keinen fachlichen Anspruch erhebt, sondern auf eine „Meinungs-Vermarktung“ umgeschwenkt hat.

Mach Billiges so teuer, dass Teures nicht mehr auffällt

Einige Probleme dieser Welt lassen sich zumindest vorübergehend lösen, indem viel Geld ausgegeben wird. Zumindest diejenigen, welche davon profitieren, beklagen sich dann in aller Regel nicht (außer, dass es mehr sein könnte und über viele Jahre gesichert sein muss). Frau Kemfert hat sich wie gesagt auf CO2 eingeschworen. Deshalb ist es ihre feste Überzeugung, dass CO2 unbedingt durch drastisches Erhöhen der Zertifikatekosten immer teurer gemacht werden muss, weil sich nur so die technischen Probleme der Energiewende lösen lassen, indem dann selbst die unsinnigsten Lösungen „billig“ geworden sind – und nur dann ihre Vorhersagen vom „problemlosen EEG“ in Erfüllung gehen.

Als Beispiel für ihre Statements eine Studie mit Ihr als Autorin:
Studie: [1] Politikberatung Kompakt Stromnetze und Speichertechnologien für die Energiewende
… Bereits heute steht eine Vielzahl von Speichertechnologien zur Verfügung, wie elektrochemische Batteriespeicher (u.a. Blei-Säure, LithiumIonen), Pumpspeicher im In-und Ausland sowie perspektivisch auch „Power-to-Gas“-Technologien mit Rückverstromung.
… Auch falls die vergleichsweise stetige Stromerzeugung der Windkraft auf See
, …. Die empirische Evidenz legt nahe, dass der Ausbau erneuerbarer Energien auf absehbare Zeit weder vom Netzausbau noch von der Verfügbarkeit von Speichertechnologien eingeschränkt wird
… Der Strompreis an der Börse ist niedrig, da es einen Überschuss an Strom gibt, vor allem ausgelöst durch überschüssige, alte, ineffiziente Kohlekraftwerke. Alte, ineffiziente Kohlekraftwerke erhöhen nicht nur die Treibhausemissionen und gefährden die Klimaziele, sie sind aufgrund ihrer Inflexibilität ungeeignet in der Kombination mit volatilen erneuerbaren Energien und verstopfen die Stromnetze
.
Gegendarstellungen dazu siehe [2] [3].

Man möge es nachsehen, aber alleine in diesem kurzen Beispiel reklamiert der Autor die folgenden Aussagen als mindestens zweifelhaft:
– Studie: „ …Bereits heute steht eine Vielzahl von Speichertechnologien zur Verfügung
Im Kern ist das nicht einmal falsch. Nur fehlt die wichtige Aussage dazu: Sie sind im großtechnischen Maßstab auf lange Sicht nicht verfügbar, bzw. unrealistisch (Pumpspeicher im Inn- und Ausland), oder so immens teuer (Batteriespeicher), dass niemand Vernünftiger an eine Realisierung denkt. Man siehe dazu „Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3“ [2]. Die Kostenproblematik wird in einer großen Speicherstudie des Landes Niedersachsen wie folgt beschrieben:
[7] … Im heutigen Strommarkt ist es schwierig, Investitionen in großtechnische Speicher zu rechtfertigen. Die Wirtschaftlichkeit ist bei den derzeitigen Strompreisen und den Erlösen aus dem Regelenergiemarkt nicht oder nur äußerst schwer darstellbar.

-Studie: „ … vergleichsweise stetige Stromerzeugung der Windkraft auf See“,
Diese Aussage ist und bleibt ein Gerücht, wie es sich anhand der Ganglinie der Offshore-Erzeugung immer neu belegen lässt: „Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig“ [5]

-Studie: „ … Der Strompreis an der Börse ist niedrig, da es einen Überschuss an Strom gibt, vor allem ausgelöst durch überschüssige, alte, ineffiziente Kohlekraftwerke

Wieder ein durch dauernde Wiederholung nicht wahrer werdendes EEG-Tatsachen-Verdrehungs-Märchen:
Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden“ [6]

Wegen ihrer Überzeugung, dass CO2 das einzige wirkliche Übel dieser Welt ist, war sie einst auch für Atomkraft und das „Vergraben“ von CO2 aus der Atmosphäre.

[8] … wäre es ratsam, die Strommengen sicherer Kernkraftwerke zu erhöhen, um somit die notwendige Zeit zu geben, CCS und erneuerbare Energien einsatzfähig zu machen.

Im Kern sind diese Verleihungen somit eher ein Armutszeugnis für den Wissenschaftsstandort Deutschland und den DIW-Präsidenten, Herrn Fratzscher, der mit für diesen Niedergang verantwortlich ist.
Die Berliner Fachfrau für Klimahysterie mit ausreichend fachlicher Unkenntnis – Umweltministerin Hendricks – , welche von C. Kemfert beraten wird, stört das nicht.

Quellen

[1] DIW Berlin 112, Politikberatung Kompakt 2016, C. Kemfert at al.: Stromnetze und Speichertechnologien für die Energiewende – Eine Analyse mit Bezug zur Diskussion des EEG 2016

[2] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

http://www.eike-klima-energie.eu/energie-anzeige/elektro-energiespeicherung-notwendigkeit-status-und-kosten-teil-3-abschluss/

[3] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

http://www.eike-klima-energie.eu/news-cache/ein-eeg-maerchen-wird-zum-oeko-dogma-offshore-windkraft-sei-grundlastfaehig/

[4] DIW Berlin 2006, Discussion Papers 618, C. Kemfert: Die deutsche Energiepolitik braucht eine Trendwende – Ein 10-Punkte-Plan für eine nachhaltige Energieversorgung

[5] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

http://www.eike-klima-energie.eu/news-cache/ein-eeg-maerchen-wird-zum-oeko-dogma-offshore-windkraft-sei-grundlastfaehig/

[6] EIKE 04.06.2016 : Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden

http://www.eike-klima-energie.eu/news-cache/muttertag-war-eeg-geschenktag-auf-kosten-der-nicht-privilegierten-stromkunden/

[7] Innovationszentrum Niedersachsen GmbH 7983P01/FICHT-12919463-v19 Studie Juli 2014: Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen




Der Wärmeinseleffekt in den DWD-Septemberdaten

Bild rechts: Immer mehr Betonwüste- ein Grund für die leichte September- Erwärmung in Deutschland. Quelle: www.labor-hart.de

Wir (Kowatsch, Kämpfe) haben auch erwähnt, dass die Deutschlanddaten des Deutschen Wetterdienstes nicht wärmeinselbereinigt sind, denn in Wirklichkeit wären die Septembertemperaturen leicht gesunken, wäre Deutschland so geblieben wie es 1942 oder noch früher war und die Messstationen alle noch am selben, unveränderten Ort stehen würden, haben wir behauptet.

Ein Kommentarschreiber aus Sachsen hat dabei auf die DWD-Station Zwönitz hingewiesen, welche unsere Behauptungen bestätigen würde. Zwönitz befindet sich im Herzen des Erzgebirges, zwischen Stollberg, Aue und Annaberg. Die Wetterstation steht im kleinen Teilort Niederzwönitz auf 496 m Höhe. Wir haben uns die zugänglichen Daten der Station besorgt und uns mit der Gegend am Fuße des Erzgebirges beschäftigt. http://www.zwoenitz-wetter.de/html/klima.html

Und hatten Glück: Zwönitz gehört wie Schneifelforsthaus und Amtsberg zu den Wetterstationen, deren Umgebung sich in den letzten Jahrzehnten wenig verändert hat. Leider liegen uns keine Daten dieser Station seit 1942 vor, aber mit dem Aufzeichnungsbeginn ab 1944 übertrifft Zwönitz die anderen beiden Stationen in der Zeitdauer deutlich.

Der Septemberverlauf auch ab 1944 von Zwönitz im Vergleich zu den DWD-Daten bestätigt absolut unsere Aussagen über den WI- Effekt im Artikel.

Graphik 1: DWD-Daten braune Farbe, Zwönitz blau, siehe http://www.zwoenitz-wetter.de/html/klima.html

Erklärung: Zu Beginn lagen die September-Temperaturen von DWD-Deutschland und der Station Zwönitz noch eng beieinander. Die beiden Trendlinien haben fast denselben Temperatur-Startpunkt. Es gab sogar Jahre, in welchem der September im Erzgebirge wärmer war als im DWD- Deutschland. Bei genauer Betrachtung sieht man, dass dies nur in der linken Hälfte des Diagrammes der Fall ist. Bis zum Jahre 1982. Danach und bis heute waren die DWD-Septembertemperaturen immer höher als die Septembertemperaturen der ländlich geprägten Wetterstation Zwönitz und die beiden Trendlinien öffnen sich wie die Schenkel einer Schere.

Frage: Welche der beiden Trendlinien stimmt nun? Blieben die Septembertemperaturen seit 1944 gleich oder ist der September kälter geworden in Deutschland?

Antwort: Es stimmen beide Trendlinien. In der freien Fläche Deutschlands und in Gegenden, in denen sich fast nichts verändert hat, stimmt die blaue leicht fallende Trendlinie. Aber auch in diesen Gegenden Deutschlands, die flächenmäßig über 80% ausmachen, sind die Kohlendioxid-Konzentrationen seit 1944 gestiegen, und zwar von damals 280 ppm (0,028%) auf nun 400 ppm= 0,04%. Prozentual sind das 40% CO2-Zunahme und das ohne jede Erwärmungswirkung, im Gegenteil. Wir fragen zurecht: Hat etwa die CO2-Zunahme eine Abkühlung bewirkt?

Insgesamt hat sich Deutschland aber wesentlich verändert in den letzten 75 Jahren. Einst viel kleinere Wärmeinseln haben sich großflächig ausgebreitet. Im Bundesland Baden-Württemberg sind dies der Neckarraum, der Oberrheingraben und das Bodenseegebiet, bzw. das Alpenvorland. Dort wurden die Septembermonate sogar wärmer. Im Septemberschnitt aller DWD-Station ergibt sich dann die ebene Trendlinie.

Zusammenfassung:

Die steigenden Kohlendioxidkonzentrationen haben keine erkennbare Erwärmungswirkung auf die Septembertemperaturen. Wenn man aus den Trendlinien eine Korrelation herauslesen würde, dann müsste man sogar behaupten, dass CO2 eine kühlende Wirkung hat.

Der Wärmeinseleffekt wirkte der Septemberabkühlung entgegen. Außerdem muss noch die Zunahme der Sonnenscheindauer und die Häufigkeit der südlichen Wetterlagen beachtet werden.

Auch in Zwönitz haben diese zugenommen, trotzdem hat das Temperaturdiagramm seit 1944 bis heute eine fallende Trendlinie, weil es sich um eine WI-arme Station handelt.

Die Differenz beider Trendlinien beträgt am Schluss 0,7 Kelvin. Die Differenz aus den letzten fünf Septembern DWD – Zwönitz beträgt sogar 0,9 Kelvin, allerdings müssen wir davon die 0,2K Differenz der blauen Linie beim Startjahr 1944 subtrahieren. Damit haben wir mit 0,7 Kelvin ungefähr eine Richtgröße des Wärmeinseleffektes seit 1944 in den DWD-Septembermessreihen. Betrachtet man die letzten 70 Jahre, also die Zeit seit dem sehr warmen September 1947 bis zum sehr warmen von 2016, so zeigt sich selbst im WI-belasteten Deutschland-Mittel nur eine minimale (und nicht signifikante) Erwärmung von knapp 0,4 Kelvin.

Josef Kowatsch, unabhängiger Klimaforscher und Naturbeobachter

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher