Die wunder­same Speiche­rung des EEG-Zappel­stroms, oder: Die nächste Abzocke privater Strom­kunden durch die EEG-Energie­ernter

Wer die Welt rettet, kann bei Ökoflaute ja auf konventionelle Grundlastversorgung zurückgreifen

Wer eine eigene Solaranlage besitzt, weiß, dass er für die weite Welt etwas Gutes tut. Aber nicht nur das: Inzwischen haben die Kosten des Haushaltsstromes eine Dimension erreicht, welche – dank billiger, chinesischer Module – die Eigenversorgung langsam durchaus rentabel gestaltet.
Ein Wehrmutstropfen bleibt dabei jedoch übrig: Die Sonne scheint nachts immer noch nicht und auch tagsüber kann es recht wenig werden. Im Winter ist eine erhebliche Minderung ebenfalls nicht zu verhindern. Zur vollständig autarken Eigenversorgung wäre also ein teurer Akkuspeicher erforderlich. Alle bisher im Großversuch getesteten Projekte sind daran kläglich gescheitert (als Letztes Pellworm). Private scheitern nicht so spektakulär, rechnen sich aber trotzdem ebenfalls nicht:
[3] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
[1] … Die Rendite der eigenen Solaranlage wird vornehmlich durch die Eigenverbrauchsquote bestimmt. Je mehr Strom selbst verbraucht wird, desto weniger muss man an den Stromversorger für seinen Haushaltsstrom bezahlen. Um den Eigenverbrauch zu optimieren, kann man seinen Verbrauch ohne oder mithilfe von Energiemanagementsystemen anpassen oder auch zusätzlich einen Stromspeicher installieren. Trotz dieser Hilfsmittel müssen in der Praxis immer rund 30% bis 40% des Stromverbrauchs extern vom Energieversorger gedeckt werden.
Im EEG-System ist dieses Problem „gelöst“. Man lässt einfach zu den Erzeugern des EEG ein zweites Energiesystem parallel mitlaufen, welches in den Öko-Flautezeiten die fehlende Grundlast-Versorgung liefert. Zusammen mit der erforderlichen, zusätzlichen Infrastruktur kostet es viel Geld, aber das bezahlt ja zwangsweise der private Stromkunde.
Bei der solaren Eigenversorgung kostet das Lösen ebenfalls viel Geld (für Akkuspeicher). Dies kann man sich sparen, denn durch Bezahlen der Grundgebühr beim Versorger kann man fehlenden Strom ja jederzeit auch von dort beziehen. In der restlichen Zeit – wo das eigene Solar wieder ausreichend liefert – stellt man um und die für das EEG-System erforderlichen, hohen Kosten, zusätzlich dem des Backupsystems, verteilen sich auf die restlichen Strombezieher.

Grundlastversorgung auch für Solar-Selbstverbraucher, aber bitte ohne Zusatzkosten

Wer eine eigene Solaranlage hat, sieht aber auch dies nicht so wirklich ein. Schließlich ist der eigenerzeugte Ökostrom ideell viel hochwertiger als der aus den „dreckigen“ Backup-Kraftwerken in Deutschland. Und da Strom nach der Überzeugung GRÜNER Fachpersonen sich selbst im Netz speichert [6], muss es reichen – wie es die EEG-Vorrangeinspeisung auch befürwortet – mit Ökostrom in beliebiger Menge die Netze zu fluten. Und es ist nach GRÜNER Denke naheliegen, diesen im Netzt „geparkten“, persönlichen Ökostrom, bei Bedarf wieder dem Versorgungsnetz entnehmen zu dürfen, natürlich ohne die für den dreckigen, konventionellen, zu bezahlenden Aufschläge.

Speichern kann man den Strom weiterhin nicht, aber man kann den Mangel andere bezahlen lassen

E.ON – dessen CEO die Lösung des Speicherproblems „sexy“ findet [2] – ist dazu der Durchbruch gelungen. Solaranlagenbesitzer können „ihren“ Ökostrom dank E.ON zwischenspeichern [2] und billig rund um die Uhr“ zurückholen“:
energie-experten.org: [1] Lohnt sich die E.ON SolarCloud?
[1] … In der E.ON SolarCloud lässt sich Strom wie auf einem Bankkonto anlegen und bei Bedarf jederzeit wieder zum eigenen Verbrauch abheben. So kann der selbst produzierte Solarstrom zu 100% selbst verbraucht werden.

So funktioniert das SolarCloud-Stromkonto

Die E.ON SolarCloud ist seit Anfang April 2017 im Komplettpaket mit einer PV-Anlage und dem Batteriespeicher E.ON Aura verfügbar. Das E.ON Aura Komplettpaket kostet ab 14.699 Euro und besteht aus der Photovoltaikanlage mit Solarmodulen und Wechselrichter, der Aura Speicherbatterie, einem Controller, der Installation und der Inbetriebnahme der Solaranlage.
Durch eine Speicherung
im Aura und in der virtuellen SolarCloud lässt sich der selbst erzeugte Sonnenstrom das ganze Jahr selbst an bewölkten und regnerischen Tagen zum Eigenverbrauch nutzen. Die SolarCloud funktioniert dabei wie ein Stromkonto, auf das man Strom „einzahlt“ und rund um die Uhr an 365 Tagen im Jahr wieder abrufen kann. Vor allem in den Sommermonaten lässt sich dadurch mit der E.ON SolarCloud kontinuierlich eine Rücklage an ökologisch erzeugten Kilowattstunden ansparen, um den Strom beispielsweise in den Wintermonaten zu nutzen …
…. Der physische Solarstromspeicher
speichert den Großteil des Stroms der eigenen PV-Anlage dezentral, effizient und kostengünstig vor Ort in der eigenen Wohnung. Der virtuelle SolarCloud-Speicher ergänzt diesen optimal, um bilanziell eine 100%ige Versorgung mit eigenem Solarstrom zu realisieren …

Die Digitalisierung löst alle „alte-Herren-Physik“ Probleme im Nu

E.ON hat nichts von den erforderlichen Speichern gelöst, oder gar welche errichtet:
EIKE 03. April 2018: [2] EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie
Wie beim EEG üblich, wurde jedoch wohl ein Weg gefunden, durch Vertragskniffe die regulären Preise für den Bezug von (rund um die Uhr bereitgestelltem) Haushaltsstrom zu umgehen. Und das funktioniert wie folgt:
Ein „Sonnenstromernter“ mit Eigenverbrauch speist Überschussstrom ins Netz und kann dafür später zu beliebiger Zeit konventionellen Grundlaststrom ohne die hohen Haushaltsstromkosten „zurückfließen“ lassen, als wäre sein Überflussstrom wirklich gespeichert worden. Je mehr dieser Solar-Bevorzugten das machen, umso höher steigt dadurch der Preis für die restlichen Stromkunden.

[1] Wieviel Stromkosten lassen sich mit der SolarCloud einsparen?

Noch lohnt sich das Model etwas wenig. Konkurrenz wird dieses „Speichergeschäft“ aber bestimmt beleben. Und wenn die GRÜNEN (und auch SPD-) Energieexpert*innen erst einmal erfahren – beziehungsweise glauben – dass sich das EEG-Speicherproblem einfach so durch Parken des Stromes auf einem „Stromkonto“ lösen lässt, wird es an Subventionierungen dieser grandiosen „Alte-Herren-Physik-Überrumpelungs-Erfindung“ nicht mangeln. Startups werden entstehen (und gefördert) und alle werden verkünden, was doch alles dank der „Digitalisierung Deutschlands“ möglich geworden ist.
Eine Vorwegnahme von dem, was ein Schüler bei der Frage nach den Vorteilen der Digitalisierung einmal sinngemäß sagte: … dann denkt der Computer und man braucht(s) nicht mehr zu lernen … und das Geld verdient er auch …
[1] Soll- oder Habenzinsen gibt es beim SolarCloud-Konto nicht. Wer also Strom auf das Konto einspeist und später abruft, spart insbesondere PV-Anlagen, die in den letzten vergangen 3 bis 4 Jahren zu der deutlich abgesunkenen Einspeisevergütung errichtet wurden. Die Differenz aus Haushaltsstrompreis und PV-Gestehungskosten übersteigt in diesen Fällen deutlich die Vergütung, die man über das EEG bekommen würde. Lediglich Kontoführungsgebühren werden fällig. Diese sind gestaffelt nach dem individuellen Jahresstromverbrauch und fangen bei 21,99 Euro pro Monat für eine E.ON SolarCloud für kleinere PV-Anlagen an.
Müsste ein
Drei-Personen-Haushalt mit einem Jahresstromverbrauch von 4.000 kWh und einem Eigenverbrauch des Solarstroms (Autarkie) von angenommen 60% bisher noch 40% Strom bzw. rund 1.600 kWh aus dem Netz beziehen, so spart diese Familie mit Hilfe der SolarCloud bei einem Strompreis von 30 Cent 480 Euro pro Jahr ein. Abzüglich der PV-Gestehungskosten von durchschnittlich rund 12 Cent ergibt sich mit der SolarCloud eine Nettoersparnis von 288 Euro. Zieht man hiervon noch die monatliche Gebühr für die E.ON SolarCloud ab, so ergibt sich letztlich ein Jahresgewinn von 24,12 Euro. Die Einspeisevergütung für den Strom, den man selbst verbraucht, tritt der Kunde an E.ON ab.

Der lokale Versorger wird nicht mehr benötigt

[1] Wer die SolarCloud nutzt, braucht aber auch keinen klassischen Stromvertrag mehr, da der SolarCloud-Nutzer ja 100 Prozent seiner selbst erzeugten Energie durch die SolarCloud auch selbst nutzen kann und in der Regel keinen Strom mehr aus dem Netz beziehen muss. Somit entfällt auch die Grundgebühr von in der Regel mehr als 100 Euro pro Jahr. SolarCloud-Nutzer mit einer kleinen Solaranlage profitieren somit von einer autarken Versorgung mit eigenem Solarstrom auch von einer Stromkostenersparnis von 125 bis 150 Euro pro Jahr.

Gibt es Einschränkungen bei der Nutzung der SolarCloud?

Da natürlich das Speichern des Solarstroms im eigenen Batteriespeicher auch Kosten verursacht und diesen auch altern lässt, denkt eventuell der ein oder andere über Schlupflöcher nach, die es ermöglichen, die SolarCloud auch ohne Stromspeicher zu nutzen. Aktuell empfiehlt E.ON jedoch aus wirtschaftlichen Gründen die Kombination aus physischem Speicher im Haushalt und virtueller SolarCloud. Grundsätzlich gibt es aber keine Vorschriften zum Betrieb des Stromspeichers.

Ein weiterer Meilenstein im Betrug am regulären Stromkunden

So sieht es der Autor. Wenn dieses virtuelle „Speichermodell“ rechtlich zulässig ist, kann in Zukunft jeder – der das Geld und die Fläche hat – in Zukunft eine beliebig überdimensionierte Solarfläche errichten. Ihn brauchen dann weder Speicherprobleme, noch um die rasant steigenden EEG-Strompreise zu kümmern. Davon ist er abgekoppelt, während ihm die billige „Rückspeisung“ seines „Eigenerzeugungs-Überbudgets“ gesichert bleibt.
Bestimmt auch eine neue Vorlage für „Bürgermodelle“ der Zukunft, um den stagnierenden Solarausbau wieder anzukurbeln.
Bisher ist diese zusätzliche Subventionierung der Solarbesitzer auf Kosten der restlichen Stromkunden anscheinend noch keiner Partei aufgefallen.
Nur die Sprecherin der GRÜNEN für Energiepolitik, Dr. Julia Verlinden (Dr. der Philosophie) monierte kürzlich Kosten für den Bürger. Dabei meinte sie aber nicht, Abzocken wie diese zu verhindern, sondern im Gegenteil, dass die „Öko-Energieernter“ – von ihr als „Bürgerenergie“ bezeichnet -, zu sehr belastet würden. Mehr als den LINKEN – wenn die eigene Ideologie ein Desaster anrichtet, dieses nicht abschaffen, sondern „den Reichen“ Geld wegnehmen, um es weiter bis zum Untergang betreiben zu können -, fällt ihr dabei allerdings auch nicht ein. Klientelpolitik auf GRÜN eben.
27.03.2018 Bundesregierung torpediert Bürgerenergie auf EU-Ebene
Julia Verlinden hat die Bundesregierung zu ihrer Haltung zum Vorschlag des EU-Parlaments gefragt, unnötige Belastungen der Bürgerenergie zu vermeiden. Die Antwort zeigt: Die Bundesregierung will der Bürgerenergie weiter Steine in den Weg rollen … Das ist ein Schlag ins Gesicht für die vielen engagierten Bürgerinnen und Bürger, ohne die die Energiewende in Deutschland im Stromsektor niemals so erfolgreich gewesen wäre.
… Die Ausrede der Bundesregierung hinkt: Wenn es ihr wirklich wichtig wäre, die Kosten des Stromsystems „gerecht“ zu verteilen, dann würde sie z.B. die Industrierabatte der energieintensiven Industrie deutlich reduzieren und nicht mehr von den privaten Haushaltskunden oder den kleinen und mittleren Unternehmen quersubventionieren lassen. Hier sieht man mal wieder, dass mit zweierlei Maß gemessen wird
.
Quellen
[1] energie-experten.org: Lohnt sich die E.ON SolarCloud?
[2] EIKE 03. April 2018: EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie
[3] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
[4] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
[5] EIKE 03. April 2018: EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie
[6] EIKE 24.01.2018: GRÜNE Energieexpertin: Das Netz fungiert als Speicher
[8] EIKE 11.04.2018: Harald Leschs Klimavideo restlos widerlegt
EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?




Zirkel­schluss: das Scheitern des Rück­kopplungs-Schwindels des IPCC

Meine Antwort auf Roy Spencers Kommentar, geschrieben auf seinem Blog drroyspencer.com, wurde inzwischen 1400 mal angeklickt, und die drei vorherigen Artikel wurden jeweils über 1000 mal, über 350 mal und über 750 mal angeklickt. Anderswo hat ein notorisch jähzorniger skeptischer Blogger auf die Frage, ob er zu unserem Ergebnis einen Kommentar schreiben will, geantwortet, er lasse sich nicht dazu herab, etwas so Einfaches zu diskutieren. Einfach ist es. Wie kommt man bloß darauf, dass es keine Klima-Rückkopplungs-Prozesse auf die große Emissionstemperatur gibt, jedenfalls nicht im gleichen Ausmaß, wie sie auf die geringe Erhöhung jener Temperatur reagieren, verursacht durch das Hinzufügen nicht kondensierender Treibhausgase in die Atmosphäre? Das ist ein einfacher Punkt. Aber einfach heißt nicht notwendigerweise falsch.

In diesem Beitrag wird die Mathematik hergeleitet, was weder einfach noch intuitiv, wenngleich auch nicht besonders komplex ist. Wie in Beiträgen zuvor möchte ich einige Fragen aus Kommentaren zu jenen Beiträgen beantworten. Wie zuvor akzeptieren wir ad interim, ad argumentum oder ad experimentum alle Ergebnisse der offiziellen Klimatologie – es sei denn, wir können nachweisen, dass diese Ergebnisse falsch sind.

Führen wir doch einfach ein simples Gedankenexperiment durch. Dabei kehren wir das Modell von Lacis et al. (2010) um. Lacis hatte herausgefunden, dass das Klima, nachdem man alle nicht kondensierenden Treibhausgase aus der Atmosphäre entfernt hatte, ein neues Gleichgewicht erreicht hätte. Dann wäre die Erde ein Schneeball oder ein Wasserplanet mit einer Albedo von 0,418, was eine Emissionstemperatur von 243,3 K impliziert. Kraft dieses Experimentes sollten wir folglich annehmen, dass es im Jahre 1800 keine Treibhausgase in der Atmosphäre gab. Für all jene, die mit wissenschaftlicher Logik nicht vertraut sind: Damit ist nicht gesagt, dass es im Jahre 1800 wirklich keine Treibhausgase gab.

Lacis zufolge soll die globale mittlere Temperatur 20 Jahre nach Entfernung aller nicht kondensierenden Treibhausgase aus der Atmosphäre auf 253 K sinken. Während der folgenden 30 Jahre soll die Temperatur um lediglich ein weiteres K zurückgehen auf 252 K oder 8,7 K über der Emissionstemperatur. Folglich erreicht die Temperatur in Lacis‘ Modell bereits nach 50 Jahren ihr neues Gleichgewicht.

Eine Frage, die nur Wenige in den bisherigen Beiträgen beantwortet haben, und keiner davon überzeugend, lautet: Aus welcher Quelle stammen diese zusätzlichen 8,7 K, wenn es doch keine nicht kondensierenden Treibhausgase als Antrieb gab? Unsere Antwort lautet, dass Lacit implizit die Existenz einer Rückkopplungs-Reaktion auf die Emissionstemperatur von 243,3 K eingeräumt hat, wenngleich dieser Wert viel zu klein ist, um realistisch zu sein. Viel zu klein deshalb, weil wie im vorigen Artikel gezeigt, Lacis die Temperaturdifferenz von 45,1 K zwischen der impliziten Emissionstemperatur von 243,3 K bei der spezifizierten Albedo von 0,418 einerseits und der heutigen globalen Mitteltemperatur andererseits von 288,4 K (ISCCP, 2018), wie folgt zuordnet: Rückkopplungs-Reaktion auf die Emissionstemperatur 252 – 243,3 = 8,7 K. Direkt von natürlich vorkommenden, nicht kondensierenden Treibhausgasen angetriebene Erwärmung (288,4 – 252)/4 = 9,1 K, und bei Anwendung der Rückkopplungs-Reaktion von 0,75 nach Lacis aus den nicht kondensierenden Treibhausgasen 27,3 K: insgesamt 45,1 K. Diese asymmetrische Zuordnung der Differenz zwischen Emissionstemperatur und gegenwärtiger Temperatur impliziert, dass die Rückkopplungsreaktion von 8,7 K auf die Emissionstemperatur lediglich 3,6% von 243,3 K ausmacht, während die Rückkopplungs-Reaktion von 27,3 K auf die Treibhaus-Erwärmung 300% der 9,1 K ausmacht. Später wird formell nachgewiesen, dass diese implausible Zuordnung irrig ist.

Es ist nützlich zu unterscheiden zwischen der vorindustriellen Lage im Jahre 1850 (dem ersten Jahr der HadCRUT-Reihe, dem längsten globalen Temperatur-Datensatz) und der industriellen Ära. Wir wollen annehmen, dass die gesamt globale Erwärmung vor 1850 natürlichen Ursprungs war. In jenem Jahr lag die Temperatur um etwa 0,8 K unter dem heutigen Wert von 287,6 K (HadCRUT4) oder um 44,3 K über der Emissionstemperatur. Lacis‘ Aufteilung der 44,3 K wäre also 8,7 K; 8,9 K und 26,7 K.

Nehmen wir einmal an, dass Lacis recht hatte damit, dass die direkt getriebene Erwärmung durch Hinzufügen der natürlich vorkommenden, nicht kondensierenden Treibhausgase 8,9 K betragen hatte. Lassen wir das Experiment ab 1850 umgekehrt laufen, können wir den Rückkopplungs-Anteil berechnen, der implizit in Lacis‘ Modell steckt nach der Korrektur, um eine ordentliche Rückkopplungs-Reaktion auf die Emissionstemperatur zuzulassen. Bevor wir das tun sei an die gegenwärtig vom IPCC verwendete Liste der Rückkopplungen erinnert, die relevant für die Ableitung sowohl der kurzlebigen als auch der Gleichgewichts-Sensitivitäten sind:

Die vom IPCC gewählte Luxus-Rückkopplungs-Summe [high-end feedback sum] impliziert eine Charney-Sensitivität irgendwo zwischen minus unendlich und plus unendlich pro CO2-Verdoppelung. Kein wirklich gewaltiges Ergebnis nach 30 Jahren und der Ausgabe von hunderten Milliarden Steuerzahler-Dollar. Die Rückkopplungssumme des IPCC in der Mitte der Bandbreite impliziert eine mittlere Charney-Sensitivität von nur 2,2 K und nicht die in den früheren IPCC-Berichten genannten 3,0 bis 3,5 K; und auch nicht die 3,3 K der CMIP3 und CMIP5-Modelle. Da ist es keine Überraschung, dass das IPCC im Jahre 2013 zum ersten Mal keine mittlere Schätzung der Charney-Sensitivität genannt hat.

Keine der vom IPCC gelisteten Rückkopplungen ist vom Vorhandensein irgendwelcher nicht kondensierender Treibhausgase abhängig. Daher wären alle diese Rückkopplungs-Prozesse in unserer Welt um das Jahr 1800 ganz ohne derartige Gase präsent. Um eine Rückkopplungs-Reaktion zu induzieren, so irgendein Rückkopplungs-Prozess präsent ist, bedarf es als einzige Notwendigkeit einer Temperatur, d. h. die Emissionstemperatur. Da Rückkopplungs-Prozesse präsent sind, ist eine Rückkopplungs-Reaktion unvermeidlich.

Die Emissionstemperatur hängt von lediglich drei Größen ab: Einstrahlung, Albedo und Emissivität. Man begeht kaum einen Fehler, falls man die Emissionstemperatur wie gewöhnlich als Einheit betrachtet. Damit beträgt die Emissionstemperatur bei der heutigen Einstrahlung von 1364,625 W/m² und einer Lacis-Albedo von 0,418: [1364,625(1 – 0.418) / d / (5,6704 x 10–8)]0.25 = 243.3 K. Dies steht in Übereinstimmung mit der fundamentalen Gleichung des Strahlungstransports, wobei d das Verhältnis ist zwischen dem Gebiet der sphärischen Oberfläche der Erde zu ihrem großen Kreis = 4 ist. Genauso läge die Emissionstemperatur bei der heutigen Albedo von 0,293 bei 255,4 K. Dieser Wert wird allgemein in der Literatur zur Klimasensitivität genannt.

Der Grund, warum die offizielle Klimatologie bis jetzt der Rückkopplungs-Reaktion auf die Emissionstemperatur nicht das angemessene Gewicht verliehen hat (oder besser, überhaupt kein Gewicht) ist, dass man eine entartete Form der Null-Dimensions-Modell-Gleichung verwendet hat, die da lautet ΔTeq = ΔTref / (1 – f ), wo die Gleichgewichts-Sensitivität ΔTeq nach Berücksichtigung von Rückkopplungen gleich ist dem Verhältnis der Referenz-Sensitivität ΔTref zu (1 minus Rückkopplungs-Anteil f). Das Rückkopplungs-Loop-Diagramm (unten) räumt der Emissionstemperatur keinen Raum ein und daher auch nicht irgendeiner Rückkopplungs-Reaktion.

Der Rückkopplungs-Loop in der von der offiziellen Klimatologie verwendeten Null-Dimensions-Modell-Gleichung ΔTeq = ΔTref / (1 – f )

Diese entartete Form der Null-Dimensions-Modell-Gleichung ist angemessen, wenn nicht sogar ideal, um Gleichgewichts-Sensitivitäten abzuleiten unter der Voraussetzung, dass zunächst eine Rückkopplungs-Reaktion auf die Emissionstemperatur zugelassen wird. Dennoch finden es viele Kommentatoren empörend, dass die offizielle Klimatologie eine so einfache Gleichung anwendet, um die Gleichgewichts-Sensitivitäten zu diagnostizieren, welche zu prophezeien von den komplexen Zirkulations-Modellen erwartet wird. Einige wenige haben versucht zu leugnen, dass diese Gleichung angewendet wird. Allerdings haben Hansen (1984), Schlesinger (1985), das IPCC (2007, p. 631 fn.), Roe (2009), Bates (2016) und einige andere Größen diese Gleichung angewendet:

f = 1 –Tref / Teq = 1 – (TE + ΔTB) / TN

= 1 – (255,4 + 8) / 287,6 = 0,08. (4)

Jetzt wollen wir beweisen, dass die Form dieser diagnostischen Gleichung, wie sie von der offiziellen Klimatologie angewendet wird, das offizielle Intervall der Charney-Sensitivitäten ergibt, wenn man die offiziellen Werte eingibt. Das IPCC (2013, Abb. 9.43) erwähnt Vial et al. (2013), der den CO2-Antrieb ΔQ0 diagnostiziert hat, ebenso wie den Planck-Parameter λ0 und die Rückkopplungs-Summe k bei einer abrupten Vervierfachung der CO2-Konzentration in 11 CMIP5-Modellen via des linearen Regressions-Verfahrens in Gregory (2004). Vial gibt die mittlere Schätzung kmid der Rückkopplungs-Summe aus 11 CMIP5-Modellen als 1,57 W/m²K an mit der Implikation fmid = kmidλ0 = 0,49 und der 2σ-Grenzen von f als fmid ± 40%, d. h. 0,49 ± 0,20.

Der implizite CO2-Antrieb ΔQ0, in welchen schnelle Rückkopplungen mit eingehen, betrug 4,5 W/m² im Vergleich zu den 3,5 W/m² in Andrews 2010. Die Referenz-Sensitivität ΔTS, von Vial mit 1,41 K bewertet, lag um 20% über der mittleren Schätzung der CMIP5-Modelle von 1,1 K. Verwendet man diese Werte erweist sich die Version der von der offiziellen Klimatologie herangezogenen Null-Dimension-Modell-Gleichung als gut kalibriert. Sie ergibt eine Charney-Sensitivität ΔT auf 3,3 (2,0; 4,5) K, fast genau inhaltsgleich mit vielen veröffentlichten offiziellen Intervallen der CMIP3 und CMIp5-Modelle (Tabelle 2):

Aus dieser erfolgreichen Kalibrierung folgt, dass obwohl die von der Gleichung vermuteten Rückkopplungen linear, einige aber auch nicht linear sind, sie immer noch die Gleichgewichts-Sensitivitäten korrekt aufteilt zwischen der erzwungenen Erwärmung und der Rückkopplungs-Reaktion. Im Besonderen reproduziert sie das von den CMIP5-Modellen projizierte Intervall der Charney-Sensitivitäten, welche Nicht-Linearitäten berücksichtigen. Die Kalibrierung bestätigt nicht, dass der Modellwert f ≈ 0,7 für den Rückkopplungs-Anteil oder ihr Intervall der Charney-Sensitivitäten korrekt ist. Sie bestätigt jedoch, dass die Gleichung mit den offiziellen Werten von f die offiziellen, von den komplexen CMIP-Modellen veröffentlichten Prognosen der Charney-Sensitivität bestätigt. Und das, obwohl keinerlei Berücksichtigung der großen Rückkopplungs-Reaktion auf die Emissionstemperatur erfolgte.

Die offizielle Klimatologie adjustiert ihre Modelle so lange, bis sie das Klima der Vergangenheit reproduzieren. Folglich wurden die Modelle so frisiert, dass sie der Differenz von 33 K Rechnung tragen zwischen der Emissionstemperatur von 255,4 K und der heutigen Temperatur von 288,4 K. Man hatte hypothetisiert, dass ein Drittel der 33 K der direkt getriebenen Erwärmung geschuldet war seitens natürlich auftretender, nicht kondensierender Treibhausgase, und die anderen zwei Drittel bis drei Viertel waren die Rückkopplungs-Reaktion auf diese direkte Erwärmung. Folglich haben sie hypothetisiert, dass der Rückkopplungs-Anteil zwei Drittel bis drei Viertel der Gleichgewichts-Sensitivität ausmacht: d. h. dass f irgendwo zwischen 0,67 und 0,75 liegt.

Als einen ersten Schritt zur angemessenen Berücksichtigung der Rückkopplungs-Reaktion auf die Emissionstemperatur kann die Version der offiziellen Klimatologie der Null-Dimension-Modell-Gleichung überarbeitet werden, um die Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, welche lediglich Änderungen der Temperatur sind. Man beachte, dass die korrekte Form jedweder Gleichung, welche natürliches Auftreten (oder jedwede Naturgesetzte) beschreibt, absolute Werte sind: Die Anwendung von Deltas ist nur zulässig, falls die Delta-Gleichungen korrekt abgeleitet sind aus der absoluten Gleichung. Demzufolge sollte ΔTeq = ΔTref / (1 – f ) werden zu Teq = Tref / (1 – f ). Das überarbeitete Rückkopplungs-Loop-Diagramm sieht so aus:

Nach Amendierung, um Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, wird die offizielle Version der Null-Dimension-Modell-Gleichung zu Teq = Tref / (1 – f ).

Um f bei bekannter Referenz- und Gleichgewichts-Temperatur zu berechnen, kann diese überarbeitete Gleichung umgeschrieben werden zu f = 1 – Tref / Teq. In dem umgekehrten Lacis-Experiment setzt sich die Referenz-Temperatur Tref vor der Rückkopplung zusammen aus Emissionstemperatur TE und der zusätzlichen Temperatur ΔTE = 8,9 K. Diese ist die direkte Erwärmung bei Hinzufügen der natürlich auftretenden, nicht kondensierenden Treibhausgase in die Luft. Folglich gilt: Tref = TE + ΔTE = 243.3 + 8.9 = 252.2 K. Die Gleichgewichts-Temperatur Teq ist einfach die Temperatur des Jahres 1850, nach 50 Jahren des umgekehrten Lacis-Experimentes. Dann ist f = 1 – Tref / Teq = 1 – 252.2 / 287.6 = 0.123, also nur ein Fünftel bis ein Sechstel des Wertes der offiziellen Klimatologie. Ursache dieser Differenz ist, dass wir anders als die offizielle Klimatologie die Rückkopplungs-Reaktion auf die Emissionstemperatur korrekt berücksichtigen.

Weiter. Wie viel der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K geht zurück auf die Rückkopplungs-Reaktion auf die Emissionstemperatur TE = 243,3 K und wie viel macht die Rückkopplungs-Reaktion auf die direkte Treibhausgas-Erwärmung ΔTE = 8.9 K aus? Man nehme einfach das Produkt von jedem Wert, und f / (1 – f) = 0,14. Folglich: 243,3 x 0,14 = 34,1 K und 8,9 x 0,14 = 1,3 K. Dass dies die korrekte Aufteilung ist, beweisen wir mittels der Standard-Mainstream-Form der Null-Dimension-Modell-Gleichung, die in allen dynamischen Systemen universell ist außer Klima. Die Mainstream-Gleichung separiert anders als die degenerierte Form der Klimawissenschaft explizit das Eingangssignal (bei Klima die Emissionstemperatur von 255,4 K) von jeder Verstärkung ( wie etwa die Erwärmung um 8,9 K durch Hinzufügen der nicht kondensierenden Treibhausgase zur Atmosphäre).

Die Mainstream-Null-Dimension-Modell-Gleichung lautet Teq = Tref μ / (1 – μβ), wobei Tref das Eingangssignal ist (hier: die Emissionstemperatur); μ = 1 + ΔTref / Tref der Verstärkungsfaktor, der jedwede Verstärkung von Tref repräsentiert wie etwa jenen, die verursacht wird durch die Präsenz der natürlich vorhandenen, nicht kondensierenden Treibhausgase; β ist der Rückkopplungs-Anteil; μβ ist der Rückkopplungs-Faktor, äquivalent zu f in der gegenwärtigen Version der offiziellen Klimatologie; und Teq ist die Gleichgewichts-Temperatur bei Re-Equilibration des Klimas, nachdem alle Rückkopplungen kürzer als ein Jahrzehnt wirksam geworden sind.

Der Rückkopplungs-Loop für diese korrigierte Form der Null-Dimension-Modell-Gleichung sieht so aus:

Das Rückkopplungs-Loop-Diagramm der Standard-Null-Dimension-Modell-Gleichung Teq = Tref μ / (1 – μβ)

Ein Vorteil der Anwendung dieser Form der Null-Dimension-Modell-Gleichung der Mainstream-Wissenschaft ist, dass sie explizit und separat das Eingangssignal Tref berücksichtigt und jede Verstärkung desselben via dem gain factor μ im Verstärker. Daher ist es nicht mehr möglich, entweder Tref oder die Rückkopplungs-Reaktion zu ignorieren oder zu gering zu bewerten, wozu es kommen muss, solange der Rückkopplungs-Anteil β ungleich Null ist.

Weiter unten wird nachgewiesen, dass die Aufteilung der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K im Jahre 1850, was wir aus unserem Gedankenexperiment zuvor abgeleitet haben, tatsächlich die korrekte Aufteilung ist. Beginnt man mit der Mainstream-Gleichung, führen wir zur rechten Zeit den direkten oder open-loop gain factor μ = 1 + ΔTref / Tref ein. Der Rückkopplungs-Faktor μβ, also das Produkt aus dem direkten oder open-loop gain factor μ und dem Rückkopplungs-Anteil β, hat genau die Form, welche wir angewendet haben, um unseren Rückkopplungs-Anteil f abzuleiten als 1 – (243,3 + 8,9) / 287,6 = 0,123. Dies bestätigt, dass unsere Aufteilung korrekt war.

Man beachte im Vorübergehen, dass f in der offiziellen Klimatologie sofort der Rückkopplungs-Anteil und der Rückkopplungs-Faktor ist, nimmt doch die offizielle Klimatologie an, dass der direkte oder open-loop gain factor μ = 1 ist. In der Praxis führt diese einzelne Hypothese die offizielle Klimatologie in die Irre, weil die Verstärkung der Emissionstemperatur, getrieben durch die Präsenz der nicht kondensierenden Treibhausgase, nur ein kleiner Anteil jener Temperatur ist.

Für uns war jedoch die Annahme vernünftiger, dass die Temperatur von 287,6 K im Jahre 1850 vor jedem potentiellen Einfluss des Menschen eine Gleichgewichts-Temperatur war. Wir wissen, dass sich die Welt während der 168 Jahre seit 1850 um nur 0,8 K erwärmt hat. Die offizielle Klimatologie ordnet diese gesamte Erwärmung dem Menschen zu, nicht der Natur.

War es sinnvoll von uns, mit der impliziten Emissionstemperatur von Lacis von 243,3 K anzufangen, welche die spezifizierte Albedo 0,418 auf einer Wasser-Erde beim Fehlen nicht kondensierender Treibhausgase reflektiert? Warum fingen wir nicht mit Pierrehumbert (2011) an, welcher sagte, dass eine Schneeball-Erde eine Albedo von 0,6 aufweisen würde, was eine Emissionstemperatur von 221,5 K impliziert? Rechnen wir mal. Der Rückkopplungs-Anteil f = μβ würde dann zu 1 – (221,5 + 8,9) / 287,6 = 0,20.

Folglich wäre der mittlere Rückkopplungs-Anteil einer Schneeball-Erde im Jahre 1850 0,20; derjenige von einer Wasser-Erde in jenem Jahr 0,12 und bei der heutigen Albedo 0,293 mit einer impliziten Emissionstemperatur von 255,4 K. Es ergibt sich 1 – (255,4 + 8,9) / 287,6 = 0,08. Damit begannen wir auch unsere Reihe. Man bemerkt, dass beim Schmelzen der großen Eisschilde die Dominanz der Albedo-Rückkopplung unaufhaltsam geringer wird, während der Rückkopplungs-Anteil mit der Zeit sinkt.

Obwohl die Albedo-Rückkopplung bis jetzt dominiert haben mag, was ist mit der größten aller heutigen Rückkopplungen, der Wasserdampf-Rückkopplung? Die Clausius-Clapeyron-Gleichung impliziert, dass der von der Atmosphäre eingenommene Raum bei Erwärmung derselben fast exponentiell mehr Wasserdampf enthalten kann, aber nicht muss. Wentz (2007) kam zu dem Ergebnis, dass die Gesamt-Säule Wasserdampf pro 1 K Erwärmung um etwa 7% zunimmt. Lacis (2010) kam aufgrund dieser Zuwachsrate zu der Aussage, dass falls man die nicht kondensierenden Treibhausgase aus der heutigen Atmosphäre entfernt und die Temperatur um 36 K, also von 288 auf 252 K sinken würde, sich etwa 10% des heutigen Wasserdampfes in der Atmosphäre befinden würde, also: 100% / 1.0736 = 9%.

Spezifische Feuchtigkeit (g/kg) in den Druckniveaus 300, 600 und 1000 hPa


Obwohl die Zunahme der Wasserdampf-Säule mit Erwärmung folglich als exponentiell angesehen wird, ist der daraus folgende Rückkopplungs-Antrieb jedoch in etwa logarithmisch (genau wie der direkte CO2-Antrieb logarithmisch ist). Was noch mehr zählt ist, dass ein substantieller Anteil der daraus folgenden Rückkopplungs-Reaktion ausgeglichen wird durch eine Reduktion der Rückkopplung des geringer werdenden vertikalen Temperaturgradienten. Demzufolge ist die Wasserdampf/lapse rate-Rückkopplung in etwa linear.

Während des Zeitraumes der NOAA-Aufzeichnungen der spezifischen Feuchtigkeit in drei verschiedenen Druckniveaus (oben) erfolgte eine globale Erwärmung von 0,8 K. Wentz hätte eine Zunahme des Wasserdampfes um etwa 5,5% erwartet. Tatsächlich fand sich nahe der Erdoberfläche, wo sich der meiste Wasserdampf befindet, ein Trend der spezifischen Feuchtigkeit mit etwa diesem Wert. Aber die Reaktion der Wasserdampf-Rückkopplung in niedrigen Höhen ist gering, weil die Luft alles andere als bereits gesättigt ist.

Allerdings sank die spezifische Feuchtigkeit mit der Höhe, wo die Luft trockener ist und zunehmender Wasserdampf die einzige in Frage kommende Quelle von Erwärmung ist. Das bestätigt die Nicht-Existenz des prophezeiten „Hot Spots“ in mittlerer Höhe der Atmosphäre über den Tropen, welcher angeblich durch zunehmenden Wasserdampf-Gehalt entstehen sollte. Also gibt es kaum Beweise dafür, dass die Temperatur-Reaktion auf einen gestiegenen Wasserdampf-Gehalt und die korrespondierende Verringerung der lapse rate nicht linear ist. Andere Rückkopplungen sind nicht groß genug, um einen großen Unterschied auszumachen, selbst wenn sie nicht linear sind.

Unser Verfahren prognostiziert eine Erwärmung von 0,78 K von 1850 bis 2011. Beobachtet worden waren 0,75 K.


Ein Kommentator hat sich darüber beklagt, dass der Planck-Parameter (die Quantität, mit der ein Strahlungsantrieb in W/m² multipliziert werden muss, um in eine Temperaturänderung konvertiert zu werden) weder konstant noch linear ist: stattdessen sei er die erste Ableitung einer Relation zur vierten Potenz, die fundamentale Gleichung des Strahlungstransports. Hier müssen wir eine kleine Berechnung durchführen. Übernimmt man die gewöhnliche harmlose und vereinfachende Hypothese der konstanten Einheit Emissivität ist die erste Ableitung, d. h. die Änderung ΔTref der Referenztemperatur pro Einheitsänderung ΔQ0 der Dichte des Strahlungsflusses einfach Tref / (4Q0), und das ist linear.

Eine einfache Approximation, um breitenabhängige Variationen des Planck-Parameters zu integrieren ist es, das Schlesinger-Verhältnis anzuwenden: d. h. das Verhältnis der Temperatur TS zum Vierfachen der Flussdichte Q0 = 241,2 W/m² in der Emissionshöhe. Bei den 255,4 K, welche ohne Rückkopplungen und Treibhausgase vorherrschen würden, wäre der Planck-Parameter 255,4 / (4 X 241,2) = 0,26 K/Wm². Bei der heutigen Temperatur von 288,4 K ist der Planck-Parameter 288,4 / (4 X 241,2) = 0,30. Da ist nicht sehr viel Nichtlinearität.

Es ist daher sinnvoll anzunehmen, dass so etwas wie der mittlere Rückkopplungs-Anteil 0,08; abgeleitet aus dem Experiment, in welchem man der Atmosphäre nicht kondensierende Treibhausgase hinzufügt, weiterhin vorherrschen wird. Falls das so ist, beträgt die Gleichgewichts-Erwärmung, die man aus dem anthropogenen Antrieb der 2,29 W/m² während der industriellen Ära bis 2011 (IPCC 2013, Abb. SPM.5) erwarten kann, 2,29 / 3,2 / (1-0,08) = 0,78 K. Und tatsächlich zeigt der Trend der linearen Regression kleinster Quadrate im Datensatz der globalen mittleren Temperatur von HadCRUT4 von 1850 bis 2011 eine Erwärmung um 0,75 K.

Aber warum zeigen die Temperaturmessungen der ARGO-Bojen dann ein „Strahlungsenergie-Ungleichgewicht“, was auf mehr Erwärmung in der Pipeline hindeutet, sondern dass die enorme Wärmekapazität der Ozeane diese für jetzt absorbiert hat?

Eine Möglichkeit ist, dass die ganze Erwärmung seit 1850 anthropogenen Ursprungs ist. Nehmen wir an, dass das Strahlungs-Ungleichgewicht bis 2010 0,59 W/m² betragen hat (Smith 2015). Die Erwärmung hat dann 2,29 – 0,59 = 1,70 W/m² in den Weltraum abgestrahlt. Die Gleichgewichts-Erwärmung sowohl durch anthropogene als auch durch natürliche Antriebe bis 2011 kann damit um 34,8% größer gewesen sein als die während der industriellen Ära gemessene Erwärmung von 0,75 K: d. h. 1,0 K. Falls 0,78 dieser 1 K anthropogenen Ursprungs wäre, dann gibt es nichts, um zu verhindern, dass die restlichen 0,22 K natürlichen Ursprungs sind, geschuldet der internen Variabilität. Dieses Ergebnis ist tatsächlich konsistent mit dem vermeintlichen „Konsens“, dass über die Hälfte der jüngsten Erwärmung anthropogenen Ursprungs ist.

Die Implikation für die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei einer verdoppelten CO2-Konzentration – ist geradlinig. Den Modellen zufolge beträgt der CO2-Antrieb 3,5 W/m² pro Verdoppelung. Teilt man dies durch 3,2, um dem heutigen Planck-Parameter Rechnung zu tragen, konvertiert sich dieser Wert zu einer Referenz-Sensitivität von 1,1 K. Dann ist die Charney-Sensitivität 1,1 / (1 – 0,08) = 1,2 K. Und das ist die Grundlinie. Nicht die 3,3 K Schätzung der CMIP5-Modelle. Nicht die 11 K von Stern (2006). Nur 1,2 K pro CO2-Verdoppelung. Und das liegt weit unterhalb allem, weswegen man sich Sorgen machen muss.

Keiner der Einwände gegen unsere Ergebnisse hat sich als substantiell erwiesen. Als Beispiel seien hier Yahoo-Antworten angeführt (sogar noch unzuverlässiger als Wikipedia) mit der folgenden herrlich albernen Antwort auf die Frage „hat Monckton einen grundlegenden Fehler entdeckt?“

Damit treibt der Fragesteller das folgende unsinnige Argument vor sich her:

1. Falls ich die Temperatur von 255,4 K auf der Erde ohne Treibhausgase heranziehe und die 8 K mit Treibhausgasen dazu addiere, erhalte ich eine Temperatur von 263,4 K.

2. Was ich sagen will: diese Total-Temperatur (anstatt lediglich des Treibhausgas-Effektes) führt zu einer Rückkopplung. Und falls ich dies anwende, erhalte ich eine Rückkopplung von 1 – (263,4 / 287,6) = 0,08.

Das Problem: Wie kann die Temperatur des Planeten (255,4 K) ohne Treibhausgase dann zu einer Rückkopplung führen? Die Rückkopplung ist den Gasen selbst geschuldet. Man kann nicht argumentieren, dass die Rückkopplung und in der Folge die höhere Temperatur infolge der Treibhausgase tatsächlich der Temperatur des Planeten ohne die Treibhausgase geschuldet ist! Was er gemacht hat ist, dass er die Grundlinie, auf der die Zunahme und die Rückkopplung fußt, herangezogen hat und diese dann als Grundlinie der Quelle von Zunahme und Rückkopplung angewendet hat.

Also, ich fürchte, das ist totaler Unsinn …

Der von Yahoo Answers begangene Fehler liegt in der falschen Annahme, dass „die Rückkopplung den Gasen selbst geschuldet ist“. Nein: man muss unterscheiden zwischen den kondensierenden Treibhausgasen einerseits (eine Änderung des Wasserdampfgehaltes der Atmosphäre ist ein Rückkopplungs-Prozess) und den nicht kondensierenden Treibhausgasen andererseits wie etwa CO2 (fast alle Änderungen der Konzentration nicht kondensierender Treibhausgase sind Antriebe). Alle in Tabelle 1 gelisteten Rückkopplungs-Prozesse wären präsent sogar beim Fehlen irgendeines der nicht kondensierenden Treibhausgase.

Ein weiterer Einwand ist, dass die offizielle Klimatologie vielleicht die Rückkopplungs-Reaktion auf die Emissionstemperatur berücksichtigt. Diesem Einwand kann rasch begegnet werden. Hier ist die typische eingestampfte und verschleiernde Definition einer „Klima-Rückkopplung“ vom IPCC (2013):

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Änderung in einer Klima-Quantität eine Änderung in einer zweiten verursacht, und die Änderung in der zweiten Quantität ultimativ zu einer zusätzlichen Änderung in der ersten Quantität führt. Bei einer negative Rückkopplung wird die Änderung abgeschwächt durch die Änderungen, die sie verursacht; eine positive Rückkopplung ist eine solche, in welcher die initiale Änderung verstärkt wird. In diesem Zustandsbericht wird oft eine engere Definition angewendet, in welcher die Klima-Quantität, welche sich ändert, die globale mittlere Temperatur ist, was wiederum Änderungen des globalen Strahlungshaushaltes verursacht. In jedem Falle kann die initiale Änderung entweder externen Ursprungs sein oder als Teil der inneren Variabilität daher kommen.

Diese IPC-Definition schließt also explizit jedwede Möglichkeit einer Rückkopplungs-Reaktion aus auf eine zuvor herrschende Temperatur wie die 255,4 K Emissionstemperatur, welche auf der Erde beim Fehlen jedweder Treibhausgase und Rückkopplungen herrschen würde. Aus diesem Grunde dachte Roy Spencer, dass wir falsch lagen.

Unser einfacher Punkt bleibt: wie kann ein unbelebter Rückkopplungs-Prozess wissen, wie man zwischen der Eingangs-Emission der Temperatur von 255,4 K und weiteren 9 K unterscheidet, der sich aus dem Hinzufügen nicht kondensierender Treibhausgase zur Atmosphäre ergibt? Wie kann dieser Prozess wissen, dass er auf Ersteres schwächer reagieren sollte als auf Letzteres? Oder, falls man der IPCC-Definition folgt, auf Erstere überhaupt nicht und auf Letztere extravagant? Trotz einiger wackerer Versuche seitens der wahrhaft Gläubigen, alles zu komplizieren, ist am Ende unser Punkt so einfach – und in unserer Eingabe unwiderlegbar.

Link: https://wattsupwiththat.com/2018/04/06/looping-the-loop-how-the-ipccs-feedback-aerobatics-failed/
Übersetzt von Chris Frey EIKE




Rundbrief der GWPF vom 9. April 2018

1) 48.000 Kältetote in UK nach dem schlimmsten Winter seit 42 Jahren

In UK hat der vergangene Winter so viele Todesfälle verursacht wie seit 42 Jahren nicht mehr. Man schätzt, dass zwischen Dezember und März 20.275 Briten mehr als im Mittel zu erwarten gestorben sind. Das bedeutet, dass im vergangenen Winter insgesamt fast 48.000 Todesfälle auf das kalte Wetter zurückzuführen sind – oder rechnerisch ein Todesfall alle dreieinhalb Minuten. Campaigner haben diesen Umstand als „nationale Tragödie“ bezeichnet, zumal die Todesfälle bzgl. kalten Wetters hätten vermieden werden können – vor allem unter den Älteren. – Hayley Coyle, Daily Star, 7. April 2018

2) Energiepreise müssen sinken, um Todesfälle durch Kälte zu reduzieren

In UK hat die Anzahl exzessiver Todesfälle durch kaltes Winterwetter im vorigen Jahrhundert abgenommen, aber im vergangenen Jahrzehnt ist dieser Fortschritt zum Stillstand gekommen. Der Trend könnte sich sogar umkehren, steigen doch Rechnungen immer mehr, um Technologien unzuverlässiger erneuerbarer Energie zu stützen. Die Temperatur in zentral beheizten Wohnungen ist ebenfalls gesunken, was ein Indiz dafür ist, dass die steigenden Energiekosten die Menschen davon abhalten, ihre Wohnungen angemessen zu heizen. Angesichts der Verbesserungen bzgl. Dämmung ist dies umso überraschender, hätte doch dieser Vorgang zu wärmeren und nicht kälteren Wohnungen führen müssen. – The Conservative Woman, 9. März 2018

3) Energiearmut in UK: Kosten grüner Subventionen steigen auf 11,3 Milliarden Pfund

Das Office for Budget Responsibility hat jüngst ihr Frühjahrs-Gutachten veröffentlicht. Die wirtschaftlichen und finanziellen Aussichten darin enthüllen, dass die Kosten für Umweltabgaben in diesem Jahr auf 11,3 Milliarden Pfund steigen werden. Das ist ein Anstieg von 2 Milliarden Pfund im Vergleich zum Vorjahr. – Paul Homewood, Not A Lot Of People Know That, 7. April 2018

4) Solarparks erhalten mehr Geld durch grüne Subventionen als sie mit dem Verkauf der von ihnen erzeugten Energie einnehmen.

Die größten Solarparks in UK erhalten mehr Geld durch grüne Subventionen als durch den verkauften Strom, den sie erzeugen. Dies geht aus neuen Zahlen hervor. Energieerzeuger werden mittels großzügiger Garantien zum Bau weiterer Solarparks ermutigt, finanziert durch ,grüne Abgaben‘, welche den Rechnungen der Steuerzahler hinzugefügt werden. Aber viele der Erzeuger erzielen die Mehrheit ihrer Einkünfte durch die Subventionen – anstatt durch den Strom, den sie erzeugen. – Colin Fernandez, Daily Mail, 9. April 2018

5) Öl und Kohle verhinderten Stromausfälle in den USA während des vergangenen Winters

Neuen Daten und Analysen der US-Regierung zufolge konnten während des schweren Schneesturms im Osten der USA zum Jahreswechsel 2017/18 Stromausfälle nur durch verstärkte Stromerzeugung aus konventionellen Quellen verhindert werden, vor allem Kohle und – so unglaublich es klingt – Öl. Erneuerbare waren eine Enttäuschung auf der ganzen Linie. Die Warnung an Europa ist laut und deutlich! [Hervorhebung vom Übersetzer] – John Constable, GWPF Energy, 8. April 2018

Übersetzt von Chris Frey EIKE




Abbruchstimmung in Deutschland : Vielen Windparks droht das Aus. Der Rückbau könnte zu unerwarteten Problemen führen.

Alex Reichmuth*
In Deutschland stehen mittlerweile fast 29 000 Windanlagen. Sie machten im letzten Jahr rund 16 Prozent der Stromproduktion aus. Doch nachdem es beim Windstrom jahrzehntelang nur vorwärts ging, könnte das Abschalten zahlreicher Anlagen bald zu einem Rückgang der Produktion führen. Der Grund ist nicht, dass die Anlagen nicht mehr funktionieren – sondern dass ihre finanzielle Förderung demnächst ausläuft.
Das deutsche Erneuerbaren-Energie-Gesetz, das im Jahr 2000 in Kraft getreten ist, garantiert Windpark-Betreibern während zwanzig Jahren kostendeckende Tarifefür den Strom, den sie ins Netz speisen. Ab 2020 läuft diese Förderung jährlich für Tausende Windräder aus.Die Betreiber müssen ihren Strom dann auf dem freien Markt anbieten, wo die Preise im Keller sind. Die Erträge dürften in vielen Fällen den Weiterbetrieb der Anlagen nicht decken, zumal viele von ihnen nach zwanzig Jahren Betrieb wartungsintensiver sind und mancherorts kostspielige Reparaturen fällig werden.
Konkret läuft 2020 die Förderung für 5700 Anlagen mit einer gesamten installierten Leistung von 4500 Megawatt (MW) aus.
In den darauf folgenden Jahren dürften es jeweils zwischen 2000 und 3000 MW sein, für die die staatliche Subventionierung wegfällt. Der deutsche Bundesverband Windenergie schätzt, dass bis 2023 rund 14 000 MW installierte Leistung die Förderung verlieren, was mehr als ein Viertel der deutschen Windenergie-Kapazität an Land ist. Wie viele Anlagen tatsächlich vom Netz gehen, hängt vom künftigen Strompreis ab. Bleibt dieser so tief wie heute, könnten mehr Anlagen stillgelegt als neu errichtet werden.
Allerdings ist der Rückbau von Windanlagen nicht ohne Tücken.
Heute können alte Anlagen zwar noch mit Gewinn in andere Weltgegendenwie Osteuropa, Russland oder Nordafrika verkauft werden, wo sie dann weiterbetrieben werden. Aber das Angebot gut erhaltener Altanlagen steigt und dürfte die Nachfrage bald übertreffen. Dann bleibt nur der Rückbauvon Anlagen. Und dieser geht ins Geld. Laut dem Bundesverband Windenergie ist pro Megawatt installierte Leistung mit Kosten von 30 000 Euro zu rechnen. Für eine grosse Turbine fällt so rasch ein sechsstelliger Betrag an.Viele Betreiber, zu denen auch Gemeinden gehören, dürften auf diese Kosten nicht vorbereitet sein.
Probleme beim Recycling
Eine besondere Herausforderung beim Rückbau stellt das Recycling der Bestandteile dar.«Wir stellen mit massiven Subventionen Windräder auf, aber niemand hat sich Gedanken gemacht, was danach mit den Anlagen passiert, dass die eingesetzten Mittel zum Beispiel auch recyclingfähig sein müssen»,so Herwart Wilms, Geschäftsführer des grössten deutschen Entsorger Remondis.
Zwar ist das Material von Stahlteilen oder Kupferleitungen sehr gut verwertbar. Ein Problem stellen aber die Rotorblätter dar, die aus einer Mischung aus Glas- und Kohlefasern bestehen und mit Polyester-Harzen verklebt sind.
«Wir laufen auf ein Riesenproblem zu»,sagte Michael Schneider von Remondis zum Handelsblatt. Denn es sei kaum möglich, die mit Harz verklebten Fasern wieder zu trennen. «Wir kriegen die nicht mehr auseinander», so Schneider. Ab 2021 könnten jährlich 16 000 Tonnen solcher Materialien anfallen.
Zwar will die Windkraftbranche Lösungen für die Wiederverwertung entwickeln. Ob diese dann nicht nur technisch, sondern auch ökonomisch aufgehen, steht aber in den Sternen. So könnte am Ende nur die energetische Verwertung übrig bleiben, sprich Verbrennung. Aber auch diese ist schwierig, weil die Rückstände von Rotormaterial feinkörnig sind und die Filter von Verbrennungsanlagen verstopfen.
Doch mit dem Rückbau der Anlagen selber ist es nicht getan.
Verschwinden müssten auch die Betonsockel, die das Fundament von Windrädern bilden.
Bei einer grossen Anlage kann dieser Sockel schnell mehr als 3000 Tonnen Stahlbeton umfassen und nicht selten über zwanzig Meter tief in die Erde reichen. Laut dem deutschen Baugesetzbuch müssen Windanlagen «vollständig rückgebaut werden» –und aus den Erläuterungen zum Gesetz wird klar, dass der Rückbau die Fundamente einschliesst.
Die vollständige Abtragung des Betonsockels kann rasch Kosten von mehreren Hunderttausend Eurozur Folge haben.
Auch haben mehrere Gerichte bestätigt, dass nach dem Ende einer Anlage die Betonfundamente abgetragen werden müssen. Das macht ökologisch durchaus Sinn. Wie Godehard Hennies, Geschäftsführer des Wasserverbandstages Bremen/Niedersachen/Sachsen-Anhalt gegenüber der Welt ausgeführt hat, durchstossen die Fundamente oft mehrere geologische Horizonte und verursachen eine bedenkliche Vermischung von vorher getrennter Grundwasserleiter.
Die vollständige Abtragung des Betonsockels kann aber rasch Kosten von mehreren Hunderttausend Euro zur Folge haben.Viele Windkraft-Betreiber haben keine entsprechenden Rückstellungen gebildet. Entsprechend werden die Regeln nicht durchgesetzt. An vielen Orten einigen sich die Betriebe mit den Landbesitzern darauf, dass sie nur die obersten zwei bis drei Meter des Sockels abtragen müssen – vermutlich meist gegen Ausrichtung einer Abgeltung.
Wie der Norddeutsche Rundfunk vor Kurzem berichtete, wird in der Region Dithmarschen in Schleswig-Holstein gar nur der oberste Meter von Betonfundamenten entfernt. Das für Umwelt verantwortliche Landesamt billigt offenbar solche Deals.
Auch deutschlandweit ahndet das zuständige Bundesamt das widerrechtliche Vorgehen bei den Windkraft-Sockeln bis heute nicht.
Geht es um erneuerbare Energie, haben Gesetze offenbar nur Empfehlungscharakter.
(Basler Zeitung)
=====================================================
)*  Dieser Artikel erschien zuerst in der BASLER ZEITUNG (ol.) am 05.04.2018
https://bazonline.ch/ausland/europa/abbruchstimmung-in-deutschland/story/18862585
EIKE dankt der Redaktion der BasZ sowie dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.
======================================================




Widerlegung eines persönlichen Angriffs der gegnerischen Berater im Exxon Fall

Ich fragte Christopher Monckton, ob er etwas dazu sagen wollte. Er sagte:

„Es wird oft nicht erkannt, wie sehr diejenigen von uns, die es wagen, die Linie der Partei in Frage zu stellen, leiden müssen und wie viel dafür ausgegeben wird, uns leiden zu lassen.

„Um ein Beispiel zu nennen: Im Oktober 2009 hielt ich eine Rede in St. Paul, Minneapolis, in der ich in der Rede verriet, dass der damalige Entwurf des Klimavertrags von Kopenhagen die Einrichtung einer globalen „Regierung“ vorschlug. Das Wort „Regierung“ tauchte tatsächlich im Vertragsentwurf auf. Jemand hat bei diesem gut besuchten Vortrag die letzten vier Minuten meiner Rede gefilmt und auf YouTube veröffentlicht. Innerhalb einer Woche hatte es etwa fünf Millionen Zugriffe, verteilt auf mehrere YouTube-Kanäle. Dann hörten die Trefferzähler auf zu steigen. Ich hatte naiver weise  angenommen, dass jeder, der mich hören wollte, mich gehört hatte.

Dann erhielt ich einen Anruf von einem Professor der Texas A&M University, der mir sagte, dass die Überwachung der Universität ergeben hätte, dass meine Rede schließlich 20 Millionen Klicks erreicht hätte, aber dass jemand viel Geld bezahlt hätte, um ein Dutzend gefälschte Seiten voller Kauderwelsch einzurichten, aber mit ‚Monckton‘ und verwandten Tags versehen, um den gesamten Verkehr vom echten Kanal abzulenken. Ich fragte, wie es war, dass diese Seiten mehr Hits als die echte Seite angezogen hatten. Der Professor erklärte, dass die großen Suchmaschinen gut bezahlt worden seien, um die gefälschten Seiten über die echte Seite zu stellen. Ich fragte, wie viel diese Übung gekostet hat. Der Professor sagte, dass die Kosten mindestens $250.000, aber vermutlich viel höher  waren, um von meiner Rede abzulenken.

Es ist also bedeutsam, dass die Anwälte zweier Städte im „Sunstroke State“ (Wordspiel = Sonnenstichstaat) entschieden haben, dass sie den Richter im Fall der Ölkonzerne durch persönliche Angriffe auf unseren Ruf leichter beeindrucken können, als durch den Versuch, die beiden von uns angesprochenen wissenschaftlichen Punkte zu beantworten: Erstens, dass der vermeintliche wissenschaftliche Konsens nicht mehr als 0,5% betrug, und zweitens, dass die Klimapanik ausschließlich auf einem bedeutenden wissenschaftlichen Fehler beruhte, den wir kürzlich entdeckt hatten.

„Durch Reputationsangriffe haben sich die totalitären Regime des 20. Jahrhunderts etabliert und ihre Gegner neutralisiert. Durch Reputationsangriffe versuchen die Totalitaristen des 21. Jahrhunderts dasselbe zu tun. Aber die Totalitaristen des 21. Jahrhunderts haben die gleichen Fehler gemacht wie die Totalitaristen im 20. Sie haben die Wissenschaft falsch verstanden, weshalb der Schaden, den sie uns auf kurze Sicht zufügen wollen, mit großem Interesse auf lange Sicht auf sie zurückprallen wird. Sie haben das Geld, die Macht und den Ruhm, aber wir haben die Wahrheit, und die Wahrheit wird siegen.“

Monckton et.al; Eingabe an das Gericht


Hier finden Sie das eingereichte Dokument der Antwort: 20180327_docket-317-cv-06011_statement-1 (PDF)
Erschienen auf Wattupwiththat am 07.04.2018
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2018/04/07/a-rebuttal-to-an-ugly-amicus-brief-attack-in-the-exxonknew-case/