Lasten­fahrrad­chauffeur*, der neue Zukunfts­job

 Ein wichtiger Impuls zum Klimaschutz im Verkehrssektor

Und seitdem hat sich wirklich viel getan. Praktisch immer, wenn unsere Ministerien etwas starten, werden daraus Erfolgsgeschichten, wie es beispielhaft der Bericht von Frau Zypris über das EEG ausweisen konnte: Die Energiewende: Unsere Erfolgsgeschichte, und die Rede von Frau Hendricks zur Rolle beim Welt-Klimavertrag: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

Selbstverständlich ist das auch beim Umbau des Gütertransports zur CO2-Freiheit nicht anders. Während „mit letzter Duldung“ zwar noch „klimatödliche“ Diesellaster auf unseren Autobahnen fahren (dürfen), ist der Weg auf der letzten Meile diesen CO2-Schleudern immer mehr verbaut, Tendenz: rasant steigend.

So richtig begonnen hat es damit, dass ein leibhaftiger Staatssekretär des Umweltbundesamtes persönlich „unter anderem eine kurze Strecke auf einem Lastfahrrad zurücklegte[3] und damit bewies, wie viel eine oberste, politische Führungskraft alleine mit Muskelkraft bewegen kann und wie gut es dem Bürger und dem Klima bekommen würde, Gleiches zu tun.
Danach reduzierte er (J. Flashbart) sein „Strampelengagement“ zwar auf das, was man in der Politik immer noch am besten kann: „Sein“ Ministerium legte dazu Förderprogramme auf:
[2] Im Rahmen der Nationalen Klimaschutzinitiative (NKI) fördert das Bundesumweltministerium aktuell das dreijährige Projekt „Lastenrad-Test“ des Deutschen Zentrums für Luft- und Raumfahrt (DLR) mit 1,8 Millionen Euro. Das Mobilitätsprojekt soll nach Angaben des Ministeriums den Einsatz von Lastenrädern in der gewerblichen Nutzung stärken und so einen Beitrag zur Minderung der Treibhausgasemissionen leisten.
Ziel des am 1. Januar 2017 gestarteten Projektes sei es, das Lastenrad als ökologisch und ökonomisch sinnvolles Transportmittel für eine breite gewerbliche Nutzung bekannt zu machen. „Damit leisten wir einen wichtigen Impuls zum Klimaschutz im Verkehrssektor“, erklärte Staatssekretär Jochen Flasbarth am Mittwoch laut einer Pressemitteilung,
… doch ist die universelle Vorbildfunktion unserer politischen Elite wieder einmal sprichwörtlich hervorgetreten, worin Professor Ernst-Peter Fischer von der Universität Heidelberg mit seiner Forderung: [5] „Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben“ sicher eine Bestätigung seiner These erkennen wird.

Lastenfahrräder, die Erfolgsgeschichte

Und das neue, an-gepulste Projekt hat es in sich und ist bestimmt der Beginn zum Durchbruch der CO2-freien, letzten Meilen, was alleine schon die wissenschaftliche Begleitung sicherstellt:
[2] Das neue Projekt beinhaltet den Aufbau eines umfangreichen Lastenrad-Testangebots. Insgesamt sollen 150 unterschiedliche Lastenräder jeweils für bis zu drei Monate zum Test an Unternehmen ausgeliehen werden. Ab sofort werden dafür bundesweit bis zu 450 interessierte Betriebe gesucht.
Das DLR-Institut für Verkehrsforschung begleitet das Projekt wissenschaftlich. Hierzu führen die Verkehrsforscher während der gesamten Laufzeit Befragungen und Analysen zur Nutzerakzeptanz, Fahrzeugnutzung und zu den Klimaschutzeffekten durch.

Eines kann man schon aktuell deutlich erkennen: Die Technik ist in der extrem kurzen Zeit sozusagen „über Generationen gesprungen“. Es gibt bereits 150 Varianten, also wirklich für jeden und alles das genau passende Gefährt. Und man vergleiche nur die Ausführung des Lastenfahrrads im Bild 2 zu dem hochtechnologischen Gefährt von Bild 1. Die Ware ist viel besser gegen Umwelteinflüsse geschützt und das Fahrgestell ist auch erheblich stabiler, wodurch die Zuladung erkennbar vergrößert werden konnte. Wirklich nichts ist übrig geblieben, was noch vermeidbares CO2 ausstoßen könnte. Und der Strom für eine kleine, elektrische Tretunterstützung kommt auch ausschließlich aus CO2-freien Sonnenkollektoren.
Während die Vorgängertechnologie: Streetscooter: Mit diesem Elektroauto hebt die Post ab, noch verweichlichende Sitzheizung hat, wurde erkannt, dass wer sowieso im Freien sitzt, dies gar nicht benötigt (deshalb wurden Heizpilze ja auch verbannt). Einfach Fakt: Wertarbeit und Effektivität in Symbiose, wie man es in Deutschland gewohnt ist.
Damit lässt sich wirklich viel bewegen und bestimmt jeder möchte mal mit aufgesetztem Sturzhelm wie ein Gladiator im Streitwagen sitzen und möglichst viele Kilometer für den Klimaschutz und viele Pakete strampeln.
Schon in naher Zukunft werden sich solche Gefährte fast zwangsweise als ein zusätzlicher, deutscher Exportschlager herausstellen, wie es schon der EEG-Strom geworden ist, den wir zeitweise bereits im Überfluss produzieren können.

Bild 2 Lastenfahrrad. Quelle: [2]

… bestimmt auch bald im Nahverkehr

Man munkelt, aufgrund der sich abzeichnenden Erfolge wird auch der Nahverkehr bald so CO2-neutral umgebaut. In Berlin wurde inzwischen nämlich erkannt, dass der EEG-Strom nach dem Abschalten aller Kraftwerke weder für das Volk, geschweige denn für die geplanten Elektroautos reichen wird und Kraftstoff-getriebene sind dann ja verboten.
Mit diesem Hintergrundwissen erscheint die Maßnahme, möglichst viele junge, im besten „Strampelalter“ befindliche Neuankömmlinge zu beglückwünschen als geradezu genial geplanter Schachzug. GRÜNE und CDU streiten nur noch um die Urheberschafft, weshalb es noch nicht publiziert wurde.

Und auch dafür (CO2-neutraler Nahverkehr) gibt es bereits die richtigen Lösungen. Bild 3 zeigt die Innovation gegenüber den aus Asien bekannten Bildern von Personenbeförderungs-Treträdern, deren Fahrer man früher teils abschätzig Rikscha-Kuli nannte. Bei dieser Ausführung handelt es sich sogar um ein Multi-Öko-Muskelkraftrad, weil jeder Insasse zur Verringerung seines persönlichen CO2-Fußabdrucks selbst mitstrampeln kann. Wenn diese Ausführung noch um eine App mit persönlicher Footprint-Verbesserungs-Nachschau auf dem Mobile erweitert wird, ist die Perfektion gelungen, beziehungsweise der heutzutage erwartete Stand der Technik erreicht. Leider wird gerade diese Nobelmarke nicht in Deutschland produziert.


Bild 3 CO2-freies Nahverkehrsfahrzeug der Zukunft mit höchster Umweltklasse. Quelle: Produktbild Fa. Surred Company

Kooperation mit den Know-how Trägern über Grenzen wird der Schlüssel

Nachdem die USA als Klimawandel-(Ver)Treiber ernsthaft auszufallen drohen, will Deutschland nicht mehr alleine so weitermachen, wie es Herr Altmaier bereits im kleinerem Kreis verkündete:
WELT N24: [4] Bundesregierung gibt Alleingänge im Klimaschutz auf
Deutschland hat im Klimaschutz stets den Vorreiter und Musterschüler gespielt. Doch damit ist jetzt offenbar Schluss … Mit den teuren klimapolitischen Alleingängen Deutschlands könnte es nach seinen Worten bald vorbei sein.
„Ich bin fest davon überzeugt, dass der Weg nationaler Ziele falsch ist“, erklärte Altmaier vor den Teilnehmern der exklusiven „Klausurtagung Energie- und Umweltpolitik“ …

Bei der Einführung und dem impulsivem Anstoß des Tretrad-gebundenen Lasten- und Nahverkehrs wird es sich also wohl um eine Kooperation mit asiatischem preiswert-Know-how zum Klimaschutz handeln, um das Wunschziel: billiges, gemeinsames Vorgehen, zu erreichen.
Aufhören geht ja (noch) nicht, teuer aber auch nicht mehr und „alleine“ hat sich aus Gründen – welche bestimmt noch nicht einmal Frau Hendricks kennt – erledigt. Nur asiatische Länder können leibhaftig zeigen, wie Transportwesen mit nachhaltiger Muskelenergie billig und reibungslos – beispielhaft sogar ohne Ampeln und minimalen Straßenverkehrsregeln – funktioniert. Vorbilder, welche sogar in Songs: „Nine Million Bicycles in Beijing“ (Katie Melua), verewigt wurden.
Wäre das nicht ergreifend, wenn so ein Lied demnächst über Berlin gesungen würde? Bestimmt haben sich Herr Flashbart und Herr Altmaier so etwas auch schon gedacht.
Und man muss ehrlich sein:
Auch Schießpulver und Porzellan kamen aus dieser Gegend, wurden aber erst in Europa wirkliche Erfolgsmodelle.

*Hinweis: Selbstverständlich sind im Artikel damit alle gelisteten Geschlechter gleichermaßen angesprochen

Quellen

[1] Verkehrsrundschau, 01.03.2017: DHL testet Lastenfahrräder mit Containerboxen

[2] Verkehrsrundschau, 02.02.2017: Umweltministerium fördert Lastenrad-Test

[3] Bundesregierung gibt Alleingänge im Klimaschutz auf

[5] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut




Erneuerbare Energie – wie hoch sind die Kosten?

Wie hoch sind die Kosten des Verbrauchs erneuerbarer Energie? Sonne und Wind gibt es umsonst, aber ist Energie aus Sonne und Wind auch umsonst? Biotreibstoffe erfordern Energie für die Pflanzenzucht, zur Herstellung und Ausbringung von Dünger, die Ernte, Herstellung und Transport von Äthanol. Sonne und Wind brauchen Energie, diese zu erzeugen, zu transportieren und die Ausrüstung zu installieren. Alle erneuerbaren Energiequellen verbrauchen sehr viel Land pro Megawatt erzeugten Stromes. Wir werden mit diesem Beitrag nicht in der Lage sein, die Kosten für erneuerbare Energie zu berechnen, aber wir können über die Komponenten diskutieren, die in diese Berechnung eingehen, und einige Zusammenhänge herstellen.

Energy return of investment (EROI)

[etwa: Eine Investitionen-Energieausbeute-Berechnung]

Die zur Herstellung eines Treibstoffes wie Biodiesel verbrauchte Energie muss wesentlich niedriger sein als die Energieausbeute aus dem hergestellten Treibstoff, damit dieser Treibstoff von Nutzen ist. Der allgemein gebräuchliche Terminus hierfür ist „energy return of investment“ oder EROI. Sie wird berechnet mittels Division der nutzbaren Energie in einem Treibstoff durch die zur Herstellung des Treibstoffes verbrauchte Energie. Folglich bedeutet ein EROI von eins, dass genauso viel Energie aufgewendet werde musste wie man danach aus diesem Treibstoff wieder herausholen kann. Diese Berechnung ist komplex, und als Folge davon können Schätzungen bzgl. irgendeines Treibstoffes erheblich variieren. Oftmals bestimmen lokale Faktoren die Berechnung, so dass der Vergleich zwischen verschiedenen Treibstoffen mittels dieses Verfahrens schwierig ist (Siehe die Abbildungen 1 und 2). Man beachte die Bandbreite der Werte für Öl und Gas, die Werte hängen stark ab von der Stelle, dem Typ von Rohöl oder Gas, dem herangezogenen Zeitraum, lokalen Vorschriften und Infrastruktur. Es ist sehr schwierig, einen Wert für einen Treibstoff festzumachen, weil die lokale Ökonomie, Qualität und Timing so große Auswirkungen haben.

Hall, et al., 2014 beschreiben vier verschiedene EROI-Berechnungen. Der Standard-EROI wird am Ursprungspunkt berechnet, dem Bohrkopf, dem Äthanol-Werk oder in der Fabrik, welche die Windmühlen oder Solarpaneele herstellt. Dabei kann aber viel Energie außen vor bleiben, die erforderlich ist, um den Treibstoff nutzbar zu machen, etwa für Wartung, Reibungsverluste usw., und schließlich beschreiben sie den gesellschaftlichen EROI, worunter der tatsächliche Gewinn aus einem Treibstoff für die Gesellschaft fällt. Letzteres ist aber wegen dessen Komplexität noch nicht erfasst. Keine der Berechnungen enthält die Kosten von fossilen Backup-Treibstoffen für Wind- und Solarerzeugung (außer vielleicht der zuletzt genannte Faktor). Oftmals enthalten die berechneten Werte nicht Kapazitäts-Korrekturen, um Ausfallzeiten Rechnung zu tragen.

Abbildung 1, Quelle Hall, et al., 2014

Abbildung 2, Quelle Hall, et al., 2014

EROI-Berechnungen sind also nicht Standard oder vollständig. Sie sind nur schwer untereinander zu vergleichen. Besonders schwierig ist es, Technologien untereinander zu vergleichen, beispielsweise Erdgas mit Solar oder Wind. Aber trotzdem zeigen die meisten Berechnungen, dass auf Mais basierendes Äthanol einen EROI von lediglich 1,25:1 aufweist (Kiefer, 2013). Wenn wir den Energieverlust berücksichtigen, wenn man Äthanol in einem Fahrzeug verbraucht, ist dies eine negative Ausbeute. Autos und Lastwagen sind nicht perfekt effizient, darum ist die von Hall, et al. (2009) geschätzte Kostendeckung etwa 3:1. Kiefer zufolge ist es selbst dem antiken Rom besser ergangen mit Getreide für Sklaven, Ochsen und Pferde. Deren Maximum-EROI betrug etwa 4,2:1. Beim Bau des Colosseums war der EROI 1,8:1. Kiefer schreibt auch, dass wenn der Gesamt-EROI unter 6:1 zurückgeht, die Wirtschaft wegen des hohen Energieverbrauchs der modernen Gesellschaft schrumpft und wir vor dem Risiko einer Rezession stehen.

Sehr viel später traten mit Kohle befeuerte Dampfmaschinen auf den Plan mit einem EROI von 10:1 oder mehr. Zu Anfang des Kohlebergbaus war die Ausbeutung von Kohle sehr einfach, lag sie doch an oder sehr nahe der Oberfläche. Das war eine gute Sache, weil frühe Dampfmaschinen sehr ineffizient waren. Allerdings wurde die Sklavenarbeit durch kohlebetriebene Dampfmaschinen ersetzt, als diese sich immer weiter verbesserten und sich ausgebreitet haben. Die sozialen und ökonomischen Vorteile waren also erheblich. Einige veröffentlichte historische EROI-Werte für Kohle sind in Abbildung 3 dargestellt (nach Hall et al. 2014).

Abbildung 3, Quelle Hall, et al., 2014

Unsere Zivilisation ist sehr stark abhängig von EROI, definiert doch der Energiegewinn unseren Wohlstand (Energiegewinn: Energie, die nicht zur Herstellung und dem Verbrauch von Treibstoffen aufgewendet wird). Weil wir uns gegenwärtig an einem großen Energiegewinn erfreuen, können wir unsere Zeit mit anderen Dingen zubringen als einfach nur Getreide anzubauen und Holz für Unterkünfte, zum Heizen oder Kochen wachsen zu lassen.

Energieverbrauch oder Energieeffizienz?

Gut dokumentiert ist, dass Wohlstand und Lebensstandard eng mit dem Energieverbrauch korreliert sind [eine Tatsache, die unsere werten Politiker, vor allem die Grünen, aber auch die „Süddeutsche Zeitung“, beharrlich leugnen! Anm. d. Übers.]. Dies muss immer wieder betont und unterstrichen werden: es ist der Energieverbrauch, mit dem unser Wohlstand und unser Lebensstandard sehr stark in Relation steht. Offensichtlich steht der Energieverbrauch in Relation zu dessen Preis: Je billiger Energie ist, umso mehr verbrauchen wir und umso besser geht es uns. Aber der Preis ist relativ zum Verbrauch sekundär. Timothy Garrett (2011) hat gezeigt, dass mit jeden zusätzlich verbrauchten 9,7 Milliwatt unser globaler Wohlstand um einen US-Dollar zunimmt (1990). Andere Dokumentationen der engen Beziehung zwischen Energieverbrauch und Wohlstand gibt es hier und hier . Der schnellste Weg, Menschen aus der Armut zu holen ist es, sie mit Energie zu versorgen, und der schnellste Weg, sie noch ärmer zu machen ist es, ihnen die Energie zu nehmen oder sie unbezahlbar zu machen. Siehe diesen Beitrag auf Spiegel Online mit weiteren Details [weiß jemand, ob dies auch auf der deutschen Site von Spiegel Online stand? Anm. d. Übers.]

Während Stephen Chu und die IEA glauben mögen, dass Energieeffizienz insgesamt Energie einsparen wird, sagt die Historie, dass dem nicht so ist. Der Energieverbrauch ist Gegenstand von „Jevons Paradox ”, welches besagt, dass bessere Energieeffizienz zu niedrigeren Energiekosten und damit zu höherem Energieverbrauch führt. Dies wiegt die meisten Effizienz-Verbesserungen auf, verbessert die Wirtschaft, unseren Lebensstandard und führt zu einem sogar noch höheren Energieverbrauch. Heute werden wegen des Energieverbrauchs weniger Menschen gebraucht, um Nahrungsmittel anzubauen und unsere Häuser zu bauen. Man könnte denken, dass in einem Land mit Überfluss wie etwa die USA ein Markt irgendwann gesättigt ist mit Energie verbrauchenden Gütern wie Autos, Air Conditions und Kühlschränken. Dies ist auf längere Sicht unwahrscheinlich, da neue Produkte, die allesamt Energie verbrauchen, erfunden, gekauft und gebraucht werden, falls sie attraktiv sind. Als ich ein kleines Kind war, gab es bei uns keinen Fernseher. Heute sind meine Frau und ich empty-nesters*, und wir haben drei Fernseher, vier Computer, zwei Tablets und zwei Smartphones. Sie alle verbrauchen Energie. Es ist wirklich ziemlich einfach: der Verbrauch wächst schneller als die Effizienz zunimmt.

[*Diesen Begriff fand ich so ansprechend, dass ich ihn ungern übersetzen möchte. Anm. d. Übers.].

Während der EROI ideal ist für den Vergleich der Qualität von Treibstoffen und Energiequellen, ist die Berechnung komplex und mit Problemen befrachtet. Ein anderer Weg der Betrachtung von Energiequellen sind die durchschnittlichen Stromkosten. Sowohl die US EIA als auch die International IEA haben sich an diesen Berechnungen versucht, und obgleich sie mit verschiedenen Zahlen aufwarten, stimmen sie qualitativ doch weitgehend überein. Die EIA berechnet die Kosten für die USA und die IEA die Kosten für die Welt. Dies ist einer der Gründe für die Unterschiede. Die Ergebnisse zeigt zusammengefasst Tabelle 1 in US-Dollar pro MWh. Beide Zahlenreihen sind korrigiert nach Ausfallzeiten. Das heißt bei Wind für Zeiten der Windstille, für Sonne nachts und an wolkigen Tagen, und Kohle und Erdgas für Wartungszeiten. Allerdings sind die Ausfallzeiten für Sonne und Wind anders als bei der regulären Wartung nicht planbar oder korrigierbar, und diese Zahlen reflektieren nicht die Kosten des erforderlichen (fast) 100%, ansonsten im Leerlauf stehenden Backups fossiler Treibstoffe in windstillen Nächten. Folglich sind die Schätzungen für Solar und Wind niedriger als in Wirklichkeit. Angesichts des Umstandes, wie stark Wind und Solar vom Wetter abhängig sind, können wir uns den Boom in der Meteorologie nur imaginär vorstellen, zu dem es kommen müsste!

Zum größten Teil sind die Erneuerbaren-Technologien in allen Ländern etwa die Gleichen. Die Unterschiede hinsichtlich der Kosten reflektieren unterschiedliche Preise (z. B. Preise für Kohle oder Erdgas), die Qualität der Treibstoffe oder die Kosten unterschiedlicher Vorschriften. Moderne Kohlekraftwerke in den USA und Europa haben allesamt seit Jahrzehnten Verschmutzungs-Kontrollsysteme installiert, und wie die Tabelle zeigt, erzeugen diese Kraftwerke Strom zu einem Preis von 80 bis 100 Dollar pro MWh. Aber „CCS“ (Kohlenstoff-Abscheidung), um ungiftiges Kohlendioxid aus einem Kohlekraftwerk zu sequestrieren, ist sehr teuer. Kohlendioxid ist inert und kein giftiges Gas wie Schwefeldioxid oder Quecksilber, und das Verfahren ist sehr schwierig und teuer. Dies lässt die Kosten für Kohlestrom in den USA auf 140 Dollar pro MWh steigen.

Tabelle 1, Quelle EIA und IEA

Kosten erneuerbarer Energiequellen

Erneuerbare Energiequellen mögen Vorteile haben, aber sie neigen zu niedrigen EROI-Werten, und ihr Verbrauch lässt die Strompreise steigen. Aus Tabelle 1 wird ersichtlich, dass erneuerbare Energie im Mittel doppelt so teuer ist wie die billigste Alternative. Diese Schätzungen enthalten nicht die Backup-Kosten fossiler Treibstoffe für Wind und Solar. Kernkraft ist die billigste Energiequelle in Europa und Erdgas die billigste Energiequelle in den USA infolge der Erzeugung von Schiefergas.

Das Wall Street Journal hat berichtet, das die Stromkosten in Deutschland um 60% gestiegen seien, und zwar aufgrund der Subventionen des Landes für erneuerbare Energie. Dies hat das BIP, den Lebensstandard und die Wettbewerbsfähigkeit verringert [was man offiziell hierzulande natürlich nie wahrhaben will. Anm. d. Übers.]. Die Firmen BASF, SGL Carbon, Basi Schöberl GmbH und Siemens haben allesamt Operationen aus Deutschland ausgelagert oder planen, dies zu tun infolge der hohen Energiekosten [dabei müssen diese Firmen noch nicht einmal die EEG-Umlage berappen. Anm. d. Übers.]

Wind- und Solarenergie

Wind und Solar sind nur zeitweilig verfügbare Quellen, weil der Wind nicht immer mit der richtigen Geschwindigkeit weht und die Sonne nicht immer scheint. Hall et al. 2014 zufolge sind gute EROI-Berechnungen für Solar und Wind zu diesen Zeiten nicht verfügbar. Dies liegt zum allergrößten Teil daran, dass Wind und Solar hoch abhängig sind vom Backup fossiler Treibstoffe und im Grunde „subventioniert“ werden durch höhere EROI-Werte fossiler Treibstoffe. Wie genau dies in Betracht zu ziehen ist, ist unbekannt. Hall et al. 2014 schreiben:

Alternativen wie Photovoltaik und Windturbinen sind nicht einmal ansatzweise energetisch oder ökonomisch so billig wie Öl und Gas in der Vergangenheit, wenn man die Backup-Kosten mit einbezieht. … Jedweder Übergang zu Solarenergie würde massive Investitionen in fossile Treibstoffe erfordern. Trotz zahlreicher Behauptungen des Gegenteils – von Öl- und Gas-Befürwortern einerseits und Solar-Befürwortern andererseits – sehen wir keine einfache Lösung dieser Probleme, wenn man den EROI betrachtet.

Ein klares Beispiel des Problems kann in Deutschland beobachtet werden, wo etwa 32% der installierten Energie-Kapazität Wind und Solar ausmachen. Nur weil Wind und Solar installiert sind und 32% des erforderlichen Stromes erzeugen können, heißt das noch lange nicht, dass sie das auch tun. Die Nachfrage schwankt ebenso wie die Windgeschwindigkeit und die einfallende Solarstrahlung. Im Jahre 2016 kostete der Strom in Deutschland 39 Cents pro KWh im Vergleich zu 27 Cent im übrigen Europa und etwa 11 Cent für Amerikaner. Dies hat in Deutschland zu Verlusten von Arbeitsplätzen und zur Abwanderung von Industrien geführt. Weil aufgrund der Gesetzeslage die gesamte erneuerbare Energie gekauft werden muss, gibt es Zeiten, in denen die Strompreise negativ sind (d. h. man gibt den Leuten noch Geld dazu, damit sie den Strom abnehmen). Weil ein Backup aus fossilen Treibstoffen zu 100% erforderlich ist, müssen die Regierungen Deutschlands und von UK für brach liegende Kapazitäten fossiler Treibstoffe zahlen, weil Backup im Notfall unabdingbar ist für die Netzstabilität. Diese Zahlungen nennt man „Kapazitäts-Zahlungen, und man kann sie getrost als Subventionen für Kohlekraftwerke betrachten. Diese Zahlungen liegen über und jenseits der normalen Überschusserzeugungs-Kapazität, die erforderlich ist beim Fehlen von Vorschriften zum Kauf erneuerbarer Energien.

Ein Faktor, der bei der Energieerzeugung durch Wind oft übersehen wird, ist der erforderliche Landverbrauch. In Tabelle 1 sieht man, dass die Offshore-Winderzeugung 2 bis 3 mal so teuer ist wie die Erzeugung an Land. Und doch erzeugen Windmühlen an Land weniger als 2 W/m². Das bedeutet, dass eine riesige Landfläche herhalten muss, wenn ein signifikanter Beitrag in das Stromnetz gespeist werden soll. Zum Vergleich, Mais-Äthanol erzeugt 0,315 W/m² pro Einheit Landfläche, was sogar noch schlechter ist. Ein modernes Ölfeld erzeugt 90 W/m² pro Landfläche*. In seinem E-Buch mit dem Titel „Sustainable Energyschätzt David Mackay, dass selbst bei einem Landverbrauch von 10% der Gesamtfläche von UK die Windmühlen nicht genug Energie für das Land erzeugen können.

[*Original: For comparison, corn-based ethanol produces 0.315 W/m2 of land, which is even worse. A modern oil field, on average, produces 90 W/m2 of land. Weiß jemand, wie man das besser übersetzen kann? Ich habe es mit „pro Einheit Landfläche“ versucht. Anm. d. Übers.]

Kommerzielle Solarstrom-Erzeugung hat ein ähnliches Raumproblem (6 W/m²), jedoch nicht bei Solarpaneelen auf Dächern. Aber Solar hat ein sehr ernstes Kapazitäts-Nutzungs-Problem. Im Jahre 2012 war in Deutschland eine Solarerzeugungs-Kapazität von 254 TWh installiert, jedoch wurden lediglich 19,3 TWh Strom erzeugt, das sind 11% der Kapazität. In anderen Teilen der Welt ist der nutzbare Strom aus Solar höher, geht aber niemals über 30% [der installierten Kapazität] hinaus. Die nutzbare Windenergie in Deutschland macht etwa 17% der Kapazität aus. Zum Vergleich, die meisten fossil betriebenen Kraftwerke erreichen Kapazitäts-Faktoren über 80% und Kernkraft über 94%. Es sind die unkontrollierte und nicht planbare Unberechenbarkeit sowie die verschwenderische Energieerzeugung, die zu den hohen Kosten führen. Außerdem ist es eine Tatsache, dass die CO2-Emissionen in Deutschland gestiegen sind, obwohl es doch das festgelegte Ziel der Nutzung von Erneuerbaren ist, diese Emissionen zu senken. Das Backup des Landes beruht auf Kohle, weil die Kernkraftwerke vom Netz genommen worden sind.

Biotreibstoffe

Die US-Vorschriften zum Gebrauch von Biotreibstoffen, hauptsächlich aus Mais und Zellulose-Äthanol, waren eine einzige Katastrophe. Als der Renewable Fuel Standard (RFS) im Jahre 2005 in Kraft gesetzt worden war, wurde dies als ein Schritt in Richtung Energie-Unabhängigkeit gepriesen. Aber schon bald zeigte sich eine Fülle unbeabsichtigter Konsequenzen. Äthanol hat eine geringere Energiedichte als Benzin, und wenn es beigemischt wird, kann man weniger Kilometer weit mit einer Gallone Benzin fahren als mit reinem Benzin. Die Verarbeitung von Mais zu Treibstoff lässt die Preise für Nahrungsmittel weltweit steigen, was besonders die Armen zu spüren bekommen. Und weil Mais auch Dünger braucht, kann der verstärkte Maisanbau zu einem Umweltdesaster führen. Außerdem verbraucht die Herstellung von Äthanol, egal ob aus Mais, Zuckerrohr oder Zellulose, so viel Energie, dass der EROI höchstens erreicht wird oder negativ ist; das heißt, die Herstellung von Äthanol verbraucht mehr Energie als das Äthanol später liefern kann.

Captain Ike Kiefer schreibt in „Twenty-First Century Snake Oil:

Einige prominente Individuen und Experten argumentieren, dass Biotreibstoffe unsere heimische Versorgung mit Treibstoff für Transporte verbessern und unsere Abhängigkeit von Ölimporten beenden, die militärische Verwundbarkeit abnehmen lassen und allgemein die nationale Sicherheit verbessern. Außerdem verspricht man sich von Biotreibstoffen eine Reduktion der Preisschwankungen, von Verschmutzungs-Emissionen, von Treibhausgasen – und dass sie sogar unsere Wirtschaft beflügeln. All diese Argumente zerfallen jedoch bei näherem Hinsehen … unbegrenzte Biomasse erzeugt Biotreibstoff-Mengen, die viel zu gering, diffus oder knapp sind, um jedwedem Anteil an den Primärbedürfnissen an Energie der USA zu genügen. Die Erhöhung der Vorräte durch Kultivierung verbraucht mehr zusätzliche Energie als der Biomasse hinzugefügt wird. Außerdem erfordert die geerntete Biomasse große Mengen Energie, um sie in die kompakte, energiereiche, flüssige Form von Kohlenwasserstoff zu bringen, die notwendig ist, um mit der Treibstoff-Infrastruktur der Nation, dem Transportwesen und besonders des Militärs kompatibel zu sein. Vergleicht man den Energiegehalt des Endproduktes Biotreibstoff mit der verbrauchten Gesamtmenge an Energie zu dessen Herstellung, verspricht dies ein sehr schlechter Deal zu sein hinsichtlich Investitionen, besonders hinsichtlich anderer Alternativen. In vielen Fällen kommt es insgesamt zu einem Energieverlust.

Äthanol ist corrosiv, es enthält Sauerstoff, ist hygroskopisch und kann Stahl brechen. Dies bedeutet, dass man es nicht einfach durch normale Pipelines pumpen kann, sondern dass es sich nur mit Lastwagen transportieren lässt. Maschinen, Pipelines und Speichertanks müssen für Äthanol besonders präpariert werden, was zu weiteren Kostensteigerungen und einem geringeren EROI führt.

Einige sagen, dass die Verbrennung von Holz „gutes“ CO2 erzeugt, weil die zur Treibstoffgewinnung gefällten Bäume durch neue Bäume ersetzt werden, die dann das CO2 absorbieren. Das kann so sein oder auch nicht, aber in jedem Falle sind die Kosten der Fällung der Bäume und neue zu pflanzen, des Präparierens und Transportes des Holzes zu einem Kraftwerk so hoch, das der EROI der Holzverbrennung sehr klein wird – und zwar viel kleiner als der EROI der Verbrennung von Kohle, auch dann noch, wenn ein kompletter Filtersatz auf dem Kohlekraftwerk installiert ist.

Senator Roger Wicker sagte im vorigen Jahr:

Ein Ende des RFS würde den Verbrauchern Geld sparen. Beispiel: Biotreibstoffe wie Äthanol bei der Treibstoffversorgung bedeuten, dass Fahrer pro Gallone Benzin mehr bezahlen für weniger Meilen. Das Institute for Energy Research sagt, dass der RFS die Verbraucher seit dem Jahr 2007 zusätzlich mir 83 Milliarden Dollar belastet hat.

Im vorigen Kongress habe ich eine Gesetzesvorlage eingebracht, der zufolge es verboten wird, Benzin mit 15 Prozent Äthanol anzureichern, hat sich dies doch als sehr schädlich für Motoren herausgestellt.

Nicolas Loris von der Heritage Foundation schrieb :

In Kraft getreten 2005 und erweitert 2007 schreibt der RFS – die ,Äthanol-Verordnung‘ – vor, dass die amerikanischen Öl-Raffinierer jedes Jahr ein Minimum an Biotreibstoff verarbeiten müssen, was sich bis zum Jahr 2022 auf 36 Gallonen summiert [1 Gallone = ca. 4 Liter]. 15 Milliarden Gallonen davon können aus Mais-Äthanol kommen, das Übrige muss von anderen Biotreibstoffen kommen“.

Bis Juli 2014 wurden lediglich 15.000 Gallonen Zellulose-Äthanol für das Jahr erzeugt, obwohl das Ziel der EPA 17 Millionen war. Die EPA hat wiederholt die Verpflichtung zur Äthanol-Anreicherung gekürzt, aber die tatsächliche Produktion blieb sehr gering. Die Verbraucher (also die Raffinierer und die Öffentlichkeit) können nicht etwas kaufen, das gar nicht existiert, werden aber dafür bestraft, wenn sie es nicht kaufen. Dazu hat Nicolas Loris gesagt:

Bis zum Jahr 2012 wurde kein Zellulose-Äthanol erzeugt, weil es sich kommerziell nicht gerechnet hat. Im Jahre 2012 wurden lediglich 20.000 Gallonen erzeugt – weit weniger als das anvisierte Ziel von 8,65 Millionen Gallonen. Als Konsequenz mussten die Raffinierer Millionen Dollar waiver credits oder Abgaben zahlen, um den Minimum-Vorschriften der EPA zu genügen. Die Raffinierer haben diese Kosten an die Verbraucher durchgereicht. Dies führte zu weiteren ökonomischen Schäden durch den RFS. Im Januar 2013 hat ein Berufungsgericht in Washington D. C. geurteilt, dass das von der EPA gesetzte Ziel „eine unvernünftige Ausführung amtlicher Befugnisse war“, und die Vorschrift bzgl. des RFS annulliert.

Nicht nur, dass die Herstellung von Zellulose-Äthanol weit hinter der Verordnung der Regierung zurückgeblieben war, hat dies außerdem fruchtbaren Boden bereitet für Abzocker und Profitgeier aller Art. [Die Firma] KiOR sollte Zellulose-Äthanol in Mississippi herstellen und wurde mit Millionen Dollar an Subventionen versorgt, damit die Firma in die Gänge kommt. Im November 2014 meldete sie dann Bankrott an und schloss ihre Türen, nachdem man eine sehr geringe Menge Äthanol hergestellt hatte. Der Generalstaatsanwalt von Mississippi Jim Hood sagte damals:

KiOR war einer der größten Betrugsfälle, mit denen es der Staat Mississippi je zu tun hatte“.

Die Gründe hinter dem Scheitern von KiOR waren einfach: sie konnten ihr Verfahren lange nicht zum Einsatz bringen, und als das dann doch der Fall war, war die Ausbeute weitaus geringer al KiOR behauptet hatte. Das Werk sollte 13 Millionen Gallonen Biotreibstoffe jedes Jahr erzeugen. Tatsächlich waren es im Jahr 2013 133.000; Anfang 2014 nochmals 97.000 Gallonen, dann kam der Bankrott.

Ein anderes Zellulose-Äthanol-Werk wurde jüngst von Ineos Bio an Alliance BioEnergy verkauft. Man hatte den Prozess einfach nicht in den Griff bekommen. Alliance BioEnergy hat gerade sein neues CTS-Verfahren getestet, Zellulose in Äthanol umzuwandeln. Mit der Zeit wird sich zeigen, ob sich das als kommerziell möglich herausstellt. Andere Unternehmen, welche Zellulose in Äthanol umzuwandeln versucht haben, sind ebenfalls dem Pleitegeier zum Opfer gefallen, darunter KL-Energy, Range Fuels und Codexis biofuels. Codexis stellt immer noch Enzyme für die Pharmaindustrie her, hat aber seine Zellulose-Äthanol-Fabrik geschlossen.

Im März 2014 schrieb Mark Peplow einen Artikel über Zellulose-Äthanol im Magazin Nature. Darin zeigte er eine Karte mit Anlagen in Nordamerika. Diese Karte zeigt Abbildung 4, aktualisiert vom Autor:

Abbildung 4 (Quelle Nature, modifiziert und aktualisiert vom Autor)

Während der Nature-Artikel 2014 sehr euphorisch und optimistisch war, wurde Abengoa geschlossen, welche „mit der kommerziellen Produktion während der nächsten paar Monate beginnen“ sollte. Abengoa hat nach Artikel 15 Bankrott gemeldet. Im Mai 2016 veröffentlichte der Scientific American einen aktuelleren Artikel zum Thema Zellulose-Äthanol mit der Schlagzeile „Whatever Happened to Advanced Biofuels?” Darin wurde die Lage so zusammengefasst:

Das Haupthindernis für „Zellulose-Treibstoffe‘ scheint ökonomischer Natur zu sein. Im April 2012 stellte die Firma Blue Sugars Corp. Of South Dakota die erste Marge brauchbaren Zellulose-Äthanols her, etwas mehr als 75.500 Liter – um gleich danach den Betrieb einzustellen. Im Jahre 2013 wurde kein Zellulose-Äthanol hergestellt, aber im vorigen Jahr – nachdem viele vom Energieministerium unterstützte Werke errichtet wurden – erzeugten alle fünf Bioraffinerien insgesamt 8,3 Millionen Liter Zellulose-Äthanol. Schon jetzt steht das Zellulose-Werk des spanischen multinationalen Unternehmens Abengoa – welches 2014 in Hugoton in Kansas eröffnet worden war – nutzlos in der Gegend herum, und zwar weil man es wegen Schwierigkeiten mit der Technologie nicht nutzen konnte und wegen des Bankrotts von Abengoa. Jenes Werk verbrannte eine Kreditbürgschaft in Höhe von 132 Millionen Dollar ebenso wie eine Zuwendung in Höhe von 97 Millionen Dollar vom Energieministerium, bevor es stillgelegt wurde.

Die EPA fordert jetzt 1,2 Milliarden Liter Zellulose-Äthanol für das Jahr 2017, was niemals geschehen wird. Im Jahre 2015 wurden lediglich 8,3 Millionen Liter verkauft, im vorigen Jahr waren es wohl weniger als 10 Millionen Liter. Die Äthanol-Vorschrift ist jetzt 12 Jahre alt, und immer noch befindet sich auch nur ein einziges kommerzielles Werk für Zellulose-Äthanol nicht in der Produktionsphase. Es ist sehr unwahrscheinlich, dass dies bald doch gesehen wird.

Captain Ike Kiefer fasste die Lage ziemlich gut in diesem Kommentar vom 1. März 2017 bei WUWT zusammen:

Die technologische Machbarkeit von Zellulose-Äthanol ist leicht erkennbar für alle, die willens sind zu sehen und zu denken. Es ist im Wesentlichen die gleiche Herausforderung wie bei einer Papierfabrik, die aus Bäumen Papier herstellt, außer dass man nach der Extraktion der Zellulose versucht, eine sehr kostspielige zusätzliche Konversion von fest zu flüssig durchzuführen, was die Schritte Besiedelung und Düngung, Fermentierung, Destillation und Dehydrierung erfordert. Und das flüssige Endprodukt (Äthanol) hat einen geringeren Marktwert als das feste Endprodukt (Papier). Das ist ein ziemlich übles Geschäftsmodell, vor allem, wenn bekannt ist, dass Papierwerke kaum vor Pleiten stehen. Außerdem, wenn der EROI von Mais-Äthanol weniger als 2:1 ist … und es ist 5 mal schwieriger, Zellulose zu verflüssigen als Maisstärke, dann kann es gut sein, dass der EROI für Zellulose-Äthanol auf dem Kopf steht.

Und schließlich müssen wir die Ergebnisse zahlreicher Studien berücksichtigen, die zeigen, dass über 70% der Preissteigerungen für Nahrungsmittel weltweit der Herstellung von Biotreibstoffen geschuldet sind, wie aus der Studie von Kiefer hervorgeht. Sowohl das World Food Program als auch die Food and Agriculture Organization der UN haben alle G20-Nationen aufgefordert, ihre Subventionen für Biotreibstoffe zu senken. Getreidepreise sind für die ärmsten Verbraucher um bis zu 50% gestiegen, was unter den Armen der Welt zu Hunger und Unterernährung zunehmen lassen.

Schlussfolgerungen

Während eindeutig fossile Treibstoffe und Kernenergie billiger sind und außerdem flexibler und zuverlässiger als Erneuerbare, ist es nicht so eindeutig, um wie viel sie billiger sind. Kiefer berichtet, dass seit 2007 das Militär 68 Millionen Dollar für 1,35 Millionen Gallonen Biotreibstoff ausgegeben hat, das sind über 50 Dollar pro Gallone. Darin sind nicht enthalten die Kosten der Subventionen, welche Staaten und die [US-]Bundesregierung aufgebracht haben. Konventioneller Treibstoff hätte das Militär nur 8 Millionen Dollar gekostet. Hall, et al. (2014) folgerten daraus, dass Solar und Wind nicht verbraucht werden können ohne fossile Treibstoffe oder Kernkraft mit niedrigerem EROI als Backup; sie sind nicht die „Grundlast“-Technologien. Mais-Äthanol erfordert eine große Menge fossiler Energie, um den Mais wachsen zu lassen, ihn zu transportieren und zu Äthanol zu machen. Zellulose-Äthanol ist gegenwärtig nicht ökonomisch und wird es auch niemals sein. Wie in der Studie von Kiefer und anderen Studien diskutiert, ersetzen Erneuerbare keine fossilen Treibstoffe, sondern steigern stattdessen deren Verbrauch. Der einzige Weg, fossile Treibstoffe und Kernkraft zu ersetzen ist es, Erneuerbare herzustellen mit einem höheren EROI als entweder fossile Treibstoffe oder Kernenergie. Dies kann geschehen, wenn entweder der EROI der Fossilen sinkt oder der EROI Erneuerbarer steigt, aber das muss geschehen! Anderenfalls sind Erneuerbare einfach nur Parasiten konventioneller Energie, und wenn der Verbrauch Erneuerbarer zunimmt, ist dies auch bei Fossilen und Kernenergie der Fall, genau wie es heute in Deutschland und Dänemark beobachtet wird.

Gegenwärtig sind die wahren Kosten und der EROI von Erneuerbaren unbekannt. Der einzige Weg, diese Kosten genauer zu berechnen wäre es, einen erneuerbaren Treibstoff zu finden, dessen Energie allein als Energiequelle dienen kann. Dies würde zum Beispiel bedeuten, dass ein mit Solarenergie versorgtes Werk für Solarzellen und -paneele, Solarfahrzeuge und Ausrüstung für Transport und Konstruktion diese ausschließlich mit Energie aus einem Solarkraftwerk herstellt. Wäre eine solche Einrichtung ökonomisch? Was ist mit den analogen Einrichtungen für Äthanol und Wind? Aber derartige Einrichtungen existieren nicht, also wissen wir es nicht. Nur wenn die Abhängigkeit Erneuerbarer von fossilen Treibstoffen und Kernkraft vollständig erforscht ist, wird eine Berechnung möglich sein. Um die wirklichen EROI von Solar, Biotreibstoffen und Wind inkl. Backup zu berechnen, ist es erforderlich zu entscheiden, wo man die Linie zieht zwischen Kosten, die in die EROI-Berechnung fossiler Treibstoffe eingehen sollen, und Kosten, welche in die EROI-Berechnung Erneuerbarer eingehen. Das ist kein triviales Problem. Aber der finale EROI für Erneuerbare, ist er einmal berechnet, dürfte wahrscheinlich weniger als 3:1 betragen, was in der Praxis die Untergrenze ist und eindeutig im Bereich einer Rezession liegt.

Link: https://wattsupwiththat.com/2017/03/13/renewable-energy-what-is-the-cost/

Übersetzt von Chris Frey EIKE




Unsicherheiten und Fehler bei Schätzungen des Strahlungs­antriebs sind 10 bis 100 mal größer als der gesamte Strahlungs­effekt zunehmen­den CO2-Gehaltes

Die Charakterisierung als „Leugner“ stammt aus einem Interview mit Joe Kernen von CNBC, in welchem Pruitt gefragt wurde, ob er glaube, dass sich CO2 als der „Kontroll-Knopf“ des Klimas erwiesen habe. Pruitt erwiderte „das wissen wir noch nicht“ und dass es „erheblichen Streit gibt über die Größenordnung der Auswirkung“. Aber er sagte auch: „Nein, ich denke nicht, dass CO2 primär zum Klimawandel beiträgt“. Offensichtlich ist das alles, um sogleich als Klima-„Leugner“ gebrandmarkt zu werden.

Scott Pruitt: „Nein, ich glaube, dass die präzise Messung der Auswirkungen menschlicher Aktivitäten auf das Klima eine sehr große Herausforderung ist, und es gibt hier noch gewaltige Meinungsverschiedenheiten hinsichtlich des Ausmaßes der Auswirkung. Darum – nein, ich würde nicht der Aussage zustimmen, dass CO2 einen primären Beitrag leistet zu der globalen Erwärmung, die wir erleben. Aber das wissen wir noch nicht. … Wir müssen die Debatte fortsetzen, und wir müssen Begutachtung und Analysen fortsetzen“.

In einer Analyse der Washington Post zu Pruitts Kommentaren mit dem Titel „EPA Chief’s Climate Change Denial Easily Refuted…” [etwa: Leugnung des Klimawandels seitens EPA-Chef leicht widerlegt…] war in der Antwort des Kommentators das letzte Statement von Pruitt über die Notwendigkeit enthalten, das Ausmaß der menschlichen Einwirkung weiter zu diskutieren: „Das ist das ganze Zentrum der Wissenschaft. Man stellt immer weiter Fragen“.

In der Antwort zu diesem ziemlich fundamentalen Punkt scheint der Journalist Philip Bump der Zeitung der Ansicht zuzustimmen, dass Fragen und Diskussionen in der Wissenschaft immer weiter gehen müssen (da dies in der Tat „das ganze Zentrum der Wissenschaft“ ist). Aber gleich danach widersprach er sich selbst:

Nun, sicher. Aber im Zentrum der Wissenschaft steht auch, die Antworten auf jene Fragen zu akzeptieren, wenn diese entschieden sind. Und in der wissenschaftlichen Gemeinschaft ist die Antwort auf die Frage der Verbindung zwischen Treibhausgasen und Erwärmung längst entschieden“.

Also, weil offenbar „entschieden ist“, dass CO2 Erwärmung oder Abkühlung verursacht jeweils bei Zu- oder Abnahme, sollten wir nicht nach dem Ausmaß fragen, bis zu dem die Klimamodelle korrekt den Einfluss zu- oder abnehmenden CO2 zeigen, oder eine wie starke Erwärmung oder Abkühlung durch CO2-Fluktuationen verursacht ist relativ zu anderen, das Klima treibenden Faktoren.

Und warum sollten wir davon Abstand nehmen, Fragen nach dem relativen Einfluss des CO2-Antriebs bzgl. des Klimas zu stellen? Weil diese Fragen noch nicht entschieden … oder beantwortet sind. Nicht einmal annähernd. Schließlich sind die Unsicherheits- und Fehler-Bandbreiten im Zusammenhang mit der Modellierung radiativer Energieänderungen im System Erde 10 bis 100 mal größer sind als die Gesamtstärke des Antriebs, den man CO2-Änderungen zuordnet.

1. Strahlungsantrieb durch CO2 von 2000 bis 2010 war lediglich 0,2 W/m²

Das IPCC hatte festgestellt, dass das „globale Klima bestimmt wird durch die Strahlungsbilanz des Planeten“. Falls das Strahlungsenergie-Budget (einfallende vs. ausgehende Strahlung) positiv wird (ausgedrückt in Watt pro Quadratmeter oder W/m²) gibt es Erwärmung. Falls es negativ wird, gibt es Abkühlung. Das IPCC geht davon aus, dass positive Energiebilanzen seit Jahrzehnten auftreten, fast ausschließlich getrieben durch die Zunahme anthropogener CO2-Emissionen.

Den Klimamodellen zufolge beträgt der Gesamt-Klimaantriebs-Effekt der Zunahme des atmosphärischen CO2-Gehaltes von rund 120 ppm während der ~165 Jahre seit 1750 1,8 W/m².

Einer im Jahre 2015 im Journal Nature veröffentlichten Studie zufolge hat die CO2-Konzentration um 22 ppm während der ersten 10 Jahre des 21. Jahrhunderts zugenommen. Der Strahlungs-(Antriebs-)Effekt dieser CO2-Zunahme um 22 ppm wurde mit 0,2 W/m² modelliert. Folglich kamen zu dem Gesamt-Strahlungsantrieb von 1,8 W/m² seit 1750 noch 0,2 W/m² während der ersten Dekade dieses Jahrhunderts hinzu.

Feldman et al., 2015

2. Das Strahlungs-Energie-Ungleichgewicht von 2000 bis 2010 war 0,6 W/m²

In einer Studie in Nature Geoscience aus dem Jahr 2012 mit dem Titel „An update on Earth’s energy balance in light of the latest global observations” von Stephens et al. (2012) wurde das Strahlungs-Energie-Ungleichgewicht der Dekade von 2000 bis 2010 als positiv berechnet, wie erwartet. Interessanterweise jedoch war das positive Energiegleichgewicht von 0,6 W/m² 3 mal größer als der Antriebs-Wert (0,2 W/m²), welchen man im gleichen Zeitraum der CO2-Zunahme zugeordnet hatte.

Stephens et al., 2012

Die gegenwärtige überarbeitete Darstellung der globalen mittleren Energiebilanz für die Dekade 2000 bis 2010 wird präsentiert … für diesen Zeitraum beträgt das mittlere Ungleichgewicht 0,6 W/m², wenn diese TOA-Flüsse in Abhängigkeit betrachtet werden mit dem Best Estimate des ozeanischen Wärmegehaltes seit 2005.

3. 67% (0,4 W/m²) der Energie-Zunahme von 2000 bis 2010 gehen nicht auf CO2 zurück

Falls das Ungleichgewicht im Energiehaushalt im Zeitraum 2000 bis 2010 0,6 W/m² und der modellierte Strahlungsantrieb 0,2 W/m² im gleichen Zeitraum betragen hatte, bedeutet das, dass hier ein positiver Antrieb von 0,4 W/m² wirksam war, der nicht der Zunahme der CO2-Konzentration geschuldet war. Dies zeigt, dass die Schlussfolgerung des IPCC, der zufolge die gesamte oder fast die gesamte Erwärmung der jüngeren Zeit auf die Zunahme anthropogener CO2-Emissionen zurückgeht, nicht gestützt wird durch die Schätzungen des Energie-Ungleichgewichtes an der der Oberfläche. Zwei Drittel des Klimaantriebs müssen irgendeinem unbekannten Mechanismus oder Mechanismen zugeordnet werden, welche das IPCC irgendwie bei Analysen zur Ursachenforschung nicht identifizieren konnte. Und falls nur 33% des jüngsten Klimaantriebs anthropogenen Ursprungs sind und 67% auf unbekannte Ursachen zurückgehen – woher kommt dann die Sicherheit zu behaupten, dass Menschen den Klimawandel treiben?

4. Unsicherheit bzgl. Energie-Änderung ist 10 bis 100 mal größer als CO2-Antrieb

Spricht man von Sicherheit – oder, angemessener, von Unsicherheit – hinsichtlich des Klimaantriebs oder Werten des Energie-Ungleichgewichtes, betonen Stephens et al. die unerlässliche Unsicherheit der Schätzungen des Energie-Ungleichgewichtes von 2000 bis 2010: enorme ±17 W/m².

Eine Unsicherheits-Bandbreite von 17 W/m² hinsichtlich der Schätzung des Energiegleichgewichtes (0,6 W/m²) bedeutet, dass die tatsächliche Energiebilanz irgendwo zwischen -16,4 W/m² bis +17,6 W/m² liegen kann. Eine solche Bandbreite macht die 0,2 W/m² CO2-Antrieb bedeutungslos, ist doch die Unsicherheit des Volumens der Energieänderung von 2000 bis 2010 85 mal größer als der dem CO2 zugeordnete Antrieb im gleichen Zeitraum.

Stephens et al., 2012

Dieses kleine Ungleichgewicht (0.6 W/m²) ist um über 2 Größenordnungen (100 mal) kleiner als die individuellen Komponenten, welche diesen Wert festlegen, und kleiner als der Fehler innerhalb eines jeden Flusses.

Die Gesamt-Energiebilanz ist die Summe der individuellen Flüsse. Die gegenwärtige Unsicherheit bei dieser Gesamt-Energiebilanz an der Oberfläche ist groß und macht bis zu 17 W/m² aus. Diese Unsicherheit ist um eine Größenordnung (10 mal) größer als die Änderungen der Gesamt-Oberflächenflüsse, die assoziiert sind mit zunehmenden Treibhausgasen in der Atmosphäre.

Der genannte Wert des sensible heat flux ist eine Kombination der sensible heat fluxes von Festland und Ozeanen mit einer einfachen Wichtung auf der Grundlage von Festlands-/Ozeandaten. Der Fluss-Wert von 24 W/m² ist ebenfalls größer als zuvor angenommen und bleibt erheblich unsicher, wie die Bandbreite von 14 bis 34 W/m² belegt. Diese resultiert aus unterschiedlichen Schätzungen des Festlands-Flusses. Es gibt keine definitive Messung der Unsicherheit dieses Flusses, und die die angegebene Unsicherheits-Bandbreite lässt kaum eine Beurteilung zu, welcher Wert der wahrscheinlichste Wert ist.

Sogar das IPCC räumt ein, dass die Unsicherheit in Wärmeflüssen bis zu 20 W/m² erreichen kann, und diese Unsicherheit marginalisiert die weniger als 2 W/m² des Gesamt-Strahlungsantriebs anthropogener CO2-Emissionen während der letzten paar Jahrhunderte zur Bedeutungslosigkeit.

IPCC AR4 (2007)

Unglücklicherweise sind die Gesamtflüsse von Wärme und Wasser nicht gut erfasst. Normalerweise werden sie abgeleitet aus Beobachtungen in anderen Bereichen, wie Temperatur und Wind. Als Folge dieser schlechten Erfassung ist die Unsicherheit der aus Beobachtungen gewonnenen Schätzung groß – um die Größenordnung von Zehner Watt pro Quadratmeter für den Wärmefluss, sogar im zonalen Mittel.

IPCC AR5 (2013)

Die Gesamt-Unsicherheit der jährlich gemittelten Ozeanwerte für jeden Term wird in der Bandbreite von 10 bis 20% liegen. Im Falle des Terms des latenten Wärmeflusses korrespondiert dies mit einer Unsicherheit von bis zu 20 W/m². Zum Vergleich, Änderungen der mittleren globalen Werte individueller Wärmefluss-Komponenten, die durch den anthropogenen Klimawandel seit 1900 erwartet werden, liegen auf einem Niveau <2 W/m² (Pierce et al. 2006).

Frank, 2008

Es stellt sich heraus, dass die Unsicherheiten hinsichtlich der energetischen Reaktionen des irdischen Klimasystems über 10 mal größer sind als der gesamte energetische Effekt eines gestiegenen CO2-Gehaltes.

5. Das IPCC verschleiert Unsicherheiten und Fehler beim Strahlungs-Energiewandel

Befürworter der Ansicht, dass CO2 der „Kontrollknopf des Klima ist, wollen die Aufmerksamkeit von den Unsicherheiten und Fehlern der Klimamodellierung natürlich ablenken. Genauso hat das IPCC fortwährend Daten verschwinden lassen, die Zweifel an der „Konsens“-Position säen (welcher zufolge die meisten Klimaänderungen von anthropogenen CO2-Emissionen getrieben worden sein sollen seit Mitte des 20. Jahrhunderts).

Um die Unsicherheits- und Fehlerbandbreiten in den Schätzungen des Strahlungsantriebs in den Klimamodellen aufzufinden, muss man sich ganz bewusst daran machen, das esoterische „Begleitmaterial“ eines jeden Reports zu lokalisieren. Das IPCC wagt es nicht, Schätzungen massiver Klimamodellierungs-Fehler und -unsicherheiten zu veröffentlichen an Stellen, wo man sie am wahrscheinlichsten findet.

Frank, 2008

Man muss Kapitel 8 aufschlagen und besonders das Begleitmaterial [Supplementary Material] betrachten im jüngst veröffentlichten AR 4, um die graphische Darstellung der Fehler in den GCMs zu finden, dargestellt in W/m². Derartige offene Darstellungen von Fehlern und Unsicherheiten erscheinen nicht in den SPMs oder in der Techincal Summary, also dort, wo öffentliche Institutionen sie viel wahrscheinlicher ersehen würden.

Supplementary Material aus Kapitel 8, IPCC AR4

Abbildung S8.5 zeigt, dass GCM-Fehler in der „mittleren kurzwelligen Strahlung in den Weltraum“ um die 25 W/m²-Linie schwankt.

Die Fehler der ausgehenden langwelligen Strahlung, Abbildung S8.7, sind ähnlich groß (~20 W/m²)

6. „Woher stammt die Sicherheit, dass CO2 einen großen Einfluss auf das Klima hat?“

Falls also die Modelle so hoffnungslos voller Fehler und Unsicherheiten stecken, dass ein anthropogenes Strahlungsantriebs-Signal nicht vom Rauschen unterschieden werden kann, oder falls die Größenordnung der den Menschen zugeordneten Erwärmung ein Zehntel bis ein Hundertstel der Bandbreite von Fehlern und Unsicherheiten ausmachen – warum werden dann all jene, die es wagen, das Ausmaß in Frage zu stellen, mit dem Menschen das Klima der Erde beeinflussen, als „Leugner“ der Wissenschaft gebrandmarkt?

Wie genau lautet die Wahrheit, welche die Klima-„Leugner“ leugnen?

Falls die Unsicherheit größer ist als der Effekt, wird der Effekt selbst irrelevant. Falls der Effekt selbst diskussionswürdig ist, von was redet das IPCC dann überhaupt? Und woher stammt die Sicherheit einer großen Auswirkung durch CO2 auf das Klima? – Dr. Patrick Frank, “A Climate of Belief

– See more at: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpuf

Link: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpbs

Übersetzt von Chris Frey EIKE




Kalt erwischt, oder wie aus einer Klima­königin eine Schnee­königin wurde: Das moderne Märchen der anthropo­genen Erderwärmung

Mitten im Frühling, eine Woche vor dem kalendarischen Frühlingsanfang diese Nachricht, unsere „Klimakönigin“ muss auf dem Boden bleiben. Gemeint ist dabei nicht, auf dem Boden der Tatsachen, sondern, auf dem Boden von Berlin. Und warum, nicht, weil der Hauptstadtflughafen einfach nicht fertig werden will. Haben wir in Deutschland etwa vor lauter Windrädern und Visionen* verlernt, Handfestes zu bauen, hier einen Flughafen, dort einen Bahnhof?

* Wie sagte doch noch gleich Helmut Schmidt: „Wer Visionen hat, der solle zum Arzt gehen.“

Nein, weit gefehlt, Frau Merkel und ihre Journalistenschar mussten wegen eines starken Wintereinbruchs in Washington und an der amerikanischen Ostküste zu Hause bleiben. So wurde ein halber Meter Schnee vorhergesagt und dass, wo der Frühling vor der Tür steht, man von Latif und Co. vor 15 Jahren zu hören bekam, dass es in 10 Jahren keinen Schnee mehr gäbe. Der Schnee weiß vermutlich von den Latif-Ankündigungen nichts und Frau Merkel blieb irrtümlicherweise auf dem Boden. Wenigstens eine, wenn auch anders.

Abb.2 zeigt die zu erwartende Schneefront an der Ostküste, Quelle: (http://www.dw.com/de/washington-zittert-vor-dem-gro%C3%9Fen-schnee/a-18999793). Dort tiefster Winter (kleine Abbildung) und bei uns schaut der Frühling durch die Fenster. Und das, obwohl Washington etwa auf der geographischen Höhe Roms und Deutschland somit deutlicher nördlicher liegt. Aber schon in der Grundschule lernt man, dies liege am Golfstrom. Aber soll der nicht auch abreißen? Was stimmt denn nun bei den Kollegen aus der Klimaerwärmungsfraktion? Fragen über Fragen, wo doch laut IPCC alles klar ist und die bösen Industriestaaten und ihre Bevölkerung an allem Unheil schuld sein sollen und bereits zig Milliarden an Vermögen für eine unsinnige Energiepolitik und sinnlosen Umweltgrenzwerten verpulvert wurden. Aber wie sang schon Konstantin Wecker „Irgendjemand ist immer der Böse im Land“.

Ein Blick auf unsere Heizung, gemeint ist nicht die Stuben-, sondern die Erdheizung, unser Zentralgestirn, die Sonne, zeigt, dass die Zeiten nicht auf Erwärmung, sondern auf Abkühlung stehen.

Abb.3, Quelle: (http://www.solarham.net/averages.htm) zeigt die aktuelle solare Aktivität und damit die Energieabgabe der Sonne im 24. solaren Zyklus. Nicht nur, dass dieser deutlich schwächer als sein(e) Vorgänger ausfiel, er ist derzeit fast auf seinem Minimum angekommen. Ist ähnlich wie bei der Zentralheizung: Steht diese auf klein, wird es im Zimmer auch nicht richtig warm. Und die Sonne ist die Erdheizung: 99,98% der Energie, die die Erde erhält, stammen von der Sonne. Der Rest von 0,02% kommt, nein, nicht vom CO2, sondern aus dem Erdinneren. Von CO2 kommt nichts an zusätzlicher Energie. Dies ist für ein passives „Element“, wie CO2, auch gar nicht möglich.

Eigentlich ziemlich einfache Fakten, denn die Physik ist überall gleich. Wie sagte doch jüngst der Hobby-Fernseh-Astronom Lesch, jeder dürfe seine eigene Meinung, aber nicht seine eigenen Fakten haben. Wie darf denn nun der Autor die oben genannten Fakten verstehen, dass aus der „Klimakönigin“ eine „Schneekönigin“ wurde (obwohl es doch keinen Schnee mehr geben dürfte) und die Journalisten wieder einmal als Bettvorleger gelandet sind? Oder exakter, gar nicht erst gestartet sind.

Aber Herr Lesch und seine Mitstreiter kennen sicherlich die folgende Lebensweisheit:

Theorie ist, wenn man alles weiß und nichts funktioniert.

Praxis ist, wenn man nicht weiß warum, aber es trotzdem funktioniert.

Bei Herrn Lesch uns seinen Mitstreitern haben sich offenbar Theorie und Praxis vereint:

Nichts funktioniert und keiner weiß warum!

Raimund Leistenschneider – EIKE




Ein neues Para­digma für die Klima­wissen­schaft – Ist CO2 un­schuldig?

Mit anderen Worten, es ist durchaus möglich, dass wir jetzt den wissenschaftlichen Nachweis in Händen halten, dass die Menschen nicht verantwortlich sind für den Klimawandel auf der Erde. Das Problem bleibt jedoch, dass sowohl Anhänger als auch Gegner des anthropogenen Klimawandels große Schwierigkeiten haben werden, die Entdeckung von Nikolov-Zeller zu akzeptieren, u.a. deswegen, weil der vorgestellte Mechanismus (gestützt von planetarischen Daten der NASA) nicht in den Universitäten gelehrt wurde. Außerdem enthält das von ihnen übernommene macro-level (top-down)-Verfahren nicht explizit Prozesse wie Strahlungswärme, welche von freien atmosphärischen Spurengasen zurück gehalten wird, wovon man a priori seit 190 Jahren ausgegangen ist. Der Nikolov-Zeller-Artikel verweist aber auf die Tatsache, dass es in der Wissenschaft immer noch zu fundamental falschem Vorstellungen kommt – trotz der spontanen Verfügbarkeit aller notwendigen Informationen der modernen Welt.

Anstatt sich über globale Temperaturtrends oder die Klimasensitivität der Erde gegenüber CO2 auszulassen, haben sich Nikolov und Zeller entschlossen, zu den Grundlagen zurückzukehren, wobei sie von Kopernikus inspiriert worden sind, der das revolutionäre heliozentrische Weltbild des Sonnensystems eingeführt hat, welches später von Johannes Kepler mathematisch bewiesen worden ist. Nikolov und Zeller stellten drei Fragen auf, die von den meisten Klimawissenschaftlern entweder nicht des Fragens oder auch nur des Nachdenkens darüber für würdig befunden worden waren:

1. Welche Temperaturen würden die Felsenplaneten Venus, Erde, Mars sowie die Monde Triton und Titan aufweisen, wenn sie keine Atmosphäre hätten?

2. Können es die gleichen physikalischen Gesetzmäßigkeiten sein, welche die globalen Temperaturen von Venus, Erde, Mars, Titan und Triton bestimmen? Mit anderen Worten, ist die Erde hinsichtlich des Klimas ein Sonderfall, oder sie ein Teil des kosmischen physikalischen Kontinuums?

3. Welches sind die grundlegenden bestimmenden Faktoren, hinsichtlich der mittleren globalen Gleichgewichts-Temperatur jedweden Planeten oder Mondes?

Mittels Analyse geprüfter NASA-Daten von verschiedenen Weltraum-Erkundungsmissionen während der letzten drei Jahrzehnte fanden Nikolov und Zeller heraus, dass die 30-jährige Gleichgewichts-Temperatur der Erde ziemlich stabil und vollständig erklärbar ist im Zusammenhang mit einem interplanetarischen physikalischen Kontinuum. So unglaublich wie das klingt, aber sie entdeckten, dass man einfach extraterrestrische Daten von der Venus, vom Mond, von Mars und Triton heranziehen kann, um die 30-jährige mittlere globale Temperatur der Erde zu bestimmen – mit einem Fehler von lediglich 1°C! Diese genaue Prognose erfolgt mit nur zwei bekannten Parametern der Erde: Dem Gesamt-Luftdruck und der Entfernung unseres Planeten von der Sonne. Wie sich als sehr verblüffend herausstellt, braucht ihr Modell (empirisch abgeleitet aus NASA-Daten) keinerlei Informationen über die Zusammensetzung der Atmosphäre, d. h. über den Anteil der enthaltenen Treibhausgase, um zuverlässig die mittlere globale Temperatur der Erdatmosphäre zu berechnen!. Die folgende Abbildung zeigt das neue Ergebnis (Modell) von Nikolov & Zeller (2017):

Abbildung: In dieser Graphik ist die gemessene globale Gleichgewichtstemperatur an der Oberfläche eines planetarischen Körpers dargestellt beim Fehlen einer Atmosphäre. Das auf der vertikalen Achse dargestellte Verhältnis repräsentiert den Atmosphärischen Thermischen Effekt (ATE) eines Planeten oder Mondes, auch bekannt unter dem Terminus Natürlicher Treibhauseffekt. Die Graphik impliziert, dass der thermale Hintergrund-Effekt (d. h. der ,Treibhauseffekt‘) einer planetaren Atmosphäre NUR eine Funktion des Gesamtluftdrucks ist und nicht von der Zusammensetzung der Atmosphäre abhängt. Mit anderen Worten, der Treibhauseffekt ist physikalisch eine „pressure-induced thermal enhancement „(PTE) [etwa: eine durch den Druck induzierte thermische Verstärkung] und NICHT ein Strahlungsphänomen, welches getrieben ist durch Infraot-Strahlung absorbierende Gase wie gegenwärtig angenommen. Folglich können Kohlenstoff-Emissionen das globale Klima nicht beeinflussen. Die Klimasensitivität der Erde (ECS) gegenüber CO2 ist nahezu Null!

Vor etwa 500 Jahren hat Kopernikus das komplizierte Modell vereinfacht, welches bis dahin planetarische Rückwärtsläufe beschreibt mittels konzeptioneller Beobachtung der Erde von außen. Die Studie von Nikolov und Zeller (2017) vereinfacht das Verständnis der Physik des Klimas, indem sie eine ähnliche grobe extraterrestrische Perspektive annehmen. Ihre Ergebnisse bieten auch neue Einsichten, warum die vom IPCC verwendeten Globalen Klimamodelle (GCMs) auf der Grundlage des Strahlungs-Treibhauseffektes nicht gemessene globale Temperaturtrends nachvollziehen können, weshalb sie nicht zur Grundlage für politische Entscheidungen gemacht werden sollten.

Referenzen:

Nikolov N, Zeller K (2017) New insights on the physical nature of the atmospheric greenhouse effect deduced from an empirical planetary temperature model. EPCC, 2:2, in press.

Volokin D, ReLlez L (2014) On the average temperature of airless spherical bodies and the magnitude of Earth’s atmospheric thermal effect. SpringerPlus 3:723, doi:10.1186/2193-1801-3-723.

NB: Volokin and ReLlez are pseudonyms for Nikolov and Zeller

Übersetzt von Chris Frey EIKE

EIKE Redaktion:

Sobald die Studie vorliegt werden wir sie veröffentlichen. Die Diskussion darüber dürfte spannend werden.

 NZ_Climate_Handout_for_Laymen-1