Nachgerechnet: Der „Beitrag“ von China und Indien zum Paris-Abkommen ist wertlos

Ein weiteres allgemeines Argument, welches in der Rede von Trump auf den Punkt gebracht, aber auch schon lange vorher geltend gemacht wurde lautet, dass selbst bei Erfüllung der Versprechungen der Deal nutzlos ist. Diesem Standpunkt zufolge tun China, Indien und Co. noch nicht einmal so, als ob sie der Scharade des Versuchs folgen, Emissionen zu reduzieren. Deren Emissionsziele entsprechen dem, was zu erwarten ist, falls deren Ökonomien und Energiesysteme so fortgeführt werden wie derzeit. Mit anderen Worten, ihr „Ziel“ ist äquivalent mit gar nichts tun. Was aber das Urkomischste überhaupt ist: das INDC* von Pakistan stellt einfach fest, dass die Emissionen des Landes irgendwann ihren Höhepunkt erreichen.

[*INDC = Intended Nationally Determined Contribution, also beabsichtigte nationale Beiträge zum Klimaschutz. Quelle]

(Befürworter des Abkommens begegnen diesem Argument normalerweise, indem sie sich die Ohren zuhalten und unablässig schreien „ICH HÖRE NICHTS!“)

In diesem Beitrag werfe ich einen raschen Blick auf historische Emissions- und Wirtschaftsdaten aus China und Indien. Wie in anderen Beiträgen stammen die Daten zu Emissionen aus BP Energy Review und die Daten zum BIP-Wachstum von der Weltbank. In diesem Dropbox folder finden sich sowohl die Daten als auch meine Berechnungen.

Die TL;DR-Version [?] lautet, dass beide Länder tatsächlich Versprechungen abgegeben haben, denen zufolge sie einfach weiter ihrer bisherigen ökonomischen und Energie-Trajektorie folgen. Es gibt keinerlei zusätzliche Dekarbonisierung ihrer Ökonomien im Vergleich zu dem, was sie bereits während der Jahre 1990, 1995 usw. getan haben. Im letzten Abschnitt befasse ich mich mit den Implikationen dieser Tatsache auf Klimaverhandlungen.

Indien versprach, die CO2-Intensität seines BIP um 1,6% bis 1,7% pro Jahr zu reduzieren – also um genau die Rate seit der ökonomischen Liberalisierung des Landes

Indiens unabhängigem und national bestimmtem Beitrag (INDC) zufolge „beabsichtigt das Land, die Emissions-Intensität seines BIP bis zum Jahr 2030 um 33% bis 35% zu reduzieren, verglichen mit dem Niveau im Jahre 2005“ (hier). Eine Reduktion um 33% innerhalb von 25 Jahren ist äquivalent zu einer Reduktion von 1,6% pro Jahr, bei 35% etwa 1,7% pro Jahr. Praktisch bedeutet das, dass falls das BIP konstant bleibt, die Emissionen eines jeden Jahres um 1,6% oder 1,7% unter denen des Vorjahres liegen. Oder anders gesagt, würde das BIP um 1,6% bis 1,7% pro Jahr wachsen, würden die Emissionen konstant bleiben. Alle Prozentzahlen in diesem Beitrag sind additiv und keine Mittelwerte.

Bis Anfang der neunziger Jahre war das Wirtschaftswachstum in Indien relativ schwach. Die vielleicht verblüffendste Tatsache ist, dass etwa ab dem Jahr 1993 nicht nur das wirtschaftliche Wachstum nach oben sprang, sondern auch die Zunahme der CO2-Emissionen konsistent hinter der Rate des BIP zurückblieb. Zuvor sind sie gleichlaufend gewachsen:

Indiens Dekarbonisierungsrate seit dem Jahr 2000 beträgt 1,65% pro Jahr, was in etwa die gleiche Rate ist wie während der Jahre 1993 oder 1994. Natürlich ist das indische BIP viel schneller gestiegen, so dass die Emissionen zugenommen haben.

China versprach, die CO2-Intensität seines BIP um 3,6% bis 4,1% pro Jahr zu kürzen – etwas langsamer als die historische Gangart.

Bis zum Jahr 2030 will China seine „CO2-Emissionen pro Einheit BIP um 60% bis 65% verglichen mit dem Niveau des Jahres 2005 reduzieren“ (hier). Diese Ziele sind jeweils äquivalent zu jährlichen Abnahmeraten zwischen 3,6% und 4,1%.

In China sind die Dinge etwas komplizierter. Während das BIP des Landes sehr stabil war, wiesen dessen Emissionen (und damit die Dekarbonisierungsrate) wilde Fluktuationen auf.

Während des gesamten Zeitraumes 1979 bis 2016 betrug die Dekarbonisierungsrate von China 4,2% pro Jahr. Allerdings war es wie in allen ehemals kommunistischen Ländern in den Anfangsjahren zu einer sehr schnellen Dekarbonisierung gekommen, was zurückzuführen ist auf den Ruin oder die Neuausrichtung Energie-intensiver Industrien (z. B. Stahl). Es könnte also unfair sein, des aktuelle Ziel mit der Dekarbonisierungsrate der achtziger Jahre zu vergleichen. In jedem Falle beträgt die Rate seit dem Jahr 1990 ebenfalls 4% pro Jahr – auf der hohen Seite des Paris-Zieles des Landes.

Was ist mit den anderen Zielen? Installation von so vielen Solarpaneelen und so weiter

Etwas über „Klima-Maßnahmen“ zu lesen bedeutet, dass man mit einer Flutwelle irrelevanter Nebensächlichkeiten überschwemmt wird:

Indien installierte 20 MW Solar

Oslo hat soeben Autos im Stadtzentrum verboten

Windenergie-Erzeugung in Deutschland betrug gestern um 3 Uhr früh bis zu 50% des Gesamtenergie-Outputs (was die Frage aufwirft, wie es im übrigen Jahr ist)

Usw.

Warum nenne ich all das nebensächlich? Weil die Auswirkungen davon bereits im Ziel der Emissions-Intensität enthalten sind, jedenfalls bis zu dem Ausmaß, mit dem Emissionen reduziert werden. Falls die Installation von Windturbinen tatsächlich die Emissionen pro Einheit des BIP verringert, wird dieser Effekt aus der Dekarbonisierungsrate des Landes hervorgehen. Es mag „offensichtlich“ daherkommen, dass Windturbinen Emissionen reduzieren, aber wenn man näher hinschaut, ist dies alles andere als offensichtlich. Monate oder Jahre lang mögen sie nicht am Netz sein; falls doch, können sie häufig ausfallen; sie benötigen Energie für die Herstellung, Errichtung und Wartung; sie können die thermische Erzeugung weniger effizient machen, weil Kraftwerke gebraucht werden, um deren Output rasch hoch und herunter zu regeln. Falls sie den Strom zu teuer erzeugen, werden sie wohl den Verbraucher dazu bringen, zu Diesel oder Gas zu wechseln [so das überhaupt gestattet ist, Anm. d. Übers.] Und natürlich dürften sie das wirtschaftliche Wachstum verlangsamen.

(Dies ist ein weiterer Grund, warum die Implementierung von fünfzig verschiedenen politischen Klima-Maßnahmen eine Dummheit ist: selbst falls diese Maßnahmen Auswirkungen zeitigen dergestalt, dass sie die Dekarbonisierungsrate zunehmen lassen – man weiß nicht, welche dieser Maßnahmen dazu geführt hat).

China hat versprochen, 800 bis 1000 GW erneuerbare Stromerzeugungs-Kapazität bis zum Jahr 2030 zu installieren. Eine hohe Zahl, aber sie ist äquivalent zu dem Versprechen, 100 Diät-Getränke bereit zu stellen, ohne zu versprechen, das man auch an Gewicht verliert.

Klimawissenschaftler müssen gründlicher mit Chinesen und Indern reden

Klima-Aktivisten und -Unterhändler, darunter viele Wissenschaftler, sind wahnhaft besessen von den USA und von den Republikanern im Besonderen.

Man versuche einmal, sich näher mit diesem Beispiel der Klima-Kommunikation zu befassen. Erstens ist es mathematisch absurd: Selbst wenn die ganze Welt bereits im Jahre 1979 mit einer schnelleren Dekarboniserungsrate aufgewartet hätte, würde der Unterschied zur heutigen Temperatur weniger als 0,1°C betragen. Falls wir exklusiv nur über die USA reden würden, würde dieser Temperaturunterschied gerade mal 0,01°C oder 0,02°C betragen. Ich bin mir nicht sicher, ob sich ein solcher Unterschied auf Waldbrände auswirkt.

Aber noch mehr auf den Punkt gebracht: es gibt keinerlei Beweis, dass es zwischen einer Regierung aus Demokraten oder einer solchen aus Republikanern irgendeinen Unterschied hinsichtlich CO2-Emissionen gibt! Dies ist so, egal ob man nun auf die USA als Ganzes unter verschiedenen Regierungen schaut, oder ob man verschiedene Staaten mit den USA vergleicht.

Kurz gesagt, es scheint, als hätten es die Klima-Unterhändler nicht vermocht, die Staatslenker von Indien und China von der Dringlichkeit der globalen Erwärmung zu überzeugen. Ich für meinen Teil bin der Ansicht, dass die größte Gefahr von Klimaverhandlungen die Kommunikation mit ahnungslosen Wissenschaftlern ist.

Link: https://wattsupwiththat.com/2017/12/19/do-the-math-the-contribution-of-china-and-india-to-the-paris-agreement-is-worthless/

Übersetzt von Chris Frey EIKE




Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

Anbei ein Beispiel; Alternativ: Welche Lösungen eine Partei mit ihrer Aussage gemeint haben könnte: [5] Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen.

Vortrag: Wie Fahrzeugbatterien die Automobilindustrie und Energiewirtschaft revolutionieren werden

Ein Institut veranstaltete einen Workshop. Bei diesem gab es auch einen Vortrag eines Start-up-Unternehmens. Da in diesem Vortrag auch wesentliche Aspekte des EEG, der Elektromobilität und des Speicherproblems angesprochen wurden, sei er anbei als Anschauungsmaterial empfohlen.

ifo Institut – Leibniz-Institut für Wirtschaftsforschung an der Universität München e.V.
6.07.2017: 8. Energiepolitischer Workshop „Elektromobilität – Mobilität der Zukunft?“

Eingebettetes Vortragsvideo der Firma The Mobility House. Link: YouTube

Nun ein Teil des Vortragsinhaltes mit (bewusst wenigen) Ergänzungen durch den Autor. Nicht wortgetreue Zitierungen sind nicht kursiv gesetzt. Kommentare / Ergänzungen durch den Autor sind immer ausgewiesen.
Beim Vortraginhalt und dessen Zitierungen ist zu beachten, dass im Vortrag nicht sauber zwischen der Speicherverwendung der Akkus im Auto und ausgebauter als Zweitverwendung trennt. Dies dürfte daran liegen, dass die aktuellen Projekte dieser Firma fast gänzlich auf der Verwendung ausgebauter Akkus basieren, während die im Vortrag gelisteten (Zukunfts-)Visionen vorwiegend auf der Schwarmverwendung der Akkus im Auto beruhen.
Auch wurden im Vortrag die Themen teils vermischt. Deshalb wird in dieser stichwortartigen Darstellung nicht immer chronologisch gelistet, sondern versucht, zusammenfassende Darstellungen zu geben. Bei Verständnisproblemen sollte immer der Originalton im Video gehört werden.
Die Begriffe Batterien und Akkus meinen immer das gleiche, physikalische Produkt eines nachladbaren Speichermediums.

Elektrikcars so cheap machen, dass nur noch die Reichen mit Benzin fahren

Die Firma THE MOBILITY HOUSE startete 2009 mit einer Vision, welche bei einer Fahrt mit einem Tesla Roadster entstand. Sie lautet: „ … Elektrikcars so cheap machen, dass nur noch die Reichen mit Benzin fahren …“.
Ein Geschäftsfeld und Ziel der Firma dabei ist, Batterien der Automobilindustrie in der Energiewirtschaft als Speichermedium zu vermarkten. Auf der Homepage der Firma steht dazu: … Gemeinsam teilen wir die Leidenschaft für Elektromobilität und die Vision, dass ein Schwarm von Elektroautos und stationären Speichern mit ihren Batterien zur Energiewende einen wichtigen und substanziellen Beitrag leisten wird.

Solar und Wind machen den Strom spottbillig, bis teils umsonst

Video: Der Trend geht zu immer mehr Renewables (neue Energien). „Wenn Sie heute ein neues Kraftwerk bauen, gibt es nichts Günstigeres wie onshore Wind oder Solar“. Beispiel: Solarpreis in einzelnen Projekten (Saudi-Arabien) unter 3 Cent / kWh. „Dafür produziert kein anderes Kraftwerk mehr … Der Trend zu Renewables ist nicht mehr aufzuhalten“.
Beispiel für den Preisverfall von Elektroenergie dank EEG-Strom: „Sie sehen das in Texas schon … Wenn Sie als Verbraucher nachts Energie verbrauchen … kostet sie nichts mehr – ist umsonst. Die haben so viel Wind in Texas …dass Sie nachts als Verbraucher … wenn sie Lasten in die Nacht schiften, nichts dafür zahlen … Energie wird zu einem ja wahrscheinlich irgendwann mal sehr, sehr, sehr günstigen Gut aus Renewables …

Anmerkung des Autors: Das weltgrößte Solarkraftwerk in Marokko in idealer Lage (zu einem erheblichen Teil von Deutschland mit finanziert) gibt den Strom für 12 Cent/kWh ab. Trotzdem muss der Strompreis vom Staat subventioniert werden: WIKIPEDIA: Quarzazate Laut FAZ erhalten die Betreiber pro kWh 0,12 €. Andere Quellen geben 0,189 USD pro kWh für 25 Jahre an. Laut VDI wird der Strompreis vom Staat subventioniert, da die Erzeugungskosten mit 0,12 € pro kWh höher sind als bei konventionellen Kraftwerken.
Auch den kostenlosen EEG-Strom gibt es bei uns doch zeitweise schon. Leider (wie es Frau C. Kemfert in jeder Talkshow wiederholt), kommt dieser (noch) nicht bei den Privatverbrauchern an, da konventioneller Kraftwerksstrom die Leitungen verstopft. Doch an der Lösung wird seitens unserer Politik mit Engagement gearbeitet und die bösen Blockierer – Kohle- und Kernkraftwerke – rigoros abgeschaltet. Nach Lösung dieser Leitungsblockaden werden wir den kostenlosen EEG-Strom mit Sicherheit auch aus unseren Steckdosen bekommenn. Vielleicht muss man dann noch den „Tritti(h)n „Eisbollen“ im Monat zuzahlen, aber das sollte es dann auch gewesen sein.
Video: (Kleines) Problem: „Was bedeutet das aber: Wir haben volatile Energie … da gibt es dann Dunkel- oder Kaltflauten und insbesondere gibt es Mittagsspitzen, es gibt Windspitzen. Es ist einfach volatile Energie zuhauf im Markt ….

Die Automobilindustrie wird elektrisch werden –und das Volatilproblem lösen

Video: „ … Auf der anderen Seite haben wir die Automobilindustrie. Und die Automobilindustrie … die wird elektrisch werden … nicht nur mit so kleinen Batterien wie wir sie jetzt noch kennen … das wird sich alle noch ändern über die Zeit … diese Batterien in den Fahrzeugen … oder Stationärbatterien … haben den großen, großen Vorteil, dass sie diese Volatilität abpuffern können … das Einzige was es braucht ist: Man muss es intelligent zusammenführen … „. Dazu muss man „raus aus dem System … „. An diesem Systemansatz: „ … raus aus dem System: Energie und Automobil zusammenbringen … “ arbeitet die Firma.

Funktion und Daten

Video: Die allermeisten Batterien werden aus Elektroautos in den Markt kommen. Der Anteil stationärer Batterien ist marginal.
Ein Beispiel für das Verhältnis: (Zukünftig) 40 Millionen Autos, im Durchschnitt mit 60 kWh Akku ausgerüstet, ergibt GigaWatt-Stunden an Kapazität im deutschen Markt zur Energiespeicherung. Ein Wahnsinn ist der Verlauf der Batteriepreise. Man findet immer wieder weitere Optimierungspotentiale. Die Batteriepreise verfallen.

Bild 1 Verlauf des Batteriepreises. Quelle: Screenshot aus dem Vortragsvideo

Bild 2 Verlauf der Anzahl E-Auto-Akkus / Batteriekapazität. Quelle: Screenshot aus dem Vortragsvideo (dort aus einer Studie vom Bundesverband erneuerbare Energien entnommen)

Erklärung Bild 2: Grüne Balken: Ausgebaute Batterien der Autos, welche extern zur Speicherung verwendet werden können.

Elektroautos sind bald „eda“, deshalb kostet ihre Verwendung als Speicher „nichts“

Video: Folgerung: Pumpspeicherkraftwerke sind viel zu teuer, weil die Energie aus Erneuerbaren zu günstig geworden ist.
Die zusätzliche Nutzung von Elektroauto-Fahrzeugbatterien als EEG-Zwischenspeicher kostet nichts, da diese „eda“ (also mit den sowieso kommenden und alle Krafstoff-Betriebenen ablösenden E-Autos bereits vorhanden) sind. Man kann diese E-Auto-Akkus zu 95 % als Speicher nutzen, da Autos nur zu 5 % gefahren werden.

Deshalb sind die EEG-Speicher der Zukunft diese E-Auto-Batterien, weil solche (bald) in Massen zur Verfügung stehen.

Wie kann man mit Elektroautos (oder deren Akkus) auch Geld verdienen

Projekt mit Fa. Daimler

Beispiel eines Projekte mit Daimler: Die Firma bekam von Daimler die Batterien von 1000 E-Smarts (da es eine Testflotte war, waren diese Akkus eigentlich brandneu).
Video: An diese 1000 Akkus wurde etwas Leistungselektronik davor geschraubt, die Akkus miteinander verbunden, an einen Inverter gehängt, weiter an einen Trafo gehängt und dann ein Gebäude darum gebaut. Hinweis: Die Akkus mussten zusätzlich wassergekühlt werden.
Das Projekt hat eine Leistung von 13 MW. „Ist jetzt schon mal eine ganze Menge“, Zitat: „Ich glaube, umgerechnet kann man damit ein kleines Dorf versorgen.

Was macht dieses Batterieprojekt? Es erbringt Netzstabilisierung. Bezahlung: pro MW 130.000 EUR pa. Zitat: „Damit können wir heute schon bezahlen und haben ein profitables Projekt.

Bild 3 Projektbild Daimler mit 1000 E-Smart-Akkus. Ansicht des fertigen Speicher-Gebäudes. Quelle: Screenshot aus dem Vortragsvideo

Abschätzung des Autors zum „Daimler“-Projekt, wenn es nicht für Regelleistung, sondern als Energiespeicher dienen würde:

Bild 4 Projektwerte „Daimler-Akkuprojekt“, wenn es als EEG-Backup dienen würde. Vom Autor orientierend zusammengestellt

Projekt Amsterdam-Arena

Auch beim Fußballspiel muss inzwischen darauf geachtet werden, dass das Flutlicht „nachhaltig“ leuchtet. Entsprechend wurde die Amsterdamer Arena nachgerüstet:
Projektbeschreibung aus anderer Quelle: [2]
Die Amsterdam ArenA erhält seine Notstromversorgung aus wiederaufbereiteten Batterien aus dem Nissan Leaf. Hierzu unterzeichneten der Automobilhersteller, das Energieunternehmen Eaton und The Mobility House einen 10-Jahres-Vertrag.
… 280 Batteriepakete kommen in der Amsterdam ArenA zum Einsatz und kommen gemeinsam auf eine Kapazität von 4 Megawatt …
(Zufügung des Autors: Daten aus dem Vortrag: 5 MW Peak, 1 Stunde Backup-Power)
„Das ist ein großer Fortschritt in Sachen Nachhaltigkeit“, ergänzt Henk Markerink, CEO der Amsterdam ArenA. „Bald werden in der Lage sein, Energie aus unseren Solarzellen und Windrädern zu speichern und immer dann einzusetzen, wenn wir sie brauchen. Eine großartige Innovation. Die Amsterdam ArenA wird in Zukunft das erste Stadion der Welt sein, das keine fossilen Brennstoffe mehr verbraucht.“

Bild 5 Projektbild „Amsterdam-Arena“. Quelle: Screenshot aus dem Vortragsvideo

40 Millionen Elektroautos benötigen eigentlich (fast) keinen zusätzlichen Strom

Video: Wenn 40 Millionen Elektroautos fahren, benötigen diese knapp 10 … 13 % mehr Strom, als wir heute produzieren. Wenn wir nichts mehr ins Ausland exportieren, nur noch 5 … 6 % mehr. Diese (zusätzliche) Produktion ist komplett vernachlässigbar.
Der EEG-Ausbau ist eine Herausforderung, aber die Menge an produzierter Energie ist relativ überschaubar.
Problem ist (nur) die Leistung. „ … Alle würden zur gleichen Zeit laden … dann würde sich der Leistungsbedarf verdoppeln, so ungefähr …

„ … Da gibts ne sehr schöne Möglichkeit, das zu vermeiden … (indem) dynamische Tarife eingeführt werden … Ich lade einfach dann, wenn ich die Energie nicht brauche …. das heißt, ich müsste schauen, dass ich es in die Abendstunden kriege, ich müsste schauen, dass sich es in irgendwelche Sturmböen von Ostseestürmen hinbekomme, ich muss schauen, dass ich es in irgendwelche Mittagsspitzen hinbekomme … wenn die Sonne scheint … „
Entscheidend: „ Die Autos müssen immer eingesteckt werden“. Die Herausforderung wird sein: „ … Jeden Platz, wo mein Auto dauerhaft steht, mit einer Steckdose auszurüsten – oder einer Ladeinfrastruktur – … die ein bisschen intelligent ist … dass das Fahrzeug dann geladen wird, wenn es möglichst billig ist ...“

Zum Stromverbrauch der Elektroautos hat der Autor nachgerechnet. An dieser Stelle hat der Vortragende recht, wenn man seine Daten (und Einschränkungen) als Basis nimmt.
Abschätzung: Für die zukünftigen, 40.000.000 Elektroautos wird von 50 km pro Tag Fahrleistung ausgegangen

Bild 6 Abschätzung des Energieverbrauchs der zukünftigen Elektroautos nach den Angaben im Vortrag durch den Autor

Anmerkung des Autors: 20 % vom Tagesbedarf erscheinen nicht (sehr) viel. Wird der Bedarf über die Zeit einer Tageshälfte geladen, sind es bereits 40 % vom Gesamtbedarf Deutschland, bei einem Drittel des Tages 60 %. Wollte man wie vorgeschlagen „während einer Sturmböe“ laden, wird es schnell gigantisch. Die im Vortrag so locker vorgeschlagenen Ladelösungen werden beim Nachrechen als absurd entlarvt, da das „gezielte“ Zeitverlagern bei der Unvorhersehbarkeit von Sonne und Wind in dieser Größenordnung nicht funktionieren kann.

Vehicle to Grid

Anmerkung: Darunter versteht man, dass das Elektroauto bidirektional mit dem Netz agiert.
Video: Beispiel: Stellen sie sich das BMW-Parkhaus vor mit mindestens 1000 Autos darin. „ … Stellen sie sich vor, die wären alle angesteckt Die könnten eine Beitrag zur Stabilisierung des Energienetzes, zur Glättung der Produktionsenergie vom BMW-Werk leisten, die könnten die Sonnenenergie einspeisen (und) abends mit nach Hause nehmen und für sich zu Hause verwenden. Das Entscheidende ist nur, dass die Autos eingesteckt sind.
Ich sag da immer: Das ist eigentlich gar nicht so problematisch, weil es erstens keine große Leistungsanforderung wie bei einer Schnellladestation an der Autobahn
(ist) …Sie brauchen nur ca. 70 cm (tief) zu graben. Ich schwöre Ihnen, Sie werden auf ein Stromkabel stoßen … Das heißt, die Infrastruktur ist schon da, sie muss nur intelligent gesteuert werden …

Wie diese Infrastruktur alleine als Ladesäule (derzeit) aussieht, zeigt das folgende Bild. Es zeigt symbolisch, wie das Elektroauto über die Ladesäule zurück den Strom für das Brauen des Kaffes im Büro der Firma liefert.

Bild 7 Im Hintergrund eine bidirektionale, Elektroauto-Ladestation. Quelle: Screenshot aus dem Vortragsvideo

Mit dem eigenen Elektroauto kann man Geld verdienen

Video: Bidirektionale E-Auto-Nutzung: … sie können ungefähr ca. 100 … 150 EUR verdienen, wenn sie zur richtigen Zeit laden. Zusätzlich durch netzdienliche Produkte ungefähr 200 EUR dazu. Dies wird in der Zukunft noch besser. Und durch Kappen von Netzspitzen 500 … 1500 EUR im Jahr zusätzlich (Anmerkung: Damit ist die Bereitstellung von Regelleistung gemeint).
Kalifornien ist dazu ein Vorzeigeland. Dort bekommt der E-Auto-Besitzer für gesteuertes Laden 300 Dollar (monatlich).

Elektroautos als EEG-Speicher

Video: Akkus von Elektroautos altern praktisch nicht, so lange sie um die 50 % geladen sind und darum ca. +-10 % variieren. Dieser Kapazitätsbereich kann somit „problemlos“ genutzt werden. Die Firma geht davon aus, dass bei dieser Betriebsart die Akku-Lebensdauer ca. 15 Jahre beträgt (Anmerkung: Erst in der anschließenden Diskussion wird dazu von einer Degration von 2 … 5 % pa berichtet).
Um die euphorischen Angaben des Vortragenden zu verifizieren „… wird das Volatilproblem lösen … “, hat der Autor überschlagen, wie viel Speichervolumen die zukünftigen, 40.000.000 Elektroautos in Deutschland bieten (werden).

Parameter: Um die Alterung zu minimieren, mit 20 % „Hubbereich“ berechnet. Die ermittelten 5,5 h verlangen damit 40 Mio. voll geladene Autos. Sind beim Bedarf nicht alle voll (ca. 50 %), wären es ca. 2,8 h „Bedarfsreserve“.

Bild 8 Orientierende Daten der Verwendung von 40 Mio. Elektroautos als EEG-Speicher

Man geht davon aus, dass in Deutschland 14 Tage Dunkelflaute direkt überbrückt werden muss, von saisonaler Langzeitspeicherung gar nicht zu reden. Welchen (verschwindend geringen) Anteil daran selbst 40 Mio. Elektroautos bieten, zeigt die Tabelle und bestätigt bereit früher zur Verwendung von Akkus als Langzeitspeicher gesagte:
[4] EIKE 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout

Warum verkauft sich das nicht von selbst?

Nach diesen Ausführungen wäre zu erwarten, dass EEG und dieses Geschäftsfeld ein Selbstläufer ist. Wer will nicht den (in Zukunft) kostenlosen EEG-Strom und sich selbst bezahlende Elektroautos. Noch scheint es aber nicht so zu sein. Doch dazu gibt es eine bewährte Lösungen:
Video: „… ich hoffe auf die Politik, dass die entsprechenden marktwirtschaftlichen Rahmenbedingungen geschaffen werden …
Anmerkung: Bei unserer Parteienlandschaft ist leider zu erwarten, dass dieser Wunsch noch Wirklichkeit wird.

Die Finanzierung des Start-up Unternehmens

Laut Vortrag sind neben Diversen auch ein alter BMW-Vorstand und Ex-Eon und RWE Vorstände unter den Finanzierern des Unternehmens.

Vorteile dieses Systems

Autor: Man erkennt, warum Autobauer solche visionären Gedanken und Geschäfte unterstützen: Sie entlasten sich darüber vom Problem der Akku-Entsorgung und verlagern es zu einem anderen Kundenkreis. Wobei dieses Geschäftsmodell nicht neu ist [3].

Diskussion

Im Vortragsvideo jst auch die anschließende Diskussion aufgezeichnet. Während dieser gab es keinerlei Einwände oder Anmerkungen zu den vorgetragenen Statements. Sicher wäre die Zeit dazu auch zu kurz gewesen und innerhalb einer Vortragsreihe kann man Grundsatzthemen auch nicht (aus)diskutieren.

Am Thema interessierte Leser*innen mögen sich trotzdem überlegen, was er/sie als Teilnehmer*in am Workshop gesagt hätten und eventuell im Blog hinterlegen.

Quellen

[1] 8. Energiepolitischer Workshop „Elektromobilität – Mobilität der Zukunft?“, 6.07.2017: Vortragsvideo Firma mobility house: Wie Fahrzeugbatterien die Automobilindustrie und Energiewirtschaft revolutionieren werden. YouTube

[2] SAVIN VOLT: Notstromversorgung der Amsterdam ArenA mit Leaf-Batterien

[3] EIKE 6.6.2015: 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout

[5] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[6] EIKE 03.08.2016: Vernichtendes Studienergebnis: Elektroautos sind als Regelenergie-Speicher zu teuer




Durchbruch in der Klima­forschung: So lässt die Sonne die Wolken tanzen

Dabei ist die Klärung der Sonne-Klima-Verbindung ein überaus wichtiges Thema, da paläoklimatologische Studien eine starke Synchronizität zwischen den beiden dokumentiert haben. Es fehlt nun allein der genaue Mechanismus, der es erlauben würde, den Zusammenhang in die theoretischen Modelle einzubauen. Kurz vor Weihnachten 2017 dann ein Paukenschlag. Henrik Svensmark und Kollegen erklärten, dass sie die Wolkenbildung durch die solar gesteuerte kosmische Strahlung nun sowohl experimentell als auch theoretisch nachvollziehen können. Hier die Pressemitteilung der Technischen Universität Dänemarks (DTU) in Kopenhagen:

Neue Studie: Zusammenhang zwischen explodierenden Sternen, Wolken und dem Erdklima

Neue Forschungsergebnisse von der DTU Space präsentieren ein besseres Verständnis, wie kosmische Strahlung die Wolkenbedeckung auf der Erde und damit das Klima beeinflussen kann.

Ein Team führender Wissenschaftler an der DTU hat ein fehlendes Glied gefunden zwischen explodierenden Sternen, Wolken und dem Erdklima. Die Ergebnisse wurden soeben im Journal Nature Communications veröffentlicht. Die Wissenschaftler nennen die neuen Entdeckungen einen „Durchbruch“ hinsichtlich des Verständnisses, wie kosmische Strahlen von Supernovae die Wolkenbedeckung der Erde und damit das Weltklima beeinflussen können. Die Studie wurde durchgeführt von Dr. Henrik Svensmark, Martin Bødker Enghoff, beide DTU Space, Prof. Dr. Nir Shaviv von der Hebrew University of Jerusalem sowie dem Studenten Jacob Svensmark, University of Copenhagen. Die Studie weist nach, auf welche Art und Weise atmosphärische Ionen, erzeugt von energiereicher kosmischer Strahlung, in die Erdatmosphäre eindringen. Sie bewirken eine Verstärkung der Bildung und des Wachstums von Wolken-Kondensationskernen – was für die Wolkenbildung in der Atmosphäre unabdingbar ist.

Dies verändert unser Verständnis, wie kosmische Strahlen das Erdklima beeinflussen. Bislang wurde angenommen, dass zusätzliche kleine Aerosole – die Vorläufer von Wolken-Kondensationskernen – dadurch auf eine Größe anwachsen, die für die Wolkenbildung relevant ist, war doch bisher unbekannt, wie dieser Vorgang abläuft. Die neuen Ergebnisse zeigen sowohl theoretisch als auch experimentell, wie Wechselwirkungen zwischen Ionen und Aerosolen das Wachstum der Kerne beschleunigen können, indem den kleinen Aerosolen Materie hinzugefügt wird und sie damit die zur Wolkenbildung erforderliche Größe erreichen. „Hiermit zeigt sich die physikalische Grundlage zu den umfangreichen empirischen Beweisen, welche belegen, dass die Sonnenaktivität eine Rolle bei den Variationen des Erdklimas spielt. Zum Beispiel passten sowohl die Mittelalterliche Warmzeit vor rund 1000 Jahren als auch die Kleine Eiszeit von etwa 1300 bis 1900 sehr gut zu Änderungen der Sonnenaktivität“, sagt Henrik Svensmark, der Leitautor dieser Studie.

Ein fundamental neues Verfahren

Der fundamentale neue Gedanke hinter der Studie ist, dass die Masse der Ionen einen Beitrag zum Wachstum von Aerosolen leistet. Zwar sind die Ionen nicht die am häufigsten auftretenden Bestandteile der Atmosphäre, doch kompensieren die elektromagnetischen Wechselwirkungen zwischen Ionen und Aerosolen deren seltenes Vorkommen und machen die Fusion von Ionen und Aerosolen sehr viel wahrscheinlicher. Selbst bei niedrigen Niveaus der Ionisierung zeigt die Studie, dass 5% der Wachstumsrate der Aerosole auf die Ionen zurückzuführen ist. „Endlich haben wir das letzte Puzzle-Steinchen gefunden, welches erklärt, wie Partikel aus dem Weltraum das Erdklima beeinflussen“, sagt Martin Bødker Enghoff. Im Falle einer nahe gelegenen Supernova kann der Effekt bis zu 50% der Wachstumsrate ausmachen, was Auswirkungen auf die Wolken und die Temperatur der Erde hat.

2 Jahre und 3100 Stunden des Austestens

Um diese Ergebnisse zu erhalten, wurde zunächst eine theoretische Beschreibung der Wechselwirkungen zwischen Ionen und Aerosolen formuliert, zusammen mit einem Term für die Wachstumsrate der Aerosole. Diese theoretischen Überlegungen wurden dann experimentell überprüft in einer großen Nebelkammer. Infolge der Beschränkung der experimentellen Möglichkeiten infolge der Wände der Kammer lag die zu messende Änderung der Wachstumsrate in der Größenordnung von 1 Prozent, was ein hohes Maß an Stabilität während der Experimente erfordert. Die Experimente wurden bis zu 100 mal wiederholt, um ein klares Signal zu erhalten relativ zu den unerwünschten Fluktuationen. Die Daten wurden gewonnen über einen Zeitraum von 2 Jahren bei insgesamt 3100 Stunden der Datensammlung. Die Ergebnisse der Experimente stimmen mit den theoretischen Vorhersagen überein. „Endlich haben wir das letzte Puzzle-Steinchen gefunden, welches erklärt, wie Partikel aus dem Weltraum das Erdklima beeinflussen“, sagt Martin Bødker Enghoff. „Jetzt verstehen wir, wie Änderungen der Sonnenaktivität oder die Aktivität von Supernovae das Klima beeinflussen“.

Die Hypothese kurz erklärt:

Kosmische Strahlen, also hoch energetische Partikel von explodierten Sternen, schlagen Elektronen aus den Luftmolekülen heraus. Dies erzeugt Ionen, das heißt, positive und negative Moleküle in der Atmosphäre.

Die Ionen helfen Aerosolen – also Clustern hauptsächlich aus Schwefelsäure und Wassermolekülen – sich zu bilden und stabil gegenüber Verdunstung zu werden. Diesen Prozess nennt man Nukleisierung. Die kleinen Aerosole müssen fast 1 Million mal an Masse zunehmen, um Auswirkungen auf die Wolken erlangen zu können.

Die zweite Rolle der Ionen besteht darin, dass sie das Wachstum der kleinen Aerosole beschleunigen bis hin zur Größe von Wolken-Kondensationskernen – worum sich dann kleine Wassertröpfchen bilden, aus denen die Wolken bestehen. Je mehr Ionen es gibt, desto mehr Aerosole werden zu Kondensationskernen. Es ist diese zweite Eigenschaft von Ionen, welche Bestandteil der neuen, in Nature Communications veröffentlichten Ergebnisse ist (hier).

Tiefe Wolken mit kleinen Wassertröpfchen kühlen die Erdoberfläche.

Variationen der magnetischen Sonnenaktivität verändern die auf die Erde treffende kosmische Strahlung.

Wenn die Sonne, magnetisch gesprochen, schwach aktiv ist, fallen mehr kosmische Strahlen auf die Erde, mehr Wolken bilden sich, und die Welt ist kühler. Ist die Sonne dagegen sehr aktiv, erreicht weniger kosmische Strahlung die Erde mit weniger Wolken, und die Erde erwärmt sich.

Hier wird in einem kurzen Film das Projekt vorgestellt.

Henrik Svensmark ist einer der Pioniere der modernen Klimawissenschaften. Er traute sich als einer der ersten, auch unbequeme wissenschaftliche Ergebnisse zu publizieren und zu vertreten. Das tat er nicht, weil er dafür Geld von starken Lobbygruppen bekommen hätte. Das Gegenteil ist der Fall, Svensmark wurde aufgrund seiner Mainstream-kritischen Gedanken systematisch von den öffentlichen Geldtöpfen abgeschnitten und von Aktivisten der harten Klimalinie gemobbt. Das einzige Motiv, das Svensmark treibt, ist das Streben nach wissenschaftlicher Wahrheit, eine altmodische Tugend, die immer seltener in den Instituten anzutreffen ist.

Das Wochenmagazin Die Zeit war lange von Klimaaktivisten durchsetzt. Bezeichnenderweise arbeitete man mit Journalisten zusammen, die parallel auch im Greenpeace-Magazin schrieben. Hat sich dies jetzt geändert? Die einzige Zeitung im deutschsprachigen Raum, welche die Kopenhagener Pressemitteilung aufgriff, war Die Zeit. Noch am selben Tag berichtete dort Jan Oliver Löfken in einem sehr lesenswerten Artikel:

Klimawandel: Ständig Regen? Schuld ist auch der Sternenstaub
Je mehr Partikel in der Atmosphäre, desto eher kondensiert Wasser: Wolken bilden sich. Nun zeigen Forscher: Auch kosmische Strahlung sorgt auf der Erde für Regentropfen.

Kosmische Strahlung aus hochenergetischen Protonen, Elektronen, Ionen und Gammastrahlung trifft permanent aus dem All auf die äußeren Schichten der Erdatmosphäre. Diese Teilchenschauer, teils verursacht von fernen Supernovae (siehe Infokasten), haben einen messbaren Effekt auf die Wolkenbildung und damit auf das Erdklima. Diesen Zusammenhang konnten nun dänische Wissenschaftler mit Simulationen und Experimenten in einer Wolkenkammer belegen.

Weiterlesen auf zeit.de

Co-Autor der Publikation ist der Jerusalemer Astrophysiker Nir Shaviv, der in seinem Blog die Ergebnisse des Papers zusammenfasst.

Endlich! Das fehlende Glied zwischen explodierenden Sternen, Wolken und Erdklima ist gefunden!

Unsere neuen Ergebnisse sind das letzte Steinchen in einem lange untersuchten Puzzle. Wir fanden endlich den tatsächlichen physikalischen Mechanismus, wie atmosphärische Ionisierung und die Bildung von Wolken-Kondensationskernen zusammen wirken. Folglich verstehen wir jetzt das vollständige physikalische Bild, mit welchem die Sonnenaktivität und unsere galaktische Umgebung (welche den Fluss kosmischer Strahlen und damit die Ionisierung der Atmosphäre steuern) das Klima hier auf der Erde beeinflussen, nämlich mittels Änderungen der Wolken-Charakteristika. Kurz gesagt, wenn kleine Aerosole zu Wolken-Kondensationskernen anwachsen, erfolgt dies bei höherer Hintergrund-Ionisierung deutlich schneller. Als Konsequenz haben sie eine größere Chance zu wachsen, ohne von größeren Aerosolen aufgenommen zu werden. Dieser Effekt wurde theoretisch berechnet und experimentell gemessen in einem extra ausgerichteten Experiment und durchgeführt am Danish Space Research Institute der Danish Technical University zusammen mit unseren Kollegen Martin Andreas Bødker Enghoff und Jacob Svensmark.

Weiterlesen bei ScienceBits

Siehe auch Beitrag der GWPF zur Veröffentlichung.

Link: http://www.kaltesonne.de/durchbruch-in-der-klimforschung-so-lasst-die-sonne-die-wolken-tanzen/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“. Übersetzung der englisch sprachigen Passagen von Chris Frey EIKE




Aussterben von Spezies und Abbruch des Golfstromes

Und wir nehmen uns die Behauptung vor, dass der vom Menschen verursachte Klimawandel einen starken Zufluss von Süßwasser aus den schmelzenden Gletschern in Grönland in Gang setzen wird. Dies soll zum Zusammenbruch der thermohalinen Zirkulation und/oder des Golfstromes im Nordatlantik führen. Das wiederum soll eine starke Abkühlung mit sich bringen ähnlich der wie vor 818 bis 8340 Jahren, als ein Eisdamm in Kanada brach und gewaltige Mengen Süßwasser in den Atlantik strömten.

Globale Erwärmung führt zu einem „großen Aussterben“

Unabhängig von den potentiellen finanziellen Kosten der globalen Erwärmung behaupten Einige, dass die moderate Erwärmung seit Mitte des 19. Jahrhunderts um 0,8°C immer mehr Spezies aussterben lässt. Anderen zufolge soll dies durch den Bevölkerungszuwachs verursacht werden. Tatsächlich hat sich National Geographic zu der Behauptung verstiegen, dass wir uns inmitten des „sechsten großen Aussterbe-Ereignisses der Erdgeschichte“ befinden. Nadia Drake proklamiert, dass die gegenwärtige Aussterberate 100 mal größer sein könnte als die normale Rate. Dies ist auch Gegenstand eines Buches mit dem Titel The Sixth Extinction von Elizabeth Kolbert. Falls das stimmen sollte, wären dies beachtliche Kosten entweder der globalen Erwärmung oder des Bevölkerungszuwachses.

Experten hinsichtlich der fünf derartigen Ereignisse in der Vergangenheit stehen nicht hinter diesem Gedanken. Der Paläontologe am Smithonian Doug Erwin, Experte hinsichtlich der Aussterbewelle im Perm, bei welcher durchaus etwa 90% aller damals lebenden Spezies ausgestorben sein können, sagt, dass all jene, die uns in einer ähnlichen Lage befindlich behaupten, einfach nicht wissen, was Massenaussterben eigentlich ist (hier). Erwin weist darauf hin, dass während der jüngeren menschlichen Historie zwischen 0 und 1% aller Spezies ausgestorben sind. Man beachte, was er The Atlantic in einem Interview gesagt hat:

Man kann also fragen „nun gut, wie viele geographisch weit verbreitete und reichlich vorhandene Meeres-Lebewesen [durably skeletonized marine taxa] sind bisher ausgestorben?“ Die Antwort lautet: „Die Zahl liegt nahe Null!“. Tatsächlich sind in den am besten überwachten Tierarten heutiger Tiere – Steinkorallen, Amphibien, Vögel und Säugetiere – irgendwo zwischen 0 und 1% aller Spezies ausgestorben. Zum Vergleich, das Massenaussterben zum Ende des Perm raffte über 90% aller Spezies auf der Erde dahin.

einer Spezies pro Jahr liegt. Das ist keine alarmierende Rate und sehr weit entfernt von einem „Massenaussterben“.

In der dänischen Presse habe ich darauf hingewiesen, dass wir schon lange mit viel zu hohen Zahlen bzgl. des Aussterbens von Spezies auf der Erde konfrontiert werden – dass wir etwa die Hälfte aller Spezies innerhalb einer Generation verlieren werden. Die richtigere Zahl liegt näher an 0,7% innerhalb von 50 Jahren. Dies führte zum Greenpeace-Chef von Dänemark Niels Bredsdorff, der darauf verwies, dass Greenpeace lange Zeit die Zahl 0,7% akzeptiert habe. – Lomborg, Bjørn. The Skeptical Environmentalist: Measuring the Real State of the World (p. 17).

Spezies sterben immer aus. Die meisten Spezies, die jemals auf der Erde gelebt haben, sind ausgestorben. Die mittlere Rate für Tiere und Pflanzen liegt etwa bei 1 pro Jahr (obwohl in einigen jüngeren wissenschaftlichen Studien von einer viel höheren mittleren Rate die Rede war, nämlich bis zu 6 pro Jahr). Die Aussterbe-Anzahl variierte mit der Zeit. Darunter waren 5 „Mega-Aussterbe“-Ereignisse seit der Bildung mehrzelliger Lebensformen vor etwa 550 Millionen Jahren. Während jedes einzelnen dieser Ereignisse scheint die Mehrheit der Spezies (nach geologischem Zeitmaßstab) innerhalb kurzer Zeit verschwunden zu sein. Zum stärksten derartigen Ereignis war es vor etwa 250 Millionen Jahren im Perm-Trias gekommen, als schätzungsweise 80% bis 90% aller damals lebenden Spezies ausstarben. – Botkin, Daniel B. 25 Myths That Are Destroying the Environment: What Many Environmentalists Believe and Why They Are Wrong (Kindle Locations 645-650).

Im IPCC-Bericht AR 5 (WG II) werden Lomborg und Botkin ein wenig verschwurbelt unterstützt. Auf Seite 43 der Technical Summary findet sich die folgende Graphik:

Abbildung 1: Raten der Änderungen der Verteilung verschiedener maritimer Lebensformen von 1900 bis 2000 (km pro Jahrzehnt). Positive Änderung bedeutet, dass sich diese Lebensformen ausgebreitet und allgemein in Richtung der Pole bewegt haben.


Während im AR 5 nicht von einem „großen Aussterben“ die Rede ist, wird aber doch von einem „großen“ Anteil sowohl von Festlands- als auch von Süßwasser-Spezies gesprochen, die vor der Gefahr stehen, infolge des Klimawandels auszusterben. Diese Prophezeiung basiert ausschließlich auf Modellrechnungen, und nichts dergleichen ist jemals beobachtet worden. Im AR 5 wird auch eingeräumt, dass nur sehr geringe Übereinstimmung besteht hinsichtlich des Anteils der gefährdeten Spezies (AR5 WGII, technical summary, Seite 67).

Das „große“ quaternäre Megafauna-Aussterben

Von Barnosky, 2008 gibt es eine Studie zum quaternären Megafauna-Aussterben (QME). Die Studie wird so eingeleitet:

Die jüngste Aussterbe-Episode, das Quaternäre Megafauna-Aussterben, raffte zwei Drittel aller Säugetierarten und die Hälfte aller Spezies mit einem Gewicht über 44 kg dahin, und zwar von vor 50.000 bis 3000 Jahren.

Nachdem er seine Stichprobe auf clevere Weise reduziert hatte, um zu der Angabe zwei Drittel zu kommen, proklamiert er:

Das „große“ QME-Ereignis soll also etwa 178 Spezies der weltgrößten Säugetiere dahingerafft haben, nämlich all jene mit einem Gewicht über 44 kg (in etwa die Größe von Schafen bis zu Elefanten). Mora 2011 zufolge gibt es heutzutage 1,2 Millionen katalogisierte Spezies, und die Gesamtzahl könnte 8,7 Millionen lebende Spezies umfassen. Während also das Aussterben von 178 Spezies vor ~50.000 Jahren infolge eines rapiden Klimawandels bedauernswert ist, weil die Geschöpfe so interessant waren, war es geologisch kein signifikantes Ereignis. Es ist nicht einmal ansatzweise vergleichbar mit den fünf großen Aussterbe-Ereignissen. Ein „großes Aussterben“ wird vom American Museum of Natural History als ein Ereignis definiert, bei dem über die Hälfte aller Spezies innerhalb kurzer Zeit ausstirbt. Auf der Website des Museums liest man dazu:

Vor rund 65 Millionen Jahren, … vielfach in früheren Felsformationen vorhandene Fossilien sind in späteren Formationen einfach nicht mehr da. Eine Vielzahl von Tieren und Pflanzen starb plötzlich aus, von kleinen Meeres-Lebewesen bis zu großen Dinosauriern.

Spezies sterben zu jeder Zeit aus. Wissenschaftler schätzen, dass 99,9% aller Spezies, Tiere und Pflanzen, die je gelebt haben, inzwischen ausgestorben sind. Daher wäre das Verschwinden von Dinosauriern wie T. Rex und Triceratops vor rund 65 Millionen Jahren kein Aufhebens wert – außer bzgl. der Tatsache, dass mit ihnen rund 50% aller damals lebenden Tiere und Pflanzen ausgestorben sind. Wissenschaftler sprechen hierbei von einem Massen-Aussterben.

Also ist das quaternäre Megafauna-Aussterben um etwa drei Größenordnungen zu klein, um als „Großes Aussterben“ bezeichnet werden zu können, wie es Barnosky getan hat.

Daniel Botkin, siehe oben). Offensichtlich ist das Aussterben der Säbelzahntiger, von Riesenwölfen [dire wolves], Mammuts und anderer Megafauna in der geologischen Historie kein außerordentliches Ereignis. Aber diese Tiere sind ihrer Größe wegen faszinierend, und wir messen ihnen viel mehr Gewicht zu als einer ausgestorbenen Kröte oder einem Insekt. Dies ist jedoch eine Werte-Beurteilung und kein geologisches Ereignis.

Barnosky verweist darauf, dass Menschen zur großen Gattung der Säugetiere gehören, doch haben sie trotzdem überlebt und sind gediehen. Sie behaupten außerdem, dass die Zunahme der menschlichen Biomasse weitgehend den Verlust großer Mengen nichtmenschlicher Biomasse bis vor 12.000 Jahren ausgleicht. Dann kam es zum Zusammenbruch von Megafauna-Biomasse, sind doch viele Megafauna-Spezies ausgestorben. Das klingt mir sehr nach „survivor guilt”. Vor 12.000 Jahren begann in etwa die menschliche Zivilisation. In China wurde bereits Reis kultiviert, in der Levante (heute das Gebiet der Staaten Israel und Syrien) gab es Ackerbau. Der Bau der großen Steinmonumente bei Gobekli Tepe in der heutigen Türkei begann ebenfalls um diese Zeit. Die Menschen begannen sesshaft zu werden und Landwirtschaft zu betreiben. Die Menschen haben sich ziemlich gut an die Bedingungen während des Younger Dryas und danach angepasst, was anderen Megafauna-Spezies nicht gelungen ist.

Vor 12.000 Jahren stand das Ende des Younger Dryas kurz bevor. Dies war eine 1000 Jahre lange Rückkehr zu Eiszeit-Bedingungen nach einer kurzem Warmphase von vor 15.200 bis 13.000 Jahren. Diese Zeiträume sind in Abbildung 2 dargestellt. Die Graphik zeigt den Temperaturverlauf, wie er sich aus dem Grönland-Eisbohrkern GISP2 ergab, untersucht von Alley 2004.

Abbildung 2: Daten aus Alley 2004

Zumindest in Grönland, aber vermutlich auch auf der ganzen Nordhemisphäre war es vor 12.000 Jahren sehr kalt. Eine Detailliertere zeitliche Aufschlüsselung gibt es hier. Abbildung 3 zeigt eine globale Rekonstruktion, hauptsächlich aufgrund maritimer Temperatur-Proxys, welche ziemlich genau das Gleiche zeigen, obwohl diese Reihe nur bis vor 12.000 Jahren zurück reicht:

Nachdem es vor 12.000 Jahren sehr kalt gewesen war, kam es danach zu einer rapiden weltweiten Erwärmung, besonders auf der Nordhemisphäre. Dies setzte viele Spezies unter Stress, zweifellos sind einige Spezies auch ausgestorben. Aber die Spezies, von denen wir besonders Notiz nehmen, sind die größeren Tiere. Einigen Schätzungen zufolge ist die Temperatur auf der Nordhemisphäre um 5°C bis 10°C innerhalb weniger Jahrzehnte gestiegen (Severinghaus et al., 1998). Diese extrem rasche Erwärmung dürfte auch auf viele andere Spezies Auswirkungen gehabt haben. Heutzutage gibt es einige Leute, die sich bzgl. eines Temperaturanstiegs um 0,8°C innerhalb von 137 Jahren Sorgen machen – aber man stelle sich eine Erwärmung von 5°C seit 1990 vor! Genau das hat auf der Erde am Ende des Youger Dryas stattgefunden.

Vor 12.000 Jahren hatte sich die Menschheit bereits in Afrika, Eurasien und den beiden Amerikas ausgebreitet. Der Aufstieg der Zivilisation und die Entwicklung neuer Jagdverfahren (Pfeil und Bogen, Speere und Speerwerfer – alles bereits vor mehr als 30.000 Jahren erfunden), machte die Jäger des Jungpaläolithikum sehr gefürchtet. Wir wissen, dass die Menschen zu jener Zeit auf die Jagd nach Megafauna-Spezies gegangen waren, und auch in Gegenden präsent waren, in denen die Megafauna ausstarb. In Australien verschwand die Megafauna innerhalb nur weniger tausend Jahre nach der Besiedelung des Kontinents durch Menschen und während einer Zeit mit stabilem Klima. Aber anderswo, wie in Eurasien, kam es zu Aussterbe-Ereignissen während Zeiten einer dramatischen Klimaänderung. Wahrscheinlich spielten sowohl die Jagd der Menschen jener Zeit als auch Klimawandel zusammen eine Rolle beim Aussterben der Megafauna. Eine Zusammenfassung der geologischen Beweise für beide Theorien gibt es aus dem Jahr 2014 hier sowie bei Barnosky 2008. Außerdem scheint klar zu sein, dass von der heute noch existierenden Megafauna vor 12.000 Jahren der Mensch am ehesten in der Lage war, sich an eine sich ändernde Welt anzupassen. Bis zu einem erheblichen Ausmaß haben die Menschen ihre Mit-Konkurrenten einfach überflügelt – Evolution im Vormarsch.

Barnosky erwähnt, dass heute einige Megafauna-Spezies heute vor dem Aussterben stehen. Viele dieser Spezies haben nur in Afrika überlebt. Das ist keine Überraschung. Afrika liegt beiderseits des Äquators und ist weniger verwundbar durch starken Klimawandel. Wegen ihrer Größe benötigt die Megafauna große Landgebiete, um in der Wildnis zu überleben. Sie werden in Nationalparks, auf privaten Ländereien und in Zoos geschützt. Aber mit dem Aufblühen der Menschheit ist der Mensch mehr am Erhalt dieser Spezies interessiert, und deren Aussterben ist unwahrscheinlich. Die Menschen des Jungpaläolithikums waren lediglich daran interessiert zu überleben. Die heutigen Menschen leben im Überfluss und sicher, und sie wenden Energie und andere Ressourcen auf, um das Überleben von Megafauna sicherzustellen – und nicht, um diese zu bedrohen.

Barnosky spekuliert, dass unser gegenwärtig hohes Niveau von „Biomasse“ großer Tiere nur durch fossile Treibstoffe erhalten werden kann und von der menschlichen „Biomasse“ dominiert wird. Das ist eine seltsame Art der Beschreibung des Tatbestandes, aber es könnte stimmen. Seine nächste Prophezeiung lautet, dass ein weiterer großer „Biomasse-Zusammenbruch“ unmittelbar bevorsteht, weil uns die fossilen Treibstoffe ausgehen. Dies jedoch ist unwahrscheinlich, weil seine Prophezeiung einer Versorgung mit Öl und Gas für nur noch 83 Jahre viel zu pessimistisch ist. In der Studie wird festgestellt, dass wir noch Ölvorräte für 50 Jahre und Gasvorräte für 200 Jahre haben. Ich habe die Gasversorgung in Ölversorgung umgerechnet mittels der USGS conversion von 6 MCF* Erdgas in 1 Barrel Öl-Äquivalent.

[*MCF = Mille (thousand) Cubic Feet. Früheres britisches Hohlmaß. Anm. d. Übers.]

Tabelle 1 (Quelle) zeigt eine wesentlich realistischere Schätzung bekannter Ressourcen von Kohlenwasserstoffen, die technisch förderbar sind. Sie ist sehr konservativ und enthält nicht alle bekannten Kohlenwasserstoffe. Alle in Tabelle 1 gelisteten Kohlenwasserstoffe können ökonomisch erzeugt werden zu Preisen, wie sie während der letzten 20 Jahre üblich waren. Es scheint, dass Barnosky nur „nachgewiesene“ oder „mögliche“ konventionelle Öl- und Gas-Lagerstätten gezählt hat. Die meisten der heute bekannten Öl- und Gasreserven werden jedoch als „unkonventionell“ klassifiziert (darunter Schiefer-Öl und Ölsande). Während die Produktion von unkonventionellem Öl und Gas teurer ist als die konventionelle Produktion, ist auch diese immer noch um eine Größenordnung billiger als die Erzeugung mittels Solar und Wind. . Kernkraft ist sogar noch billiger als Kohle und Erdgas, siehe hier. Unter dem Strich: Die verfügbare Energieversorgung ist nicht das Problem.

Tabelle 1. Quelle

Zwar spielte der Mensch im Paläolithikum (von vor etwa 40.000 bis 10.000 Jahren) eine gewisse Rolle beim quaternären Megafauna-Aussterben, doch war das eine sehr viel andere Menschheit als wir heute. Sie waren damals auf der Jagd für ihren Lebensunterhalt in einer sehr schwierigen Zeit. Dies führte zu physiologischen Änderungen, mussten sie sich doch an ein sehr kaltes Klima anpassen. Während dieser Periode konnten sie kaum Erfahrungen im Ackerbau sammeln, und wenn doch, dann nur in sehr primitiver Weise. Wenn die Nahrung vorbei spazierte, töteten und aßen sie das Wild. Wir haben schon früher gesehen, dass man sich nur dann um die Umwelt kümmern kann, wenn unser Einkommen stimmt und unseren Bedürfnissen Rechnung getragen wird (siehe den 1. Beitrag hier, auf Deutsch beim EIKE hier, Abbildung 2). Heute, wo das BIP in PPP$ über 2000 PPP$ pro Person hinausgeht, verbessert sich die Umwelt in jenem Land rapide.

Barnosky zufolge soll der Aufstieg des Menschen und weitere Aussterbe-Ereignisse von Megafauna einfach ein Ausgleich der Biomasse darstellen mit der Folge, dass mit dem Wachstum der Bevölkerung mehr bestehende Megafauna-Spezies aussterben. Ich finde diesen Ansatz hoch spekulativ, wenn ich an unseren Wohlstand denke und an unser Interesse, gefährdete Arten zu schützen. Es gibt einen Ausgleich der verfügbaren Landflächen, aber Biomasse? Mit moderner Landwirtschaft können wir viel mehr Menschen ernähren als früher. Außerdem können wir nahezu unbegrenzt Frischwasser verbrauchen. Und der Mensch hat ein offensichtliches Interesse, bestehende Megafauna-Spezies aus ästhetischen und humanitären Gründen zu erhalten und zu schützen. Sie laufen wohl nicht mehr in freier Wildbahn frei herum, aber ich bezweifle, dass wir es zulassen, dass große Tierarten aussterben. Das beste Mittel zum Erhalt von Megafauna ist eine wohlhabende und sichere menschliche Population.

[Jetzt folgt ein längerer Abschnitt zur Problematik der Eisbären. Hierzu sind jedoch auf der EIKE-Website jüngst ausführliche Beiträge veröffentlicht worden (am ausführlichsten hier), so dass dieser Abschnitt bei der Übersetzung übersprungen wird. Anm. d. Übers.]

Globale Erwärmung wird den Golfstrom zum Erliegen bringen und eine Mini-Eiszeit verursachen

Diesem hypothetischen Szenario zufolge soll schmelzendes Grönland-Eis den Salzgehalt im Atlantik zwischen Grönland und Norwegen verringern, was die Nordatlantische Thermohaline Zirkulation zum Erliegen bringt mit der Folge einer Kleinen Eiszeit wie vor 8200 Jahren. Aber dass es so kommt, ist sehr unwahrscheinlich. Vor 8200 Jahren ist ein gewaltiger Süßwassersee (Lake Agassiz) im Grenzgebiet zwischen den USA und Kanada, welcher ein Überbleibsel der letzten großen Vereisung war, nach dem Bruch eines Eisdammes in den Atlantik ausgelaufen. Dieses Ereignis verringerte den Salzgehalt des Oberflächenwassers und brachte die thermohaline Zirkulation zum Stillstand, was den Planeten über hunderte von Jahren abkühlte (siehe hier von Michael Michalek). Wir verweisen oft der Einfachheit halber auf eine Abkühlungsperiode vor 8200 Jahren, aber in Wirklichkeit gab es deren zwei, nämlich vor 8490 Jahren und dann wieder von vor 8340 bis 8180 Jahren. Lomborg schreibt dazu in Cool It:

Der Golfstrom ist vor 8200 Jahren zum letzten Mal zum Erliegen gekommen, als die letzten glazialen Eisschilde in Nordamerika schmolzen und einen gigantischen Süßwassersee um das Gebiet der heutigen Großen Seen entstanden ist. Eines Tages brach der Eisdamm, und eine beispiellose Masse Frischwasser ergoss sich in den Nordatlantik. Dadurch wurde das Absinken salzhaltigen Wassers aus dem atlantischen Strömungssystem unterbunden. Dies führte in Europa zu einer kleinen, fast 1000 Jahre langen Eiszeit …

Aus diesem Grunde auch äußert sich das IPCC in seinem Bericht aus dem Jahr 2007 sehr eindeutig zum Golfstrom: „Keines der gegenwärtigen Modelle simuliert eine abrupte Reduktion oder gar einen Stillstand des Golfstromes“. Den IPCC-Modellen zufolge reicht die Bandbreite von überhaupt keiner Änderung bis zu einer Reduktion um 50%, aber kein einziges Modell zeigt einen vollständigen Zusammenbruch. – Lomborg, Bjorn. Cool It (Kindle Locations 1334-1394).

Schlussfolgerungen

Unter dem Strich gibt es keinen erkennbaren Trend hinsichtlich aussterben. Aber wir befinden uns mit Sicherheit nicht in einem „großen Aussterbe-Ereignis“. Der Golfstrom und das thermohaline Zirkulationssystem sind unverändert, und es gibt keinen „Lake Agassiz“, der darauf wartet, in den Atlantik auszulaufen. Das Eis in Grönland kann nicht schnell genug schmelzen, um den Salzgehalt bis zu einem Grad zu verdünnen, dass sich die Kaltphase von vor 8200 Jahren wiederholen kann.

Das Aussterben der quaternären Megafauna war sicher ein sehr trauriges Ereignis. Sowohl die Menschen der damaligen Zeit als auch radikale natürliche Klimaänderung spielten dabei eine Rolle, wie eindeutig aus den uns zur Verfügung stehenden Daten hervorgeht. Wenn man allerdings dieses sehr geringe Aussterbe-Ereignis mit den fünf großen Aussterbe-Ereignissen vergleicht, wie es Barnosky tut, legt man ein vollständiges Fehlen jeglicher Kenntnis der Verhältnismäßigkeit an den Tag sowie eine Ignoranz der geologischen Vergangenheit. Die wahren großen Aussterbe-Ereignisse waren entsetzliche Ereignisse, und der Verlust von 178 Spezies großer Tiere ist viele Größenordnungen zu klein, um dabei mithalten zu können. Um zu einer solchen Klassifizierung heutzutage zu kommen, müssten über eine halbe Million Spezies aussterben, und nichts dergleichen ist derzeit im Gange oder in absehbarer Zukunft zu erwarten.

Dr. Susan Crockford hat die Saga der Eisbären gut dokumentiert, welche fälschlich als „verwundbar“ bezeichnet werden, und man kann Einiges aus diesen Fiasko lernen. Man kann grundlegende politische Maßnahmen nicht auf die Grundlage nicht validierter Modelle und Prophezeiungen stellen. Der jüngste Trend, den Modellergebnissen ohne jedes Nachfragen zu glauben – oder noch schlimmer, die Modellergebnisse als reale Daten zu behandeln, muss aufhören. Sonst wird uns dieser Glaube an einem bestimmten Punkt über die Klippe springen lassen.

Link: https://wattsupwiththat.com/2017/12/16/extinctions-and-shutting-down-the-gulf-stream/
Übersetzt von Chris Frey EIKE




Ohne den Klima­wandel hätte das gleiche Wetter nicht so schlimme Folgen…

24.12.2017 Philippinen: Taifun fordert 200 Tote … Eines der größten Probleme ist der Anstieg des Meeresspiegels

Während die sonstigen Medien in ihren Meldungen über den Taifun bei den Philippinen auf einen Hinweis zum Klimawandel „verzichteten“, konnte es eine Homepage nicht lassen, eine Verbindung dazu „herzustellen“.
Nicht direkt, sondern nur so, dass jeder einfach daran denken muss. Schließlich „weiß“ man, dass ein „Anstieg des Meerespegels“ die unausweichliche Folge des vom bösen Westen verursachten, anthropogenen Klimawandels ist:
KLIMARETTER.INFO einer Studie der Asiatischen Entwicklungsbank von 2012 zu den fünf am meisten vom Klimawandel bedrohten Ländern. Eines der größten Probleme ist der Anstieg des Meeresspiegels. Für den Inselstaat Philippinen bedeutet ein höherer Wasserspiegel in den Buchten, dass Taifune noch mehr Schaden anrichten können.
Im Artikel wird dazu als „Beleg“ auf eine Studie der Asiatischen Weltbank verlinkt. In dieser ist allerdings nichts weiter zu lesen, als dass steigende Pegel für niedrig liegende Küstenstädte ein Problem werden (können), als zusätzliche Information jedoch, dass dort Küsten öfters sinken, und dies – nicht steigende Pegel – das Problem sind [6].
Zudem erzeugen schwere Taifune Wellenhöhen von 10 … 20 m [8] [9]. Vollkommen unverständlich bleibt, warum einige Zentimeter Pegelerhöhungen über Jahrzehnte, dann „eines der größten Probleme“ darstellen soll.
Es ist nicht der erste Artikel von KLIMARETTER zu den Philippinen. Denn die Philippinen scheinen ein „Vorzeigebeispiel“ des schlimmen Klimawandels zu sein:
KLIMARETTER.INFO 07. August 2017: [4] mit einer Autorin des IPCC Meereskapitels zum IPCC Sachstandsbericht, welche damals zu den Pegeländerungen nichts weiter sagen konnte (eher: wollte), als dass alle Aussagen unsicher sind und zudem auf Simulationen beruhen:
[2]
… Drittens: Durch die Erwärmung des Ozeans und durch das Schmelzen der Gletscher und der Eisschilde erhöht sich der Meeresspiegel. Diese Erhöhung erfolgt doppelt so schnell wie noch vor ein paar Jahrzehnten. Aber hier müssen wir vorsichtig sein, dass wir nicht in Alarmismus verfallen, weil man mit den kurzfristigen Trends immer aufpassen muss.
Von 1870 bis heute hat sich der
Meeresspiegel um 19 Zentimeter erhöht. Wenn wir jetzt in die Projektionen gehen und fragen, wie stark der Meeresspiegel bis 2100 steigen wird, hängt das natürlich davon ab, wie viel an Treibhausgasen emittiert wird. Das Szenario RCP 2.6 mit einer starken Abschwächung des CO2-Ausstoßes geht von 26 bis 55 Zentimetern aus, das Szenario RCP 8.5 mit einem stark steigenden CO2-Ausstoß von 52 bis 98 Zentimetern.
Können Sie sich darauf festlegen, wie wahrscheinlich welche Prognose ist?
Nein, wir sind ja keine politischen Entscheidungsträger …

Auch auf den Philippinen gibt es Aktivist*innen, welche alarmistische „Studien“ platzieren

Wohl ein Gipfel an (Des-)Information zum Meerespegel um die Philippinen war eine pünktlich vor dem letzten Klimagipfel erschienene „Studie“ von Correctiv.org, an welcher KLIMARETTER wohl unterstützend beteiligt war: [2] „das Rechercheportal Correctiv, das bei seinem Meeresspiegel-Projekt mit klimaretter.info kooperierte“.
Der Autor berichtete darüber:
EIKE 13.08.2017:[7] Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
Darin hat der Autor detailliert und mit vielen Belegen gezeigt, dass die Darstellungen in dieser Studie zum Pegelanstieg bei den Philippinen falsch sind und die Recherche von Correktiv mit der alarmistischen Aussage zum Pegelanstieg bei Manila auf bewusstem Weglassen von Fakten beruht. Schlimmer noch, dass Correctiv dazu zwei Versionen – eine mit richtiger Darstellung (Manila versinkt, nicht der Meerespegel steigt) – und eine mit den klimaalarmistisch abgeleiteten Aussagen – veröffentlicht hat.
EIKE: Correctiv.org hat von der Journalistin, Frau Manabat, zeitgleich zwei Artikel über Manila veröffentlicht.
Den auf klimaretter erschienen Artikel:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [6]
in dem der Klimawandel als Ursache des Pegelanstiegs „angeklagt“ wird.
Und den Zweiten, in dem die Landsenkung von Manila beschrieben wird:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [7]
Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen
Im ersten, – dem auf Klimaretter veröffentlichten Artikel [x] [x] – ist kein Hinweis zur Landabsenkung enthalten. Zwar kommt in der Überschrift das Wort „ … relativ zur Küste …“ vor. Dahinter wird ein Laie aber wohl kaum vermuten, dass genau dieses Wort den gesamten Artikel negiert. Der Link zur Weltbankstudie (siehe dazu [x]) ist ebenfalls so „getextet“, dass wohl niemand darauf kommen würde, dass gerade in dieser Studie eine Information zur Landabsenkung hinterlegt ist
Im Artikel hatte der Autor auch den wahrscheinlichen Pegelverlauf bei Manila „rekonstruiert“ (Bild 1).

Bild 1 Rekonstruktion des Pegelverlaufs Manila durch den Autor im Artikel [7]: Pegelverläufe Manila (blau), Cebu (rot), San Jose (grün). Pegel an den Startzeitpunkten auf den Pegel Manila normiert. Grafik vom Autor erstellt. Datenquelle: PSML Viewer

Nun wurde der „Anstieg“ des Meerespegels bei den Philippinen offiziell richtiggestellt

Inzwischen hat auch die NOAA das Problem ihrer Tiden-Pegeldarstellung zu Manila erkannt und eine Ergänzung hinterlegt.
Dazu muss man wissen, dass die NOAA-Tidenpegel immer ohne isostatische Korrekturen, also als reine Messwerte angegeben sind. Manila versinkt durch seine Bevölkerungszunahme und die damit einhergehende, exzessive Wasserentnahme buchstäblich im schlammigen Untergrund.
Das stellen die Messwerte richtig dar und als Pegelverlauf ergibt sich das folgende Bild (2). Nur ist in diesem nicht erkennbar, dass seit 1970 nicht der Meerespegel anstieg, sondern Manila so extrem in seinen Untergrund versunken ist.

Bild 2 Pegeldarstellung Manila auf der NOAA Homepage mit erklärendem Text (Reiter: Mean Sea Level Trend)


Mit dieser Darstellung „belegen“ „Klimawissenschaftler*innen“ regelmäßig die schlimmen Auswirkungen des Klimawandel-bedingten Pegelanstiegs gerade in dieser schon von Taifunen regelmäßig schlimm bis extrem heimgesuchten Zone.
Bei der NOAA hat man dieses Problem der vielen Fehlinterpretationen wohl erkannt, und nun hinter dem Reiter „Interannual Variation“ ein weiteres Pegelbild hinterlegt. Und das sieht wie folgt aus (Bild 3):

Bild 3 Zusätzliche Pegeldarstellung Manila auf der NOAA Homepage mit erklärendem Text (Reiter: Interannual Variation)


Warum der Pegel im Jahr 2000 aufhört, erschließt sich nicht. Aber man kann ihn mit dem einer daneben liegenden Messstation weiterführen und kommt dann zum Bild 4.

Bild 4 Pegeldarstellung Manila der NOAA vom Autor mit dem Pegelverlauf SAN JOSE bis zum Jahr 2016 ergänzt.


Und damit ist endlich auch offiziell durch die NOAA bestätigt, dass der Meeres-Pegel bei den Philippinen seit dem Jahr 1900 nicht zugenommen hat.
Der Autor jedenfalls ist stolz, dass die NOAA zum gleichen Ergebnis kommt, wie er mit seiner (der Studie des „Rechercheportals“ Correctiv.org widersprechenden) Pegelanalyse (Bild 1 [7]).

Taifune

Bleiben noch die Taifune als Bedrohung. Diese ist reell und in schlimmem Ausmaß vorhanden. Daran ist aber ebenfalls nicht ein (angeblicher) anthropogener Klimawandel der zusätzliche Treiber:
kaltesonne:
Wer hätte das gedacht: Studien können keine Zunahme der tropischen Wirbelstürme im Indischen und Pazifischen Ozean feststellen (3.12.2013)
Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität (18.11.2013)
und auch für die deutsche Nordseeküste, wie es gerade aktuell betätigt wurde:
kaltesonne, 27. Dezember 2017: Bundesamt für Seeschifffahrt und Hydrographie: Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren
Dass jeder ausgegebene Cent zur CO2-Vermeidung als Lösung der dortigen „Klimawandel-bedingten“ Probleme sinnlos zum Fenster herausgeworfen ist, hat sogar die Münchner Rückversicherung einst bestätigt:
Münchner Rückversicherung, Pressemitteilung 11. November 2013: Überschwemmungen und Taifune sind in Ostasien die größten Wetterrisiken
… Peter Höppe, Leiter der Georisiko-Forschung von Munich Re: „Es gibt eigentlich keine Region in Ostasien, die vor Überschwemmungen gefeit ist.
Gründe für die starke Zunahme von Schäden durch Wetterkatastrophen sind vor allem soziökonomische Faktoren wie das weiterhin hohe Wirtschaftswachstum und der damit verbundene Anstieg an Werten in exponierten Gebieten. Städtische Ballungsräume an den Küsten und die schnell wachsenden Industrieparks, die in Flussdeltas liegen, sind besonders gefährdet.“
Neben Überschwemmungen geht von Taifunen die größte wetterbedingte Naturgefahr aus, sie zählen zu den schadenintensivsten Wetterereignissen. Davon sind vor allem die Ballungsräume in Südostasien betroffen, vornehmlich in Japan, Vietnam, Taiwan und auf den Philippinen sowie die schnell wachsenden Megastädte im Osten Chinas.
Das Auftreten von Taifunen wird durch eine periodische Klimaschwankung mit Phasen von ca. 30 Jahren beeinflusst. „In den vergangenen zehn Jahren lag die Taifunaktivität unter dem langjährigen Mittel. Schreibt man die aufgedeckten Zyklen in die Zukunft fort, so erwarten wir nun in den nächsten Jahren eine Phase mit höherer Taifunaktivität“, sagte Höppe.

Damit fällt für die Philippinen „eines der größten Probleme“ als Bedrohung weg

Es ist immer wieder erschütternd, „live“ zu erleben, wie Bedrohungsszenarien alleine aufgrund (bewusst?) falsch interpretierter Daten über viele Jahre rund um die Welt publiziert werden (können):
KLIMARETTER.INFO 07. August 2017: FOCUS ONLINE, 26.01.2016: … Meeresspiegel steigt doppelt so stark wie bisher vermutet … Weltweit sei der Anstieg der Meeresspiegel allerdings sehr unterschiedlich. Während er auf den Philippinen fünf Mal so hoch sei wie der weltweite Durchschnitt …
– und niemand der „Fachwissenschaftler*innen“ bemerkt die Fehler.
Das gilt nicht nur für die Philippinen, sondern für viele, angeblich von steigenden Pegeln so bedrohten Küsten wie es alle Recherchen immer neu zeigen [10] [11] [12] [13] [14] und Professor Mörner gerade aktuell wieder belegt hat:
EIKE 29. November 2017: Änderungen des Meeresspiegels und Klima auf Fidschi: totale Falschinformationen von COP23
http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.
… Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven.

Trotz dieser erdrückenden, gegenteiligen Belege verkündet eine „Fachstelle“ weiterhin: „eines der größten Probleme ist der Anstieg des Meeresspiegels

Betrachtet man unter Berücksichtigung dieser Fakten – welche jedem leicht zugänglich sind – was die Beraterin für Klima und Energie unserer Berliner Politikkaste durch ihre Redakteur*innen als angeblich immer noch aktuell wieder verkünden lies:
Sachverständigenrat für Umweltfragen an.[3] Sie beriet EU-Kommissionspräsident José Manuel Barroso sowie die Weltbank und die UN.[4] Kemfert ist Gutachterin des Intergovernmental Panel on Climate Change (IPCC). Außerdem war sie Mitglied der Wissenschaftlichen Kommission Niedersachsen[5] und im Nachhaltigkeitsbeirat Brandenburg.[6] Sie ist zudem Mitglied des wissenschaftlichen Beirates des Österreichischen Instituts für Wirtschaftsforschung (WIFO)[7] sowie des Frankfurter Zukunftsrates[8] und der TU-Campus EUREF gGmbH.[9][10] Des Weiteren ist sie Mitglied im wissenschaftlichen Beirat des Energie Campus Nürnberg sowie des Deutschen Biomasseforschungszentrums (DBFZ)[11], des Kuratoriums der Technologiestiftung Berlin[12], der Deutschen Klimastiftung[13], von B.A.U.M.[14] sowie des Deutschen Studienpreises der Körber-Stiftung[15]. Seit 2010 ist sie im Beirat der Deutschen Umweltstiftung[16] und seit 2011 in der Jury der GreenTec Awards[17]. Ferner ist sie Jurorin des Deutschen Umweltpreises.[18] 2009 war sie auch Jurorin des Deutschen Nachhaltigkeitspreises.
WIKIPEDIA: Auszeichnungen
2006 wurde Kemfert von der Deutschen Forschungsgemeinschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft Deutscher Forschungszentren als Spitzenforscherin ausgezeichnet (Elf der Wissenschaft).[34] Außerdem ist sie Preisträgerin des Deutschen Akademischen Austauschdienstes (DAAD).[35] 2010 war sie im Zusammenhang mit dem Deutschen Nachhaltigkeitspreis für die Auswahl „Deutschlands 50 Köpfe der Nachhaltigkeit“ nominiert.[36] 2011 wurde sie mit der Urania-Medaille[37] sowie mit dem B.A.U.M.-Umweltpreis[38] in der Kategorie Wissenschaft ausgezeichnet. 2011 wurde Claudia Kemfert in den Club of Rome aufgenommen.[39] 2016 erhielt sie den Deutschen Solarpreis in der Kategorie „Sonderpreis für persönliches Engagement“ sowie den Adam Smith Preis für marktwirtschaftliche Umweltpolitik

So lange unsere Medien solchen an Betrug grenzenden „Informationen“ blind vertrauen (wollen oder müssen), wird sich daran nichts ändern

Der Autor macht sich ab und zu – wenn es ganz schlimm wird, wie wieder zu COP23 – die (sinnlose) Mühe, der Redaktion „seiner“ Lokalzeitung ihren teils geballten Unsinn in Berichten zu Klima und Energie vorzuhalten und wenigstens auf ein Minimum an redaktioneller Verantwortung für ihre Medieninhalte hinzuweisen. Die letzte Antwort darauf war:
Sehr geehrter Herr… ,
Sie beschweren sich immer wieder über unsere Berichterstattung zum — von Ihnen bestrittenen — Klimawandel.
Dazu lässt sich folgendes sagen: Wir sind kein Klima-Fachblatt, wir veröffentlichen Recherchen von Agenturen, Fachjournalisten und Einschätzungen von renommierten (!) Wissenschaftlern.
Es ist ihr gutes Recht, dass alles für Humbug zu halten. Es ist aber auch unser gutes Recht, an der Reputation und der Motivation von Netzwerken wie „Eike“ zu zweifeln und damit auch an Ihren, mit erstaunlicher Selbstgewissheit vorgetragenen Theorien.
Mit freundlichen Grüßen
Dass der Autor in keinem seiner Artikel „Theorien“ vorträgt, sondern ganz bewusst ausschließlich aufzeigt, wenn die wirklichen Daten den Aussagen von „renommierten (!) Wissenschaftlern“ ganz einfach widersprechen, fiel der Redaktion nicht auf.
Aber es ist der Stoff, welcher es erst ermöglicht, dass eine Regierung von Fidschi sich vor 25.000 „renommierten“ Teilnehmern auf COP23 hinstellt und nicht nur unwidersprochen von ihrem angeblichen „Untergang“ fabulieren kann, sondern trotz dieser bewussten Falschdarstellung (auch von unserer Politikkaste) noch unterstützt wird.
EIKE 16. November 2017: Nochmals Fidji, die eher aufsteigenden, als untergehenden Atolle
EIKE 27. November 2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 2 (2)

Entschuldigung: Solche Übertreibungen sind erforderlich, denn ohne CO2-Reduzierung werden die Folgen unabsehbar

Natürlich ist alles, was derzeit zur Klimawandel-Vulnerabilität publiziert wird kein Betrug. Mögen die berichteten Daten auch (wissentlich) falsch sein und gemeldete Bedrohungen noch gar nicht vorliegen, so ist das nur der „guten Sache“ geschuldet. Denn wenn die Menschheit nicht sofort „umkehrt“, werden die Folgen furchtbar sein:
Potsdamer neueste Nachrichten 25.11.2015 (Interview mit J. Schellnhuber, PIK): Was weiß die Forschung heute über den zu erwartenden Anstieg des Meeresspiegels?
… Wenn wir in den Bereich von zwei Grad vorstoßen sollten, muss also langfristig mit um wenigstens sechs Meter erhöhten Wasserständen gerechnet werden. Wenn das ein langfristiger Prozess über Jahrtausende ist, wird man die Küsteninfrastrukturen zurückbauen können, viele Inselstaaten müssen dann aber evakuiert werden. Die Malediven wird es beispielsweise nicht mehr geben. Bei ungebremster Erderwärmung sind sogar bis zu 50 Meter Meeresspiegelanstieg möglich …

Woher weiß Herr Schellnhuber das so genau?
Weil es praktisch unfehlbare (von Menschen programmierte) Computerprogramme vorhersagen. Nicht eines, viele. Zwar ungenau, doch deshalb lässt man deshalb verschiedene Simulationen mehrere Hundert Läufe durchführen. Aus den breit gestreuten Ergebnissen siebt man dann die richtig vorhersagenden heraus. Das Ergebnis solcher Programme ab der nächsten 14 Tage ist deprimierend, je weiter man jedoch in die Zukunft blickt, um so sicherer und präziser werden sie – zumindest weiß das Herr Schellnhuber.
EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
Auch er wird dafür mit Titeln und Preisen überhäuft:
EIKE 29. Oktober 2017: Deutschland und Japan müssen im Wettrennen gegen den Klimawandel die Führung übernehmen
Schellnhuber erhält Blue Planet Preis
Damit könnte ein neuer Artikel beginnen:
kaltesonne 23. Dezember 2017: Was sind die Temperaturprognosen wirklich wert? Klimamodelle bei wichtigem Realitäts-Check glatt durchgefallen
Klimamodelle mussten in letzter Zeit viel Kritik einstecken. Weder hatten sie die gebremste Erwärmung der letzten 15 Jahre vorhergesagt, noch vermögen sie die natürlichen Wärmeperioden der letzten Jahrtausende nachzuvollziehen. Ein Team um Christopher O’Reilly hat nun überprüft, inwieweit die gängigen Klimamodelle die Wintertemperaturen der letzten 100 Jahre der Nordhemisphäre reproduzieren können. Die Forscher waren erstaunt, als die Prognoseleistung Mitte des 20. Jahrhunderts nahe Null fiel. Ein bitterer Fehlschlag. Irgendetwas scheint in den Modellen zu fehlen. Ist es angesichts der krassen Defizite eigentlich vertretbar, die Politik von ebensolchen Modellen leiten zu lassen und weitreichende Entscheidungen zu treffen?
Quellen
[1] KLIMARETTER.INFO 24. Dezember 2017: Philippinen: Taifun fordert 200 Tote
[2] KLIMARETTER.INFO 07. August 2017: Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.
[3] SPIEGEL ONLINE 27.09.2012: Meeresspiegelkarte Ozeanbeulen bedrohen Küstenstädte
Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen
[6] Correctiv.org, Jacque Manabat, 28. Juli 2017: [6] Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden
[7] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[8] Deutscher Wetterdienst: Wetterlexikon Taifun Taifune stellen eine große Gefahr für die Schifffahrt auf dem Nordwest-Pazifik und seiner Randmeere (Wellenhöhen über 10 m) dar
[9] Wetterkanal: Tropenstürme 17. Oktober 2017: LAN auf dem Weg zum starken Taifun
Die signifikante Wellenhöhe am kommenden Samstag aus dem globalen US-Modell. Es werden Wellenhöhen bis fast 20 Meter berechnet, dabei sind deutlich höhere Einzelwellen überhaupt noch nicht berücksichtigt. Meterhohe Wellen werden selbst an den Küsten von Taiwan, dem chinesischen Festland und vielen japanischen Inseln erwartet.
[10] EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
[11] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
[12] EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert
[13] EIKE 05.11.2017: Eilmeldung zu COP 23: Fidji geht doch nicht unter (wegen des westlichen CO2), es war nur ein alter Datensatz
[14] kaltesonne 29.7.2015: Marschallinseln im Pazifik besonders vom Klimawandel betroffen? In den letzten 2000 Jahren fiel dort der Meeresspiegel um anderthalb Meter