Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht ?

Vorbereitet ist man dort bereits: [5] PIK Pressemitteilung vom 13.10.2017: Hunderte Millionen Menschen werden innerhalb weniger Jahrzehnte von den Auswirkungen des Klimawandels auf Gesundheit und Migration betroffen sein – beide Bereiche wurden bislang zu wenig im Zusammenhang mit der menschgemachten Erwärmung gesehen.
Und vor allem ist die Leitung des PIK auch guten Mutes, wie Herr Schellnhuber anlässlich der Impacts World Conference und dem zur gleichen Zeit stattfindenden, 25-jährigem PIK-Jubiläum sagte: [5] „ … Es gab viele Tage in meinem Leben, an denen ich dachte, dass alles verloren ist“, sagte Schellnhuber „Aber nach dieser Jubiläumsfeier und den wunderbaren Beiträgen von Freunden und Verbündeten weiß ich, dass wir die Welt retten werden …“
Alarmmeldungen, um abzulenken

Die Deutschlandtemperatur im Vergleich zum Rest der Welt

Wer erinnert sich zum Beispiel noch an die folgende Schreckensmeldungen vom letzten Jahr?
wetter.de 09. März 2016: Klimawandel:
Deutschland erwärmt sich schneller als der Rest der Welt
Deutschland ist von der Erderwärmung voll betroffen. Die Temperaturen steigen bei uns schneller als im globalen Durchschnitt. Das geht aus Daten hervor, die der Deutsche Wetterdienst (DWD) in Berlin vorstellte.
Deutschland gegeben.
„Das ist erlebter Klimawandel“, so Deutschländer. Dem Meteorologen zufolge waren 23 dieser 25 Jahre zu warm. Dazu beigetragen habe auch das vergangene Jahr – es war zusammen mit 2000 und 2007 das zweitwärmste seit Beginn der Messreihe.

Demgegenüber: Das kommt heraus, wenn man nicht den (bewussten) Fehler des DWD – (Medien-) Experten macht

Als „den Rest der Welt“ darf man sicher den ganzen Globus betrachten. Dafür zuständig ist eine der offiziellen Temperaturreihen, zum Beispiel die der Nasa, GISS, Reihe „Land + Ocean“.
Nun ist es für jeden naturwissenschaftlich Interessierten wohl einleuchtend, dass in einem relativ kleinen Klima- und Wetter-Areal wie Deutschland ein Witterungs-Element wie die Temperatur von Jahr zu Jahr eine deutlich größere Variabilität und Streuung um den Mittelwert aufweist als der globale Mittelwert des gesamten Globus. Niemals würde ein seriöser Fachmann deshalb die Spanne der Absoluttemperatur Deutschlands mit der des gesamten Globus direkt vergleichen, sondern er würde zur Trendbetrachtung die Verhältnisse selbstverständlich erst relativieren.
Führt man dies durch, dann zeigen sich seit 1881 (Beginn der GISS Datenreihe und „angeblich anthropogener Klimawandelbeginn“) die in den folgenden Grafiken gezeigten Verläufe. Ein Hinweis: Die Spanne der Deutschlandtemperaturen wurde zur GISS-Datenreihe intuitiv relativiert. Bereits dies reicht aus, um eindeutige, relative Verlaufsbilder zu gewinnen.
Ganz einfach lässt sich so feststellen, dass Deutschland seit ca. 1881 im Vergleich bei Weitem nicht so warm wurde, wie der gesamte Globus. Alleine damit wäre jeder (nur nicht die Redakteure unserer Medien) schon in der Lage, dem Experten des DWD die richtige Rückantwort zu seiner falschen Aussage zu geben.

Bild 1 GISS Globaltemperatur 1880 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (rot) übereinander gelegt (mit Anpassung an den Anfangs- bis Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt


Nimmt man die Werte seit dem Jahr 1990, zeigt es sich ebenfalls (Bild 2 und vor allem Bild 3). Auch die letzten Jahrzehnte „hinkt“ die Temperatur Deutschlands der Welt-Globaltemperatur deutlich hinterher. Da beide Temperaturverläufe in diesem Zeitraum schlecht korrelieren, kann man den Startwert unterschiedlich anlegen (Bereiche gestrichelt eingerahmt), am Ergebnis ändert es nichts.

Bild 2 GISS Globaltemperatur 1990 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (braun) übereinander gelegt (mit Anpassung an den Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt


Bild 3 GISS Globaltemperatur 1990 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (braun) übereinander gelegt (Anpassung an den Beginn des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt


Fazit
Der Autor bezweifelt anhand seiner hier dargestellten Auswertung, dass sich Deutschland schneller als der Rest der Welt erwärmt. Die Aussage des DWD-Meteorologen hält er schlichtweg für falsch.
Das kann passieren, den Meteorologen wissen anscheinend über das Klima nicht bescheid, wie es Herr Kachelmann als Meteorologe kürzlich erst in einer Talkshow freimütig berichtete [8]. Nur: Warum macht dann jemand, der anscheinend wenig Ahnung zum Thema hat, sich um sie zu bekommen aber auch nicht die kleine Mühe macht, die Daten zu vergleichen, Aussagen dazu?

DWD und Harald Lesch, im Klima-Alarmismus vereint

Die GISS Jahreswerte werden von Klimaalarmisten gerne gezeigt, um die „Überhitzung“ der Welt zu demonstrieren. Prof. H. Lesch, welcher gerne über den Klima-Weltuntergang referiert [9][10][11, machte es zum Beispiel in einem seiner vielen Videos, wie dem, worin er (angeblich) die kritischen AfD-Angaben zum AGW-Klimawandel „zerpflückt“ [7].
Man betrachte im Bild 4 den roten Punkt der globalen Maximaltemperatur. Süffisant und in seinem gewohnten, überheblichem Duktus, „beweist“ er damit die bereits erfolgte Überhitzung, welche wohl so weiter gehen soll.

Nun sieht genau dieser Verlauf mit den bei Nasa Giss dazu ebenfalls hinterlegten Monatswerten gezeichnet, inzwischen wie in der folgenden Grafik (Bild 5) aus – ein eklatantes Beispiel, wie man kurzfristige Effekte – hier den des zyklischen, diesmal besonders großen El Nino-Ereignisses -, zum richtigen Zeitpunkt für Klimaalarm nutzen kann.

Bild 5 NASA GISS Daten von Bild 4 in Monatsauflösung, Stand 9.2017. Grafik vom Autor anhand des Datensatzes erstellt.

Nur in der Hitzespitze liegt Deutschland (auch nur vielleicht) zeitlich vorn

Nachdem es im Artikel von wetter.de mit erwähnt wurde: [6] … 2015 hatte es mit 40,3 Grad in Kitzingen auch einen neuen Hitzerekord für Deutschland gegeben
Auch dazu eine Wiederholung. Dieser „deutsche Rekord“ bedeutet, dass seit der vorherigen Temperaturspitze im Jahr 1983 bis zur aktuellen im Jahr 2015, also nach 32 Jahren, die maximale, an einer DWD-Station gemessene Temperatur um 0,1 °C gestiegen sein könnte. Der Süddeutschen Zeitung war dieser lange Zeitraum für eine derart geringe Temperaturerhöhung damals so peinlich, dass sie in ihrer Meldung anstelle dem Jahr 1983 das Jahr 2003 angab [1].
Dabei handelt es sich bei dieser Differenztemperatur-Messung nicht um die gleiche Station, bei der man eine Mess-Ähnlichkeit vermuten dürfte, sondern um zwei weit voneinander entfernte. Nachdem eine moderne, automatische DWD-Messstelle bei guter Eichung eine Genauigkeit von +-0,2 Grad aufweist, ist zwischen zwei solchen Stationen eine Differenz von 0,1 Grad (richtiger: Kelvin) definitiv nicht messbar. Anzeigbar natürlich schon, aber messtechnisch niemals signifikant zu unterscheiden.
Das weiß sicher auch der DWD. Aber wie beim ersten Beispiel „Deutschlandtemperatur im Vergleich zum Rest der Welt“ bereits gezeigt, achtet dieser Dienst darauf, aus dem Wetter Ergebnisse abzuleiten, welche die Politik „erwartet“.
Dazu ist auch noch die „Genauigkeit“ gerade der Station der letzten Maximalwertmessung unsicher, denn der Standort Kitzingen ist (wie so viele andere Standorte auch) nicht wärmeinselfrei. Ein ausgewiesener Klimaforscher der Uni Würzburg plauderte es einer Lokalzeitung gegenüber aus:
Mainpost 07. September 2016, Prof. Paeth (Klimaforscher), Uni Würzburg: [12] … Schließlich, sagt Paeth, gebe es noch einen Spezialeffekt. „Wir haben in Deutschland häufig Westwindlagen“ – auch in Kitzingen komme die kühlende Frischluft hauptsächlich von Westen. Genau im Westen der Stadt habe aber seinerzeit die Wehrmacht eine große Kaserne errichtet. 61 Jahre lang war das Gelände dann amerikanische Garnison, heute ist es ein Gewerbepark. Ein Hindernis für die Luftzufuhr blieb es. Die Stadt habe sich ihre Frischluftschneise zugebaut, konstatiert Paeth. „Für die Hitze könnte das eine Erklärung sein.“
Doch selbst, falls alles richtig wäre, was der DWD über die deutsche Maximaltemperatur berichtet, hätte sich damit
die Welt bezüglich der (von seit längerer Zeit installierten Wetterstationen) gemeldeten Spitzentemperaturen kaum verändert:
– Seit 103 Jahren ist es global nicht mehr heißer geworden
– Seit 74 Jahren hat sich an der globalen Grenztemperatur überhaupt nichts verändert
– In den letzten 32 Jahren ist es in Deutschland nicht heißer geworden (alternativ um nicht messbare +0,1 °C)
– würde man die „verworfenen“, älteren Messungen mit einbeziehen, wären die Spitzentemperaturen früher weit wärmer gewesen als aktuell.
Mehr Details dazu lassen sich im folgenden Artikel nachlesen:
EIKE 30.07.2016: Weltweiter Temperaturrekord gemessen?

Der „Extremwerte-Wettbewerb“ ist gnadenlos …

So wie man in Religionen regelmäßig neue Wunder benötigt, um „im Geschäft“ zu bleiben und unter der Konkurrenz zu bestehen, benötigt der AGW-Klimawandel immer neue Extreme.
Zu welchen Auswüchsen dies nicht nur in Deutschland führt, macht gerade Australien vor. Um höhere Temperaturspitzen zu messen, wurde (und wird) dort nicht nach internationaler Regel gemittelt, sondern fälschlich Kurzzeitwerte verwendet, nachzulesen unter:
WUWT October 19, 2017: In Australia, faulty BoM temperature sensors contribute to “hottest year ever”

… Die Lösungen ebenfalls

Dazu passt eine weitere Meldung, welche zeigt, wie konsequent dort gehandelt wird, wenn die (falsch gemessene Spitzentemperatur) von der Politik „zugelassene“ Werte überschreitet. Ein Vorbild für Deutschland und Beleg, dass diese Industrie jederzeit dem „Klimaschutz“ weichen kann*, da sie selbst für einen Kontinent nicht wirklich erforderlich ist:
dw.com – Freitag, 20. Oktober 2017: Australiens letztes Autowerk macht dicht
*Klarstellung: Die Schließung des letzten, australischen Autowerkes hat in Wirklichkeit mit dem Klima nichts zu tun.
Quellen
[1] EIKE 24.09.2016: Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“
[2] Achgut, 06.10.2017: Sturmchaos? Nein, Totalversagen bei der Bahn
[3] Wetterkanal 8. Oktober 2017: Sturm Xavier – wie Medien Menschen auf dem Gewissen haben: Nichtstun tötet
[4] EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?
[5] PIK Pressemitteilung 13.10.2017: „Wir brauchen Sie“: UN Klima-Chefin zu Potsdamer Klimaforschern
[6] wetter.de 09. März 2016: Klimawandel: Deutschland erwärmt sich schneller als der Rest der Welt
[7] YouTube Harald Lesch Terra X Lesch & Co Moderator zerpflückt AfD-Programm und bekommt Hassmails.
[8] EIKE 20. Oktober 2017: „Kippt unser Klima ?“ bei Maischberger/ARD am 10. Oktober 2017: Eine kleine Nachlese über großen Unsinn, sachliche Fehler und wenig Richtiges

[9] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[10] EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
[11] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
[12] MAINPOST, Kitzingen stellt erneut Hitzerekord auf dpa




Vorhersage zukünftiger CO2-Niveaus

Natürlich lautet ein alternativer Standpunkt, dass während der letzten 30 Jahre während eines um 14% gestiegenen CO2-Niveaus die Erde signifikant grüner geworden ist, d. h. unser Planet ist jetzt von mehr Vegetation überzogen als vor 30 Jahren. Ernteerträge haben sich deutlich verbessert, wofür der steigende CO2-Gehalt zumindest teilweise ursächlich ist. Anstatt den Untergang zu prophezeien sollten wir vielleicht davon ausgehen, dass die Welt ein immer besserer Ort zum Leben wird.

Einen Aspekt, der kaum einmal von den Befürwortern einer Kontrolle des CO2-Gehaltes angeführt wird ist, welche Auswirkungen Maßnahmen wie der Übergang zu erneuerbarer Energie wahrscheinlich haben wird. Wird dies überhaupt irgendwelche Auswirkungen auf das CO2-Niveau haben? Gibt es irgendetwas, das wir tun können, um den weiteren Anstieg des CO2 aufzuhalten, falls dies etwas ist, was wir überhaupt tun wollen? Welche CO2-Niveaus sind wahrscheinlich in Zukunft zu erwarten? Dieser Beitrag versucht, einige dieser Fragen zu beantworten.

CO2 und Bevölkerung

Abbildung 1 zeigt das atmosphärische CO2-Niveau als Funktion der Weltbevölkerung im Zeitraum von 1960 bis 2015. Die Angaben zum CO2-Niveau stammen von der NOAA, die Angaben zur Bevölkerung stammen aus Veröffentlichungen der UN Population Division. Man beachte, dass obwohl jeder Datenpunkt ein individuelles Jahr in fortlaufender Folge repräsentiert, die Zeit nicht explizit in dieser Graphik auftaucht, zeigt diese doch lediglich, wie der CO2-Gehalt mit der Gesamt-Weltbevölkerung korreliert ist.

Man erkennt in Abbildung 1, dass CO2 und Bevölkerung im Gleichschritt voranschreiten. (Diese Korrelation wurde zum ersten Mal von Newell and Marcus im Jahre 1987 beschrieben). Es gibt keine Anzeichen irgendeines signifikanten Rückgangs der Rate der CO2-Zunahme vom Beginn bis zum Ende der Kurve. Daraus können wir folgern, dass keine der bisher von den industrialisierten Ländern ergriffene Maßnahme zur Reduktion des CO2-Ausstoßes irgendwelche erkennbaren Auswirkung hat, zumindest nicht bis zum Jahr 2015

Ob nun Bevölkerung CO2 verursacht oder CO2 Bevölkerung steht auf einem anderen Blatt, aber falls wir davon ausgehen, dass sich dieser Gleichschritt in absehbarer Zukunft fortsetzen wird, dann wird mit steigender Bevölkerungszahl auch der CO2-Gehalt steigen. Da die Bevölkerungszunahme ziemlich sicher zu erwarten ist, zumindest kurzfristig, wird das CO2-Niveau vermutlich ebenfalls zunehmen.

Da CO2 und Bevölkerungszahl in Relation zu stehen scheinen, lautet die sich jetzt erhebende Frage, ob die Bevölkerungszahl das CO2-Niveau treibt oder das CO2-Niveau die Bevölkerung.

1. Es gibt keine Verbindung zwischen beidem, Bevölkerung und CO2 sind vollkommen unabhängig voneinander und der offensichtliche Gleichschritt ist lediglich ein Zufall. Möglich, aber unwahrscheinlich. Während es sicher richtig ist, dass Korrelation nicht notwendigerweise Kausalität bedeutet, stimmt aber auch, dass je besser eine Korrelation ist, umso mehr irgendeine Art Kausalität im Spiel ist. Wie unten gezeigt, ist die Korrelation in diesem Fall so gut, dass man die Möglichkeit, es gebe keine kausale Verbindung, getrost ignorieren kann.

2. Bevölkerung treibt CO2. Dies ist die ,offensichtliche‘ Erklärung, welche die meisten Menschen anführen würden. Je mehr Menschen es auf unserem Planeten gibt, umso mehr CO2 erzeugende Aktivitäten wird es geben wie etwa Stromerzeugung, industrielle Aktivitäten, Verkehrswesen, Heizung und so weiter.

3. CO2 treibt Bevölkerung. Zu einem großen Teil dürfte der Bevölkerungszuwachs in absehbarer Zukunft auf die Entwicklung in Afrika südlich der Sahara zurückzuführen sein. Die Bevölkerungszunahme in diesen Gebieten ist zu einem großen Teil abhängig von der Versorgung mit Nahrungsmitteln, und wie wir wissen, macht mehr CO2 in der Luft die Welt zu einem grüneren Ort mit höheren Ernteerträgen. Je höher das Nahrungsangebot, umso mehr Kinder werden das Erwachsenenalter erreichen.

4. Die Verbindung zwischen CO2 und Bevölkerung ergibt sich aus einer Wechselwirkung der Punkte 2 und 3. Je mehr Menschen es gibt, umso mehr CO2 erzeugen sie, und je mehr CO2 es gibt, umso mehr Nahrungsmittel können erzeugt werden, was wiederum dazu führt, dass mehr Kinder erwachsen werden.

5. Sowohl CO2 als auch Bevölkerung werden getrieben von einer dritten, jedoch bislang unbekannten Kraft. Während dies nicht einfach so vom Tisch gewischt werden kann, muss man es doch als eine rein theoretische Möglichkeit ansehen, solange diese unbekannte Kraft nicht erkannt wird.

Nach meiner persönlichen Einschätzung, die ich durch nichts belegen kann, ist Möglichkeit 4 am wahrscheinlichsten. Höhere Bevölkerung erzeugt mehr CO2, und mehr CO2 führt zu höherer Bevölkerung.

Aber wie wird das in Zukunft sein? Können wir guten Gewissens prophezeien, wie der CO2-Gehalt in zehn, zwanzig oder dreißig Jahren aussieht?

Wir können das tun mittels der Einführung einer Trendlinie in Abbildung 1, welche einfach eine zu den Daten passende mathematische Funktion ist. Die Trendlinie kann dann fortgeführt werden, um Vorhersagen bzgl. des zukünftigen CO2-Niveaus zu erstellen auf der Grundlage der zukünftigen Bevölkerungszahl unter der Annahme, dass die Relation zwischen CO2 und Bevölkerung konstant bleibt.

Auswahl der Trendlinie

Man kann leicht zeigen, dass eine Polynom-Funktion am besten zu den Daten passt. Die verbleibende Frage lautet, welche Größenordnung des Polynoms man anwendet (ax³+ bx² + cx + d beispielsweise ist ein Polynom dritter Ordnung). Abbildung 2 zeigt die Daten zu Bevölkerung/CO2 von Abbildung 1 (mit erweiterten Achsen) sowie Trendlinien von Polynomen 2. bis 6. Größenordnung. Alle fünf Trendlinien haben einen R²-Wert nicht unter 0,999, d. h. die Trendlinie korreliert mit den Daten bis auf eine Genauigkeit von mindestens 99,9%.


Vorhersagen der Bevölkerung

Das United Nations Department of Economic and Social Affairs, Population Division, veröffentlicht eine Serie von Vorhersagen der Weltbevölkerung bis zum Jahr 2100. Drei verschiedene Schätzungen werden angeboten – hoch, mittel und niedrig – wie in Abbildung 3 gezeigt. (Die Quelle der Daten ist hier, dann kann man dort das Tabellenblatt mit der Bezeichnung Total Population – Both Sexes herunterladen.

CO2-Vorhersagen

Das zukünftige CO2-Niveau kann mittels der Trendlinie CO2/Bevölkerung aus Abbildung 2 zusammen mit den Vorhersagen bzgl. Bevölkerung aus Abbildung 3 vorhergesagt werden.

Die Trendlinien 5. und 6. Größenordnung in Abbildung 2 wurden zurückgewiesen, weil es keinen nachvollziehbaren physikalischen Mechanismus gibt, wodurch der CO2-Gehalt bei einer Bevölkerung von 8 oder 9 Milliarden steil abfällt.

Der vorhergesagte zukünftige CO2-Gehalt der verbleibenden drei Trendlinien 2., 3. und 4. Größenordnung werden jeweils in den Abbildung 4, 5 und 6* gezeigt. Jede Abbildung zeigt drei separate CO2-Vorhersagen auf der Grundlage der Bevölkerungs-Schätzung hoch-mittel-niedrig in Abbildung 3. Während die UN-Vorhersagen bzgl. Bevölkerung bis zum Jahr 2100 ausgeweitet sind, wird davon ausgegangen, dass es unwahrscheinlich ist, dass CO2-Trendlinien so weit in die Zukunft ein zuverlässiger Anhaltspunkt sind. Darum laufen die CO2-Vorhersagen willkürlich nur bis zum Jahr 2050.

[*Im Original sind nur zwei Abbildungen. Möglicherweise liegt hier ein Versehen des Autors vor. Anm. d. Übers.]



Die Ergebnisse dieser Vorhersagen des CO2-Niveaus im Jahre 2050 zeigt die folgende Tabelle:

Tabelle 1: Vorhergesagtes CO2-Niveau (ppm) im Jahre 2050.

Die gezeigten Ergebnisse weisen eine große Spanne auf, von 439 bis 659 ppm. Allerdings kann diese Spannbreite eingeengt werden. Die Polynom-Trendlinie 4. Ordnung in Abbildung 2 wird als irgendwie verdächtig angesehen, weil anders als in den Trends 2. und 3. Größenordnung die Rate der CO2-Zunahme jenseits der historischen Daten signifikant größer ist als die der historischen Daten selbst. Zwar ist dies nicht unmöglich, doch würde dadurch eine Änderung der CO2/Bevölkerung-Relation eingeführt, für welche es derzeit keinerlei Rechtfertigung gibt. Als Konsequenz wird die Trendlinie 4. Ordnung provisorisch ignoriert. Falls man danach annimmt, dass die UN-Schätzung ,mittel‘ bzgl. der Bevölkerungszahl am wahrscheinlichsten ist, verengt sich die Spanne des CO2-Gehaltes im Jahre 2050 auf 471 bis 487 ppm innerhalb einer Gesamt-Wahrscheinlichkeits-Spannbreite von 439 bis 540 ppm.

Diese Ergebnisse sind abhängig von zwei fundamentalen Hypothesen:

1. Es gibt eine kausale Relation zwischen CO2 und Weltbevölkerung, welche durch eine der oben besprochenen Trendlinien repräsentiert wird, und diese Relation wird bis mindestens zur Mitte dieses Jahrhunderts fortsetzen.

2. Bemühungen zur CO2-Reduktion werden bis dahin kaum irgendwelche oder gar keine Auswirkungen haben, vermutlich auch noch darüber hinaus nicht.

Die zweite Hypothese ist einer weiteren Überlegung wert. Natürlich wurden in der westlichen Welt signifikante Bemühungen unternommen, um CO2-Emissionen zu reduzieren, doch lässt sich darüber streiten, wie effektiv diese Bemühungen sind oder sein werden. Ein großer Teil der offensichtlichen Reduktion in Europa beispielsweise resultierte aus der Schließung kohlenintensiver Operationen wie Stahl kochen, aber dies hat lediglich dazu geführt, diese Operationen in andere Teile der Welt zu verlagern wie etwa nach China und Indien. Damit hat sich die Kapazität zur Stahlerzeugung in der Welt nicht geändert. Und außerdem: Während die Einführung erneuerbarer Energie in der westlichen Welt Kohlenstoff-Emissionen bis zu einem bestimmten Ausmaß reduziert hat [?], (jedoch in weit geringerem Ausmaß als allgemein erwartet), ist der Verbrauch fossiler Treibstoffe in anderen Teilen der Welt keineswegs rückläufig, sondern nimmt sogar zu.

Zusammenfassung

Die Weltbevölkerung wächst. Während das tatsächliche Ausmaß des Bevölkerungswachstums während der nächsten Jahrzehnte Gegenstand von Diskussionen ist, ist es die Tatsache, dass es ein solches Wachstum geben wird, nicht. Unter der Annahme, dass die Relation CO2/Bevölkerung nach wie vor gilt, dann können wir auf der Grundlage von Schätzungen der UN bzgl. Bevölkerung ein CO2-Gehalt vorhersagen, der bis Mitte dieses Jahrhunderts zwischen 471 und 487 ppm liegen wird, innerhalb einer gesamtmöglichen Bandbreite von 439 bis 540 ppm, unabhängig von allem, was wir wissen. Ob die menschliche Rasse dann in einer Sintflut von Klimawandel-Katastrophen untergeht oder die Welt in ein goldenes Zeitalter unübertroffener Ernteerträge, bleibt abzuwarten.

[Die Meinung des Übersetzers: natürlich Letzteres, wie die Erfahrungen im Mittelalterlichen Klimaoptimum gezeigt haben!]

Link: https://wattsupwiththat.com/2017/10/05/predicting-future-CO2-levels/
Übersetzt von Chris Frey EIKE




Keine Ausgewo­genheit: IPCC-Berichte werden von einer kleinen Clique Wissen­schaftler und Institu­tionen dominiert

Hier lohnt ein Blick auf die Autorenlisten. Wie wird man eigentlich in den illustren Kreis der IPCC-Autoren aufgenommen? In der Planungphase der jeweiligen Berichte kann sich Jedermann über die nationalen IPCC-Verwaltungen bewerben. In der Regel gehen sehr viel mehr Bewerbungen ein, als Autorenplätze zur Verfügung stehen. Die letztendliche Nominierung geschieht dann durch den inneren Zirkel des nationalen IPCC, ein Prozess dem es entscheidend an Transparenz mangelt. Während man offiziell vorgibt, an einer ausgewogenen Zusammensetzung der Autorenschaft interessiert zu sein, schafft es in der Regel kein IPCC-kritischer Wissenschaftler in die Erstellergruppe aufgenommen zu werden. Ein gewichtiger Anteil der Autoren rekrutiert sich aus Klimahardlinern und Aktivisten. Vor einigen Jahren analysierte Donna Laframboise die Autorenlisten und fand eine große Anzahl an Autoren mit WWF und Greenpeace Hintergund. Auch Institute wie das Potsdamer PIK sind eng mit den Aktivisten verflochten, mit fragwürdigen personellen Überschneidungen und Finanzierung.
Am 31. August 2017 erschien im Fachblatt Review of Policy Research eine bemerkenswerte Arbeit, in der sich Hannah Rachel Hughes von der Cardiff University und Matthew Paterson von der University of Manchester mit der Zusammensetzung der Autoren der IPCC-Arbeitsgruppe III beschäftigen. Das Resultat der Analyse ist erschreckend: Offenbar kontrolliert eine kleine Gruppe von Autoren und Institutionen den Inhalt der Berichte. Wie robust sind die Klima-Zusammenfassungen also wirklich, wenn eine kleine Clique das Zepter fest in der Hand hält? Hughes und Paterson sehen hier die inhaltliche Ausgewogenheit in Gefahr und stellen die Glaubwürdigkeit der Organisation in Frage. Sie befürchten eine Politisierung der Klimawissenschaften, wobei die nüchterne und ergebnisoffene Darstellung auf der Strecke bleibt. Hier der Abstract der Arbeit:
Einengung des Bereiches Klima: Die symbolische Macht der Autoren bei der Abschätzung des IPCC bzgl. Abschwächung

Dieser Artikel ist eine kritische Analyse des IPCC als eine Randorganisation, welche die Konzepte von Bourdieu bzgl. Bereich, Habitus und symbolischer Macht verwendet. Der Artikel kombiniert quantitative, Netzwerk- und Übersichts-Daten, um die Autorenschaft des Beitrages der Arbeitsgruppe III zum 5. Zustandsbericht des IPCC (AR 5) zu erkunden. Diese Daten enthüllen die Dominanz einer kleinen Gruppe von Autoren und Institutionen bei der Zusammenstellung der Erkenntnisse, welche im AR 5 dargestellt werden, und er beleuchtet die zentrale Lage des IPCC im Bereich Klimapolitik bei der Gestaltung der Forschungs- und Veröffentlichungs-Strategien der Forscher in diesem Bereich. Als Folge ist die Studie in der Lage, die organisatorischen Straßen zur Vertiefung der Beteiligung und die symbolische Macht der Autoren aus dem globalen Süden in den IPCC-Berichten zur Abschätzung des Klimawandels zu identifizieren. Obgleich empirisch, führen uns die Ergebnisse dieser Studie dazu, das IPCC als Wissensvermittler in Frage zu stellen. Theoretisch zeigt sie, dass vor allem in der internationalen Sphäre bei der Verwendung eines Konzeptes der Randorganisation das Risiko besteht, dass man mächtige Netzwerke wissenschaftlicher Akteure und Institutionen sowie deren breit gefasste Einwirkung bzgl. der Politisierung der Wissenschaft übersieht.

Bereits vor zwei Jahren hatten die Autoren eine ähnliche Kritik in Nature Climate Change publiziert (Corbera et al. 2016, online im September 2015 erschienen). Dabei schauten sie auch auf das Instituts-Hopping und erfassten damit den “Stallgeruch” und institutionelle Denkrichtungen, die sich dann im Laufe der Karriere fortpflanzen. Im Fall der WG3 wird der Prozess von wenigen Forschern aus den USA und Großbritannien dominiert, wie ein Abgleich der Publikationstätigkeit und IPCC-Autorenschaft zeigte. Hier der Abstract:

Kungeleien der Autorenschaft im Bericht der IPCC-Arbeitsgruppe III

Das IPCC hat seinen 5. Zustandsbericht abgeschlossen. Hier erkunden wir die sozialen wissenschaftlichen Netzwerke, welche die Grundlage sind für die Abschätzung der WG III der Abschwächung für den AR 5. Indem wir den institutionellen Weg der Autoren aufzeigen, beleuchten wir die Persistenz und das Ausmaß der Nord-Süd-Ungleichheiten hinsichtlich der Autoren des Reports. Dabei enthüllt sich die Dominanz von Institutionen in den USA und UK als Informationsplattformen für die WG III-Autoren. Untersucht man das Netz der Ko-Autorenschaften zwischen den WG III-Autoren, identifizieren wir die Ungleichheit der Relationen zwischen den Autoren, wobei eine geringe Anzahl von Autoren regelmäßig und bezeichnend an einem epistemischen Einfluss der Gemeinschaft auf die Definition des IPCC bzgl. Abschwächung mitwirkt. Diese Netzwerke der Mitautoren folgen regionalen Verteilungen, wobei Autoren der EU und aus den BRIC-Staaten sowie den USA den Hauptanteil stellen. Aus disziplinarischer Perspektive sind Ökonomen, Ingenieure, Physiker und Naturwissenschaftler unverändert zentral an diesem Prozess beteiligt mit unbedeutenden Anteilen von Gelehrten aus den Humanwissenschaften. Die gemeinsamen begangenen Wege, die durch unsere Analyse aufgedeckt wurden, zeigen, dass der Gedanke einer breiter angelegten geographischen Beteiligung zu einer umfassenderen Darstellung von Standpunkten und kulturellem Verständnis der Abschwächung des Klimawandels nicht so solide ist wie ursprünglich gedacht.

Wir wollen das Thema am Fall des IPCC Special Report zum 1,5-Gradziel beleuchten, der sich momentan in der Begutachtungephase befindet. Die Autorenlisten gibt es auf der IPCC-Webseite. Wir schauen uns die Autorenzusammensetzung des Einführungskapitels “Framing und Context” an. Insgesamt sind 16 Autoren aufgeführt. Mit Verlaub, es ist relativ unwahrscheinlich, dass die gelisteten Forscher aus dem Sudan, den Phillippinen, Botswana und den Solomon Inseln Entscheidendes zum Kapitel beigetragen haben. Bleiben also 12.
Es fallen zwei deutsch klingende Namen auf: Wolfgang Cramer tritt unter französischer Flagge an, assoziiert mit dem Mediterranean Institute for Biodiversity and Ecology (IMBE), CNRS. Außerdem ist Kirsten Zickfeld für Kanada und die Simon Fraser University mit dabei. Schauen wir nun auf den “institutional pathway” der beiden: Cramer war bis 2011 in leitender Funktion am Potsdam Institut für Klimafolgenforschung (PIK) tätig, Zickfeld forschte 2004 ebenfalls am PIK zu ihrer Doktoarbeit. Es ist nicht auszuschließen, dass sich die beiden noch aus PIK-Zeiten kennen. Auf diese Weise behält das oft am alarmistischen Klimarand agierende PIK-Institut auch bei diesem Kapitel die Fäden in der Hand, obwohl der Name „PIK” in der Liste offiziell gar nicht auftaucht. Ein schönes Beispiel, wie eine kleine Gruppe an Institutionen das Geschehen kontrolliert.
Ein weiterer Klima-Hardliner in der Autorenliste des Kapitels ist Andreas Fischlin, dessen alarmistische Argumentation bereits Thema in diesem Blog war (siehe “Attacke von IPCC Leitautor Andreas Fischlin gegen Fred Singer: Ein überfälliger Faktencheck“). Bewusst gemäßigte oder gar skeptische Forscher sucht man in dem Kapitel übrigens vergeblich. Die angebliche Ausgewogenheit der Autorenschaft existiert nicht. In Kapitel 2 des Spezialberichts findet sich unter den Autoren ein aktueller PIK’ler, Elmar Kriegler. Man könnte noch weiter durch die Liste forsten. Interessanterweise sind aber auch Vertreter von ExxonMobil und Saudi Aramco mit dabei, letzterer aus dem Sudan, obwohl doch Saudi Aramco in Saudi Arabien residiert.
Link: http://www.kaltesonne.de/sorge-um-ausgewogenheit-ipcc-berichte-werden-von-einer-kleinen-clique-wissenschaftler-und-institutionen-dominiert/
Dieser Beitrag war zuerst auf dem Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischsprachigen Abschnitte (kursiv) von Chris Frey EIKE




In eigener Sache: Kommentaranmeldung vereinfacht!

Wir haben uns daher entschlossen – zumindest vorüber gehend- auf die einfachste Form der Anmeldung zurückzugehen. – Wie einige Kommentatoren schon bemerkt haben, ist die Anmeldung jetzt sehr simpel.
Wir hoffen, dass der restliche Spamschutz den das plug-in stop spammers bietet, uns vor möglichen Attacken schützt und bitten unsere Leser nun die Kommentarfunktion ausgiebig zu testen.
EIKE Redaktion




Hybride und andere Stromtrassen

Diese Lücke kann nicht allein durch regenerative Energien vor Ort geschlossen werden. Große Windparks entstehen vor allem in Nord- und Ostdeutschland und auf See. Der dort erzeugte Strom muss zum Verbraucher transportiert werden, wobei das bestehende Netz bereits jetzt an seine Grenzen stößt. Insgesamt müssen in den nächsten Jahren allein 7.500 Kilometer im sogenannten Übertragungsnetz optimiert oder neu gebaut werden.
Während früher der Strom vom Kraftwerk über die Übertragungsleitungen und die Verteilernetze zum Verbraucher floss, müssen die Netze heute den Stromtransport auch „im Gegenverkehr“ bewältigen, da der Strom nicht nur „von oben nach unten“ sondern auch ( u. a. wegen der Solarkollektoren) „von unten nach oben“ fließt. Um also Erzeugung und Verbrauch jederzeit aufeinander abzustimmen, muss der Stromtransport „intelligenter“ bzw. „smarter“ werden.
In diesem Blog werden eine Reihe bekannter und weniger bekannter Probleme beim Netzausbau zusammengestellt.
Spannungsebenen

Wechselstrom wird auf unterschiedlichen Spannungsebenen transportiert:
—Zum Bereich der Niederspannung gehören die etwa 230 Volt, die im Haushalt an der Steckdose anliegen. Auf dieser Spannungsebene wird die Stromenergie über kurze Strecken verteilt.
—Die Mittelspannung beginnt bei ca. 1.000 Volt. Sie dient der Verteilung über Strecken von einigen Kilometern bis um die 100 km, vor allem in ländlichen Gebieten.
—Bei Spannungen größer als 60.000 (=60 Kilovolt) spricht man von Hochspannung. Das üblicherweise mit 110 Kilovolt (kV) betriebene Hochspannungsnetz sorgt für die Grobverteilung von Energie in verschiedene Regionen und Ballungszentren sowie Industriestandorte.
—Das Höchstspannungsnetz wird meist mit 380 kV, zum Teil auch mit 220 kV betrieben. Höhere Spannungen sind ebenfalls möglich. Auf dieser Spannungsebene wird die Energie über weite Strecken großräumig übertragen. Daher wird es auch Übertragungsnetz genannt. Große Energieerzeuger (zum Beispiel Kraftwerke und Windparks) sind so mit den Lastzentren verbunden. Über das Höchstspannungsnetz sind auch die Netze angrenzender Länder mit dem deutschen Stromnetz verbunden.
Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. Man spricht dabei von Hochspannungs-Gleichstrom-Übertragung (HGÜ).


Vernetzte Landschaft

Freileitungen

Weltweit werden, seit den 1920er- Jahren, Freileitungen zur Übertragung von Strom in der Höchstspannungsebene eingesetzt. Sie können hohe Leistungen übertragen, da die Wärme, welche durch den Stromfluss entsteht, leicht an die umgebende Luft abgegeben werden kann. Das kann man sich zunutze machen, indem man im Winter, wenn der Stromverbrauch ohnehin erhöht ist, die Freileitungen auch höher belastet.
Der Strom kann entweder als Wechselstrom oder als Gleichstrom übertragen werden. Bei der Übertragung von Wechselstrom teilt sich die elektrische Leistung auf in Wirkleistung und Blindleistung. Nur die Wirkleistung kann von angeschlossenen Verbrauchern genutzt werden -zum Beispiel um Haushaltsgeräte zu betreiben. Die nicht nutzbare Blindleistung muss vor allem auf längeren Strecken kompensiert werden. Die Wechselstromübertragung ist in Deutschland sehr verbreitet, da sich die Spannung sehr effizient verändern lässt.
Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. (Siehe oben). Im Gegensatz zum Wechselstrom wird bei der Gleichstrom-Übertragung keine Blindleistung ins Netz gespeist. Bisher wird in Deutschland Gleichstrom besonders bei der Seekabel-Anbindung an andere Länder eingesetzt oder zur Anbindung von Offshore-Windkraftanlagen, also bei der Verwendung von Stromkabeln statt Freileitungen. Künftig soll aber auch im Landesinnern Strom in hohen Spannungsebenen auf längeren Strecken vermehrt als Gleichstrom übertragen werden – allerdings vorrangig als Erdkabel. (Siehe unten).
Wird elektrische Energie über eine Freileitung übertragen, so treten in der Umgebung elektrische und magnetische Felder auf. (Wie übrigens auch bei Haartrocknern, Mikrowellen und Staubsaugern.) Das elektrische Feld ist abhängig von der Spannung und wird in Volt pro Meter angegeben. Das magnetische Feld hängt von der Stromstärke ab; diese magnetische Feldstärke wird in Tesla bzw. Mikrotesla angegeben. Beide Felder nehmen mit zunehmenden Abstand ab. Elektrische Felder lassen sich leicht abschirmen und dringen kaum in den menschlichen Körper ein. Magnetische Felder können nur mit großem Aufwand abgeschirmt werden. Der Bodenabstand der Freileitungen ist so bemessen, dass daraus keinerlei Strahlenschäden entstehen.
Die genauen Kosten für den Ausbau des deutschen Übertragungsnetzes sind derzeit nur schwer zu kalkulieren. Aus den Angaben der Netzbetreiber ergeben sich für die bestätigten Netzentwicklungspläne 2024 Summen von etwa 18 Milliarden Euro für den Netzausbau an Land und etwa 15 Milliarden Euro für denOffshore-Netzausbau. Darin enthalten sind jedoch noch nicht die Mehrkosten für die Erdverkabelung an Land.
Hybrid-Leitungen
Hybridleitungen übertragen sowohl Gleich- als auch Wechselstrom auf einemMastsystem. Die Kombination von Gleich- und Wechselstrom auf Höchstspannungsebene ist in Deutschland noch nicht zum Einsatz gekommen, wird aber weltweit (USA, Kanada) bereits genutzt. Die Bundesnetzagentur hat festgelegt, dass dies beim sog. „Ultranet“, dem Vorhaben 2 im Bundesbedarfsplan, erstmalig der Fall sein soll. Dieser Netzteil wird federführend von Amprion gebaut und transportiert den Strom von Nordrhein-Westfalen nach Philippsburg in Baden-Württemberg. Dafür werden bestehende Wechselstromleitungen umgerüstet. Unter anderem müssen neue Isolatoren für die Leiterseile eingebaut werden.
Der Grund für den Bau von Hybridleitungen ist, dass sie den Strom besondersflexibel übertragen. Gleichstrom eignet sich insbesondere zur Übertragung auf langen Strecken, da die Verluste geringer sind und damit die im Norden erzeugte Energie in den Süden transportiert werden kann. Wechselstrom eignet sich besonders für kürzere Strecken. Indem das bereits bestehende Netz genutzt wird, kann häufig auf den Neubau von Leitungen verzichtet werden. Die eingesetzte Technik ist in Deutschland auf Teststrecken seit Jahren erforscht.
Da im Ultranet bereits eine erhebliche Anzahl von Freileitungen existieren, die zudem großenteils genehmigt sind, hat der Gesetzgeber dort auf dieErdverkabelung verzichtet. Damit reduzieren sich auch die Gesamtkosten für diesen Leitungsteil ganz erheblich.
Erdkabel

In den Anfangsjahren der Energiewende (2011-12) bestand die Absicht, den im Norden Deutschlands erzeugten Strom über fünf Gleichstrom-Freileitungen in den Süden zu transportieren. Wegen der Widerstände der Bevölkerung („Monstertrassen“) wurde dieser Plan weitgehend aufgegeben. Derzeit besteht für die Vorhaben 1, 3, 4 und 5 (also ohne das Vorhaben 2=Ultranet) der sogenannte „Erdkabel-Vorrang“. Das bedeutet, dass diese vier Vorhaben „vorrangig“ als Erdkabel auszuführen sind. Nur in begründeten Ausnahmefällen sind dafür (auf einzelnen Teilstrecken) Freileitungen vorzusehen. Deren Masthöhen – vermutlich um die 70 Meter –  sind zur Zeit noch nicht exakt festgelegt.
Der Einsatz von Erdkabeln in überregionalen Übertragungsnetzen, die große Strommengen über weite Distanzen transportieren, bringt neue technische Herausforderungen. So besteht beispielsweise ein Problem bei der Wärmeleitung. Da das Kabel von Erde umgeben ist, wird die Wärme, die durch die elektrischen Verluste entsteht, nur teilweise abgeführt. das begrenzt den möglichen Stromfluss und damit die über das Kabel übertragbare Leistung.
Die unterirdische Trasse führt auch zu einem großen Aufwand bei notwendigen Reparaturen, denn dabei müssen erst Bagger die Kabel freilegen. Dies wirkt sich  auf die Reparaturdauer und damit auf die Versorgungssicherheit aus. Weiterhin fehlen ausreichende Untersuchungen über die Erwärmung des Bodens und deren Folgen auf die Umwelt.
Im Jahr 2014/15 wurde ein Pilotprojekt zur Erdverkabelung in der Gemeinde Raesfeld im Westmünsterland durchgeführt. Auf 3,5 Kilometer Länge testete der Übertragungsnetzbetreiber Amprion erstmals den Bau einer 380 kV-Hochspannungsleitung in Wechselstromtechnik. Das Unternehmen hat dafür etwa 40 Millionen Euro aufgewendet – sechs Mal soviel, wie eine vergleichbare Freileitung gekostet hätte.
Erdkabel benötigen beim Bau viel Raum. Allein die typische Kabeltrommel für 1000 Meter Kabel hat einen Durchmesser von 4,6 Meter und wiegt 55 Tonnen. Nicht jede Brücke oder Unterführung ist dafür ausgelegt. Die diversen Fahrzeuge und Bagger erfordern im Baubetrieb viel Platz. Zum Schluss darf – zur Enttäuschung der Grundbesitzer – weder die eigentliche Kabeltrasse noch der parallele Baustreifen mit Bäumen oder tief wurzelnden Gräsern bepflanzt werden.
Konverterstationen

Elektrische Energie wird in Kraftwerken überwiegend als Wechselstrom erzeugt. Daher fließt in den deutschen und europäischen Stromnetzen überwiegend Wechselstrom. Im Rahmen des Netzausbaus soll jetzt in Deutschland auch für lange Strecken die effektivere Gleichstromtechnik verwendet und somit ins vorhandene Wechselstromnetz integriert werden. Um Gleichstromleitungen mit dem Wechselstromnetz zu verbinden, sind an den Endpunkten Konverteranlagenerforderlich. Ein Konverter wandelt Wechselstrom in Gleichstrom um und umgekehrt.
Eine Konverteranlage besteht im Wesentlichen aus vier Funktionsblöcken: dem Wechselstrom-Anschluss, den Transformatoren, dem Umrichter und schließlich der Gleichstrom-Schaltanlage mit den Gleichstrom-Anschlüssen. Im Umrichter, dem Kernstück der Anlage, findet die Umwandlung des Stroms statt. Der Umrichter besteht aus Transistoren, Dioden ,Kondensatoren und Spulen. Da diese Bauteile sehr empfindlich sind, müssen sie in Hallen untergebracht werden. Weil sie zudem unter Hochspannung stehen, müssen mehrere Meter Abstand zum Boden und zu den Wänden eingehalten werden.
Die Fläche, welche für einen Konverter benötigt wird, hängt wesentlich von der Übertragungsleistung der vorhandenen Leitung ab. Für Gleichstrom-Vorhaben geht man bei einer Übertragungsleistung von 2 Gigawatt von einer Gesamtfläche von 10 Hektar (= 100.000 Quadratmeter) aus. Das eigentliche Kernstück der Anlage, die Konverterhalle, nimmt eine deutlich geringere Fläche ein.
Schlussgedanken
Meines Erachtens war es ein schlimmer Fehler, dass die deutschen Politiker (insbeondere die bayerischen Seehofer/Aigner) so schnell eingeknickt sind und die Erdkabel zur Standardlösung für die Gleichstromübertragung von Nord nach Süd zugelassen haben. Die – nur – 5 Trassen hätten angesichts ihrer lediglich geringfügig höheren Masten das (regional) oft chaotische Wechselstromnetz kaum nennenswert optisch verschlechtert. Stattdessen hätte man auf hundert Jahre Erfahrung im Freileitungsbau zurückgreifen können. Demgegenüber ist die Erdverkabelung auf Höchstspannung in Deutschland praktisch Neuland. Die Grundstückseigentümer, zumeist Landwirte, werden ihre Nachteile bei Reparaturen bald  bedauern.

Der Beitrag wurde vom Blog des Autors übernommen hier