Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen – gute Aussichten für Frühjahr und Sommer?

Teil 1: Ursachen und Besonderheiten der Winterwitterung 2016/17

Kein Schnee, keine Kälte und immer mehr Westlagen“- die Irrungen des Mojib Latif
http://www.spiegel.de/wissenschaft/mensch/winter-ade-nie-wieder-schnee-a-71456.html . Angesichts derartiger „Prognosen“ wunderte sich so mancher Zeitgenosse über das weiße, kalte und rutschige Pulver, welches im Januar 2017 bergeweise zu finden war:

Abbildung 1: Massenhaft rätselhaftes, weißes Pulver am Bahnhof Oberhof im Januar 2017. Die Straßen im Thüringer Wald konnten nur unter großem Aufwand nach und nach geräumt werden. Weil es nach den Vorhersagen unserer „Klimaforscher“ ja keinen Schnee mehr gibt, musste es etwas anderes gewesen sein. Vielleicht hatte Frau Holle irrtümlicherweise Mehl verschüttet, aber warum war das Zeug so kalt und rutschig? Foto: Stefan Kämpfe


Nun kann ein einzelner, schneereicher Wintermonat aber auch nur mal zufällig auftreten. Langfristige Beobachtungsreihen zeigen uns, ob es tatsächlich immer weniger Schnee gibt. In Potsdam wird die Anzahl der Tage mit einer Schneedecke von mindestens 1cm Höhe seit dem Winter 1893/94 gezählt:

Abbildung 2: Die Anzahl der winterlichen Schneedeckentage blieb in Potsdam fast unverändert; der minimale Negativtrend ist wegen der enormen Streuung der Einzelwerte nicht signifikant. Fast schneefrei war dort (weit vor Latifs Zeiten) der Winter 1948/49; während der Winter 2016/17 eine annähernd durchschnittliche Anzahl von 32 Schneedeckentagen erreichte.


Abbildung 3: Die winterliche Schneebedeckung Eurasiens (Kontinente Asien und Europa) dehnte sich aus, anstatt zu schrumpfen. Für den Winter 2016/17, der hier noch nicht enthalten ist, wird eine überdurchschnittliche von Schnee bedeckte Fläche erwartet.


Abbildung 4: Keine winterliche Erwärmung an der Flughafen-Station Erfurt/Weimar trotz steigender CO2- Werte seit 30 Jahren. Im Deutschland-Mittel zeigt sich ein ähnliches Verhalten; bei der enormen Streuung der Wintermittel ist die geringe, erkennbare Abkühlung aber nicht signifikant.


Abbildung 5: Keine Häufigkeitszunahme von Westwetterlagen seit mehr als 35 Jahren: Oben (dunkelviolett) das Objektive Klassifikationsverfahren, Mitte (rosa) alle Großwettertypen mit Westanteil (West-, Südwest- und Nordwestlagen), unten nur der Großwettertyp West, jeweils nach HESS/BREZOWSKY. Keiner der Trends ist signifikant.


Keine erfreulichen Nachrichten für Herrn Latif also, dem deswegen ein Karikaturist (Quelle: Science Skeptical Blog, Michael Krüger) eine Pinocchio- Nase verpasst hat.

Abbildung 6: Lange Gesichter und lange Nasen bei Mojib Latif und den anderen etablierten Klimaforschern: Das Klima will nicht so recht nach ihrer Pfeife tanzen.


Abbildung 7: Um 1915 und kurz vor der Jahrtausendwende wiesen Westlagenhäufigkeit und Wintertemperaturen Maxima auf. Mit einem Bestimmtheitsmaß von 46% erstaunlich eng ist der Zusammenhang zwischen der Häufigkeit aller Großwetterlagen mit Westanteil (rotviolett) und den deutschen Wintertemperaturen. Aber seit etwa 2 Jahrzehnten deutet sich ein leichter Rückgang an – weitere Entwicklung völlig offen.


Ursachen und Besonderheiten der Winterwitterung 2016/17
Der Winter 2016/17 war relativ arm an windigen, intensiven Westwetterlagen und deshalb zeitweise kalt. Eine mögliche Ursache hierfür ist die AMO, eine periodische Schwankung der Wassertemperaturen im Nordatlantik. In diesem Winter waren die AMO- Werte sehr hoch. Den spiegelbildlichen Zusammenhang zwischen AMO- Werten und Westlagenhäufigkeit illustriert die Abbildung 8:

Abbildung 8: Um 1915 und kurz vor der Jahrtausendwende wies die Westlagenhäufigkeit Maxima auf, was die Serienhäufung milder Winter und die insgesamt etwas höheren Wintertemperaturen in diesen Zeiträumen teilweise erklärt. Die AMO verhielt sich dazu invers, in ihren Maxima (kurz vor 1900, späte 1930er bis 1960er, 2000er Jahre) waren die Winter ärmer an Westlagen und tendenziell etwas kälter. Auch diese Zusammenhänge sind grob und können nicht alle winterlichen Witterungsabläufe erklären.


https://eike.institute/2016/12/03/wintervorschau-201617-widerspruechliche-prognosesignale/ . Auffallend waren in diesem Winter aber besonders zwei nicht zu unterschätzende Einflussgrößen – die geringe Sonnenaktivität und die geringe Stärke des Polarwirbels. Tendenziell tritt eine Schwächung der milden Westwetterlagen, welche sich auch an der geringeren Geschwindigkeit der Westströmung im 500 hPa- Niveau (mittlere Troposphäre, entspricht etwa 5500 Metern Höhe) zeigt, bei geringerer Sonnenaktivität auf:

Abb. 9: Zonalwindmittel für den meteorolog. Winter (rot, oben) in der Druckfläche 500 hPa (entspricht etwa 5.500 Metern Höhe im Mittel) am Gitterpunkt 50°N und 10°E (Zentraldeutschland), dazu die Sonnenfleckenzahlen mit einem Monat Versatz früher wegen der verzögerten Auswirkung (gelb, unten) mit jeweils 11-jährigen Gleitmitteln. Man erkennt in Phasen erhöhter Sonnenaktivität tendenziell eine erhöhte Zonalwindgeschwindigkeit; wobei die Sonnenfleckenanzahl die solare Aktivität aber nur sehr grob abbildet.


Der Polarwirbel in der Stratosphäre war in diesem Winter auffallend häufig gestört beziehungsweise nur schwach ausgebildet, besonders im Januar und Februar, was ebenfalls zur zeitweisen Schwächung der Westwind-Zirkulation beigetragen hat:

Abbildungen 10a und 10b: Ein fast ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre, obere Abbildung) ist fast kreisrund und in der Arktis extrem kalt (violette Farbtöne), was Westwetterlagen begünstigt, welche in Deutschland mild sind. Diese Situation herrschte zum milden Weihnachtsfest 2016 (Westwetterlage). Unten die Situation 3 Wochen später – Mitte Januar 2017. Der Polarwirbel ist stark deformiert, hat seinen Schwerpunkt über dem amerikanischen Sektor der Arktis und ist weniger kalt. Zu diesem Zeitpunkt begann über Mitteleuropa eine längere, intensive Kältewelle. Quelle: Meteociel (Französischer Wetterdienst).


https://eike.institute/2016/12/30/dezemberrueckblick-2016-hochwinterausblick-2017/?print=print und https://eike.institute/2017/01/27/eiskalt-erwischt-der-januar-2017-straft-die-theorie-der-klimaerwaermung-luegen/ . Bei einer weiteren Kältewelle in der ersten Februarhälfte lag das Hochdruckgebiet über Skandinavien, so dass nun vor allem die Nordosthälfte Deutschlands von Kaltluft mit Dauerfrost beherrscht wurde:

Abbildung 11: Ein sehr kräftiges Skandinavien-Hoch lenkte Kaltluft in den Nordosten Deutschlands. Anders als im Dezember/Januar herrschte nun nahe der Ostsee das kälteste Winterwetter, während es im Südwesten relativ mild blieb. Zur Monatsmitte verlagerte sich das Hoch südwärts, so dass es bei südlichem Wind überall sehr mild wurde.

Die vielen Hochdruckwetterlagen wurden auffallend häufig von Nebel begleitet, der oft gefror. Im Zuge der hohen Sonnenaktivität, der Luftreinhaltemaßnahmen und der Häufung windig-milder Westlagen war die Zahl der Nebeltage in den 1990er und den frühen 2000er Jahren im Winter stark zurückgegangen. Ob dieser teils neblige Winter 2016/17 eine Trendwende zu wieder mehr Nebeltagen einleitete, muss noch abgewartet werden:

Abbildung 12: Auf dem Höhepunkt der Luftverschmutzung zwischen den 1950er und den 1980er Jahren gab es in Potsdam besonders viele winterliche Nebeltage; danach wurden sie auffallend selten.


Die Schattenseiten des Hochdruck-Winters 2016/17: Dunkelflauten und Niederschlagsarmut

Abbildung 13: Der Löwenanteil des benötigten Stroms in Deutschland (graublau, deutlich mehr als 85%) musste am 24. Januar 2017 konventionell erzeugt werden; der Wind, der „angeblich immer irgendwo weht“, war selbst auf dem Meer zu schwach und die Sonne schien nur kurz- eine echte „Dunkelflaute“. Doch hier handelt es sich nur um die Stromproduktion – bei Betrachtung der gesamten, benötigten Primärenergie würde der Anteil der „Erneuerbaren“ fast gegen Null gehen. Quelle agora-energiewende.de, nachbearbeitet von Stefan Kämpfe.


Abbildung 14: Aprilmonate mit geringer Eisausdehnung in der Arktis fallen in Deutschland tendenziell wärmer aus (negative Korrelation). Der mäßige Zusammenhang ist für eine sichere Prognose aber unzureichend; und im März und Mai fällt er deutlich geringer aus.


Abbildung 15: Der für die Vegetationsentwicklung entscheidende Zeitraum (April bis Juni) könnte etwas zu warm ausfallen. Quelle: NOAA (USA- Wetterdienst). Die „Prognose“ ist aber mit großen Unsicherheiten behaftet.


Im Teil 2 werden die Prognosen für den Winter 2016/17 einer kritischen Prüfung unterzogen.
Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Computer-Prophe­zeiungen von Klima­alarm sind inhärent fehlerhaft

Die Autorin der Studie, die bedeutende amerikanische Klimatologin Prof. Judith Curry erklärt, dass der Klimaalarm auf hoch komplexen Computer-Simulationen des Klimas der Erde beruht.

Aber obwohl Wissenschaftler sich seit Jahrzehnten mit der Entwicklung derselben befasst haben, müssen diese Simulationen immer noch „frisiert“ werden, um sie dem realen Klima anzupassen. Dies macht sie im Wesentlichen unbrauchbar für den Versuch herauszufinden, was Änderungen des Klimas verursacht, und es macht sie unzuverlässig für Prophezeiungen, was in der Zukunft passieren wird.

Prof. Curry: „Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Prof. Curry kündigte kürzlich an, dass sie ihre akademische Laufbahn aufgegeben habe infolge von Angriffen auf ihre Forschungen und dem „Idiotismus“ [craziness] der Klimadebatte.

Executive Summary

Es gibt eine große Debatte über Genauigkeit und Brauchbarkeit von globalen Klimamodellen (GCMs). Diese Debatte findet innerhalb der Gemeinschaft der Klimawissenschaftler statt, die sich über das Gewicht uneinig sind, welches man Computermodellen relativ zu Beobachtungen beimessen sollte. GCM-Outputs werden auch von Ökonomen, Gesetzgebern und Politikern herangezogen, weshalb die Modelle Gegenstand sehr genauer Überprüfungen seitens einer größeren Gemeinschaft von Wissenschaftlern, Ingenieuren, Software-Experten und Wissenschaftsphilosophen waren und sind. Dieser Report versucht, die Debatte um die GCMs zu beschreiben für eine gebildete, aber nicht technisch bewanderte Zuhörerschaft.

Schlüsselpunkte der Summary:

GCMs wurden niemals einer rigorosen Verifikation und Validierung unterzogen, welche jedoch die Norm sind im Ingenieurswesen und in der behördlichen Wissenschaft.

Es gibt wohlbegründete Bedenken hinsichtlich eines fundamentalen Fehlens von Vorhersagbarkeit im komplexen, nicht linearen Klimasystem.

Es gibt zahlreiche Argumente, die die Schlussfolgerung stützen, der zufolge Klimamodelle nicht geeignet sind für das Ziel, den Anteil der Erwärmung des 20. Jahrhunderts mit hoher Sicherheit zu identifizieren, der im Gegensatz zu natürlichen Kräften anthropogenen Ursachen zuzuschreiben ist.

Es gibt immer mehr Beweise dafür, dass Klimamodelle viel zu viel Erwärmung prophezeien infolge des steigenden atmosphärischen CO2-Gehaltes.

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, wie sie vom IPCC bekannt gegeben werden, enthalten nicht entscheidende Elemente der Klimavariabilität und sind daher wenig nützlich für Projektionen, wie sich das Klima im 21. Jahrhundert tatsächlich entwickeln wird.

Klimamodelle sind nützliche Utensilien für die Durchführung wissenschaftlicher Forschungen, um das Klimasystem besser zu verstehen. Allerdings führen die oben genannten Punkte zu der Schlussfolgerung, dass die gegenwärtigen GCMs nicht geeignet sind, um die Gründe der Erwärmung des 20. Jahrhunderts anzugeben oder die Vorhersage globaler oder regionaler Klimaänderungen im Zeitmaßstab von Jahrzehnten bis Jahrhunderten vorzunehmen, mit welch hohem Niveau von Vertrauen auch immer. Übertragen bedeutet dies, dass sie keineswegs herangezogen werden sollten für politische Entscheidungen, die die Sozial-, Ökonomie- oder Energiesysteme der Erde fundamental verändern. Es ist diese Anwendung der Ergebnisse von Klimamodellen, welche die Lautstärke der Debatte um Klimamodelle befeuern.

Hier folgt jetzt noch die Zusammenfassung am Schluss der Studie:

Summary

Es gibt immer mehr Beweise, dass Klimamodelle viel zu warm ausfallen und dass die Klimasensitivität bzgl. Kohlendioxid am untersten Rand der vom IPCC angegebenen Bandbreite liegt. Nichtsdestotrotz wird diesen niedrigeren Werten der Klimasensitivität in den IPCC-Klimamodell-Projektionen bis zum Ende des 21. Jahrhunderts oder bei Schätzungen der Reduktion von CO2-Emissionen auf die Temperatur in keiner Weise Rechnung getragen. Die IPCC-Klimamodell-Simulationen konzentrieren sich auf die Reaktionen des Klimas bei verschiedenen Emissions-Szenarien. In den Klimamodell-Projektionen für das 21. Jahrhundert sind nicht enthalten:

Eine Bandbreite von Szenarien bzgl. vulkanischer Eruptionen (die Modelle nehmen an, dass die vulkanische Aktivität im 21. Jahrhundert mit derjenigen im 20. Jahrhundert vergleichbar ist, obwohl die Aktivität in Letzterem deutlich geringer war als im 19. Jahrhundert).

Ein mögliches Szenario solarer Abkühlung analog dem solaren Minimum, welches von russischen Wissenschaftlern vorhergesagt wird.

Die Möglichkeit, dass die Klimasensitivität um einen Faktor zwei niedriger ist als von den meisten Klimamodellen simuliert.

Realistische Simulationen von Phase und Amplitude der natürlichen internen Klimavariabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten.

Die Gemeinschaft der Klima-Modellierer konzentrierte sich auf die Reaktion des Klimas auf vom Menschen verursachte Emissionen, und die politische Gemeinschaft akzeptiert (entweder explizit oder implizit) die Ergebnisse der Simulationen für das 21. Jahrhundert als tatsächliche Prophezeiungen. Folglich fehlt uns bislang ein gutes Verständnis der relativen Klimaauswirkungen auf die oben genannten Parameter oder dessen potentielle Auswirkungen auf die Entwicklung des Klimas im 21. Jahrhunderts.

Übersetzt von Chris Frey EIKE




Deutschlands Erneuer­bare-Revolution destabili­siert die Stromnetze seiner Nachbarn

Eine Schlacht tobt in Mitteleuropa. Es geht um das Gleichgewicht der Strom-Macht. [Unübersetzbares Wortspiel: The balance of power – the electrical kind. ,Power‘ ist ein Teekessel und bedeutet sowohl Macht als auch Energie oder Strom. Diese Doppelbedeutung ist nicht übersetzbar, aber für mich hoch interessant! Anm. d. Übers.]

Polen und die Tschechische Republik sehen Deutschland als einen Aggressor, der viel zu viel Strom erzeugt und diesen über seine Grenzen hinweg entsorgt. Deutschland selbst sieht sich dagegen als ein Pionier grüner Energie, der unfairen Angriffen seitens weniger innovativer Nachbarn ausgesetzt ist.

Als Teil von Kanzlerin Merkels Energiewende [auch im Amerikanischen steht das Wort so im Original, Anm. d. Übers] wird Deutschland seine Kernkraftwerke bis zum Jahre 2022 vom Netz nehmen und durch rapide sich ausweitende Wind- und Solarenergie ersetzen.

Aber die volatilen Erneuerbaren spielen nicht immer mit, und die Deutschen sind auch von Kohle- und Gaskraftwerken abhängig, um die Lichter nicht ausgehen zu lassen.

Dies führt an sonnigen und windigen Tagen zu Problemen, wenn Deutschland weitaus mehr Strom erzeugt als es braucht. Die überschüssige Energie ergießt sich über die Grenzen auf polnisches und tschechisches Gebiet, was dort die ernste Gefahr von Zusammenbrüchen der Netze heraufbeschwört.

Das ist „ein Kollateralschaden einer rein politischen Entscheidung der deutschen Regierung“, sagte Barbora Peterova, die Sprecherin des nationalen Netzes in Tschechien. Es hatte zuvor „keinerlei Konsultationen oder Diskussionen hinsichtlich der Auswirkungen gegeben“.

Deutschlands Unternehmen bestreiten nicht, dass der erratische Energiefluss ein Problem ist, aber sie argumentieren, dass die Überspannungen großenteils veralteten Netzen beiderseits der Grenze geschuldet sind.

„Eine Kette ist nur so stark wie ihr schwächstes Glied“, sagte Gert Schwarzbach, Direktor von 50Hertz Transmission GmbH, einem Netzbetreiber, der zuständig ist für Stromleitungen nach Polen und die Tschechische Republik in Nordostdeutschland.

[Im Original ist hier ein interessantes Bild von Getty Images, das aus urheberrechtlichen Gründen nicht übernommen werden kann. Anm. d. Übers.]

Aber das Problem wurde erheblich verschlimmert durch Deutschlands Jahrzehnte langen [bislang vergeblichen] Kampf, Hochspannungsleitungen zu installieren, die mehr Energie von seinen Windmühlen im stürmischen Norddeutschland zu den industriellen Zentren in Süddeutschland leiten sollen. Diese Verzögerung zwang Deutschland dazu, die Netze der Nachbarn in Anspruch zu nehmen, um Energie nach Süden zu leiten, was deren Netze schwer unter Stress setzt mit dem Risiko von Blackouts.

„Der überschüssige Strom hat alle Netzanschlüsse verstopft“, sagte Grzegorz Wilinski, ein leitender polnischer Stromfunktionär. [a senior official at the Polish Electricity Association and deputy director of strategy at Polska Grupa Energetyczna SA, Poland’s biggest energy company.]

Um die Last der deutschen Überschuss-Energie zu tragen, investieren Prag und Warschau derzeit Millionen in stärkere Hochspannungsleitungen und in Transformatoren an der Grenze, um die deutsche Energie direkt nach Deutschland zurückzuleiten.

CEPS und der polnische Netzbetreiber Polskie Sieci Elektroenergetyczne SA haben etwa 115 Millionen Euro für diese massiven Transformatoren ausgegeben, bekannt als Phasenschieber. Polen hat im vorigen Jahr 300 Millionen Dollar investiert, um seine Netze und Unterstationen auf den neuesten Stand zu bringen.

Full Story [paywalled]
Link: http://www.thegwpf.com/germanys-renewables-revolution-threatens-neighbours-with-grid-collapse/
Übersetzt von Chris Frey EIKE




Spekulant und Skeptiker macht Kasse mit bankrott gehenden Solarunter­nehmen

Der am meisten gehasste Spekulant gibt nicht auf

von Brian Eckhouse

Als das Unternehmen SolarCity von Elon Musk vor etwa einem Jahr Aktienanalysten zu sich einlud, um sich über ihre Chancen in der Solarbranche auszulassen, war der Name Gordon Johnson nirgendwo zu finden.

Es scheint, als ob Johnson, ein 36 Jahre alter Analyst von der Beraterfirma Axiom Capital Management Inc. nicht darunter war. Das muss nicht ein Versehen gewesen sein; es passiert ihm oftmals.

Jeder hasst mich“, sagte der in New York ansässige Analyst im Scherz, womit er seinen Ruf als berüchtigter Solar-Spekulant meinte, der für seine markigen Sprüche bekannte Contrarian unter einer Gruppe von Analysten, die im Allgemeinen optimistisch bzgl. der langfristigen Perspektiven der Industrie sind. „Unternehmen mögen mich nicht, weil ich ihre Aktienwerte einstufen kann“.

Dieser Tage hat Johnson eine Verkaufsempfehlung von jeder Aktie, der er seine Aufmerksamkeit widmet (einschließlich einiger Stahlunternehmen), und er hat einen neuen Grund – Donald Trump. Johnson geht davon aus, dass der Präsident, ein Kritiker von Erneuerbaren während seiner gesamten Kampagne, versuchen könnte, Subventionen der öffentlichen Hand für Solar zu widerrufen – eine Minderheiten-Meinung. „Dies wäre ein großes Negativum für Erneuerbare, besonders Solar“, sagt Johnson. Auch eine Steuerreform wäre schädlich.

Als Solar-Skeptiker seit seiner Anstellung bei Lehman Brothers vor einem Jahrzehnt ist Johnson nicht beliebt unter den von ihm beobachteten Unternehmen, um andere Analysten der Wall Street nicht zu erwähnen. Einige sehen in ihm lediglich ein Verbündeten von Hedge Fonds und anderen Spekulationsobjekten, die seine Kunden sind, und dass er manchmal einfach nur Glück hat bei seinen Aktivitäten, welche die anderen als „Solar-Achterbahn“ [ solar-coaster]bezeichnen.

Johnsons konträrer Standpunkt leitet sich aus einer einfachen These ab: Solar, sagt er, kann niemals mit Erdgas konkurrieren oder dieses gar ersetzen, weil Solar nicht Energie rund um die Uhr zur Verfügung stellen kann und weil Solar erheblicher Subventionen bedarf, um wettbewerbsfähig zu sein.

Mehr: https://www.bloomberg.com/news/articles/2017-02-16/frozen-out-by-ceos-solar-s-most-hated-bear-sticks-to-his-guns

Spekulantentum wird in der gängigen Presse stark geschmäht, wobei die Reporter es oftmals als ein gefährliches Spiel charakterisieren, welches von Abbruch-Unternehmen [wreckers] gespielt wird.

Die Realität ist, dass eine Spekulation nur funktioniert, falls das anvisierte Unternehmen bereits abbruchreif ist. Spekulation klärt das Nebelmeer und enthüllt die hässliche Realität hinter den Hochglanz-Broschüren und den rosigen, hochgejubelten Vorhersagen. Spekulation zwingt Investoren, unbequeme Fragen zu stellen – Fragen, von denen sich die anvisierten Unternehmen wünschen, dass sie unbeantwortet bleiben.

Ich zweifle, dass Johnson demnächst die Erneuerbaren-Unternehmen ausgehen für seine Spekulationen.

Im Artikel werden detailliert einige Fälle genannt, bei denen sich Johnson geirrt hat. Die Art der Handelsaktivitäten von Johnson sind potentiell höchst lukrativ, bergen aber meiner Ansicht nach auch ein hohes Risiko – ein Irrtum kann einen das Hemd kosten. Dein Geld, dein Risiko, deine Verantwortung.

Link: https://wattsupwiththat.com/2017/02/20/short-selling-skeptic-cashing-in-on-solar-company-collapses/
Übersetzt von Chris Frey EIKE




Fünf-Billionen-Dollar-Plan zur Rettung des Eises in der Arktis

Forscher fordern: Rettung der Arktis mit schwimmenden, mit Windenergie betriebenen Eismaschinen im Wert von 5 Billionen Dollar

Tristin Hopper am 16. Februar 2017

Angesichts des Umstandes, dass sich die Arktis rascher erwärmt als jedes andere Gebiet der Erde schlägt eine neue wissenschaftliche Studie ein radikales Programm vor, um die Eiskappe dicker zu machen: Millionen und Abermillionen autonome Eismaschinen.

Im Einzelnen mittels 10 bis 100 Millionen schwimmender, mit Windenergie betriebener Pumpen, die während des Winters Wasser auf dem Meereis versprühen sollen.

Das sind teure Vorschläge, aber mit den Mitteln von Regierungen in einer Größenordnung durchführbar, welche vergleichbar ist mit dem Manhattan Project“ [= dem Bau der ersten Atombombe in WW II. Anm. d. Übers.] heißt es in der Studie, die in der Ausgabe von Earth’s Future am 24. Januar veröffentlicht worden ist. Das Journal selbst wird von der American Physical Union vertrieben.

Der Plan wäre eines der teuersten Einzelprojekte der Weltgeschichte, ein Unterfangen in der Größenordnung der International Space Station ISS, der gesamten US-Autoindustrie oder einem großen globalen Konflikt wie dem Irak-Krieg.

Der ambitioniertesten Version des Planes zufolge würden 100 Millionen Maschinen dieser Art über die Arktis verteilt.

Nichtsdestotrotz nennen die Forscher von der Arizona State University die Kosten mit Hinblick auf das Endziel „ökonomisch machbar“ und die Auswirkung auf die Umwelt „vernachlässigbar“.

Allerdings brachten sie auch einen weniger kostenintensiven Plan im Wert von 500 Milliarden Dollar ins Spiel, dem zufolge die Eismaschinen nur etwa 10% der Arktis überdecken sollen.

Die Notwendigkeit ist dringend, lassen doch die normalen Abkühlungseffekte sommerlichen Meereises schon jetzt nach und könnten in weniger als zwei Jahrzehnten ganz verschwunden sein“, heißt es in der Studie.

Die Eismaschinen-Flotte würde so ausgestattet, dass sie einen zusätzlichen Meter Meereis in der Arktis schafft – in jedem Winter.

Der Report enthält keine spezifischen Vorschläge hinsichtlich des Designs der Wasserpumpen, beschreibt sie aber als Windturbinen und einem Tank, der auf einer Boje montiert ist.

Mehr: http://news.nationalpost.com/news/canada/save-the-arctic-with-5-trillion-of-floating-wind-powered-ice-machines-researchers-recommend

Das Abstract der Studie liest sich so:

Earth’s Future Arctic ice management

Steven J. Desch, Nathan Smith, Christopher Groppi, Perry Vargas, Rebecca Jackson,Anusha Kalyaan, Peter Nguyen, Luke Probst, Mark E. Rubin, Heather Singleton, Alexander Spacek, Amanda Truitt,PyePyeZaw, and Hilairy E. Hartnett

Mit der vonstatten gegangenen Änderung des Erdklimas hat sich die Ausdehnung des arktischen Meereises drastisch verringert. Es ist wahrscheinlich, dass die Arktis jeweils zum Ende des Sommers schon in den dreißiger Jahren dieses Jahrhunderts eisfrei ist. Dieser Meereis-Verlust stellt einen der ernstesten positiven Rückkopplungs-Effekte im Klimasystem dar, würde doch Sonnenlicht, das anderenfalls vom Meereis reflektiert werden würde, vom Ozean absorbiert. Es ist unwahrscheinlich, dass CO2-Niveau und Temperatur rechtzeitig verringert werden können, um diesen Verlust zu verhindern, darum ist die künstliche Wiederherstellung von Meereis ein Muss. [Hilfe! Und für so einen Quatsch gibt es Fördergelder – vom Steuerzahler!! Anm. d. Übers.] Hier untersuchen wir, wie man zur Verstärkung der Meereisbildung in der Arktis vorgehen könnte, und zwar mittels Windenergie, um während des arktischen Winters Wasser auf der Eisoberfläche zu versprühen, wo es schneller gefrieren wird. Wir zeigen, dass es möglich ist dort, wo geeignete Apparate zum Einsatz kommen, die Eisdicke über das natürliche Niveau hinaus zunehmen zu lassen, und zwar um etwa 1 m im Verlauf des Winters. Wir untersuchen die Auswirkungen dieses Vorgehens auf das arktische Klima, und kommen zu dem Ergebnis, dass ein derartiges Unterfangen auf 10% der Fläche der Arktis, besonders dort, wo das Überdauern des Eises marginal ist, die gegenwärtigen Trends des Eisverlustes mehr als umkehren kann. Wir regen an, dass die Verdickung winterlichen Eises mittels per Windenergie angetriebener Pumpen in Erwägung gezogen wird und sehen es als Teil einer multilateralen Strategie zur Wiederherstellung des Meereises und zum Anhalten der stärksten Rückkopplungen im Klimasystem.

Mehr: http://onlinelibrary.wiley.com/doi/10.1002/2016EF000410/epdf

Die gesamte Idee ist absurd, aber selbst wenn wir akzeptieren, dass es eines Tages aus welchen Gründen auch immer notwendig wird, Wasser auf das Meereis in dieser Größenordnung zu pumpen, wäre es viel einfacher, Kernkraft anstatt Windenergie einzusetzen.

Das in der Studie in den Abschnitten 1.3 erwähnte Energie-Budget beträgt 1300 GW Energie, 7% des gegenwärtigen globalen Energie-Budgets. Die größten, derzeit in Betrieb befindlichen Kernkraftwerke erzeugen rund 8 GW Energie. Falls man die Kosten der Konstruktion eines Reaktors mit 5 Milliarden Dollar ansetzt (man denke an Massenproduktion), würde sich die Gesamtrechnung der Konstruktion auf 800 Milliarden Dollar belaufen – drastisch weniger als die in der Studie geschätzten 5 Billionen Dollar.

Außerdem wären Kernreaktoren viel weniger in Gefahr zu vereisen wie die Turbine im Bild oben.

Ich werde nicht einmal ansatzweise Überlegungen anstellen über die Folgekosten von Unterhalt und Wartung all dieser Windanlagen in der harten arktischen Umgebung, die nichts verzeiht.

Link: https://wattsupwiththat.com/2017/02/18/five-trillion-dollar-plan-to-save-the-arctic-ice/
Übersetzt von Chris Frey EIKE