Das Trump’sche Energiezeitalter

Wenn man nach einigen Wochen USA wieder zurück ist und das Zwangsgebühren-Fernsehen einschaltet, glaubt man Nachrichten von einem anderen Stern zu sehen. Jedenfalls ist Washington ferner, als einst Bonn für “Aktuelle Kamera” und den “Schwarzen Kanal” gewesen sind. Es ist deshalb dringend zu raten, sich etwas näher mit der Energiepolitik der USA zu beschäftigen.

Was will Trump?

Hier wird immer noch von einer “Unberechenbarkeit des POTUS (President Of The United States)” geschwafelt. Die Wirklichkeit ist anders: Für deutsche Verhältnisse offensichtlich unbegreiflich, handelt es sich bei Trump um einen Mann – die Bezeichnung Politiker wird an dieser Stelle bewußt nicht verwendet – der das ausspricht, was er denkt und es anschließend auch umsetzt. Wer die unzähligen Wahlkampfauftritte aufmerksam verfolgt hat, ist von keinem seiner Schritte überrascht.

Trump ist kein Politiker und er wird wahrscheinlich auch nie einer werden, weil er es gar nicht sein will. Er ist ein Vollblut-Unternehmer in des Wortes ursprünglicher Bedeutung. Der Kosmos “Washington” ist ihm so fremd und so zuwider, daß er nur noch vom Sumpf spricht. Getreu seinem Vorbild Ronald Reagan: Der Staat ist nicht die Lösung, der Staat ist das Problem. Bezeichnenderweise wird genau dieser Präsident bis zum heutigen Tage in Deutschland gern als Schauspieler verunglimpft. Anders in den USA: Dort wird er – unabhängig von der Parteizugehörigkeit – inzwischen zu den zehn besten Präsidenten gezählt, die es je in der Geschichte der USA gegeben hat. Freilich gemessen an ihren Taten und nicht an irgendeinem Geschwafel aus den Lehrbüchern der “politischen Wissenschaften”. Obama war der Prototyp des Schönsprechers schlechthin. Er hat diesen Stil soweit auf die Spitze getrieben, bis er sogar farbige Wähler, Minderheiten und vor allem die sogenannte Arbeiterschaft (die traditionelle Wählerschaft der Demokraten) in das Trump’sche Lager getrieben hat.

Trump ist Patriot. Das kann man mögen oder nicht. Er wurde in Schule und Elternhaus so erzogen und er ist von der Kraft der Bibel und der Verfassung zutiefst überzeugt und kann aus beiden auswendig zitieren. Wer glaubt, >>America first again<< sei nur ein flotter Spruch einer Wahlkampfagentur gewesen, hat diesen Mann und seine Anhängerschaft in keiner Weise verstanden. Ganz im Gegenteil: Das gesamte Trumplager ist geradezu beseelt von dem Gedanken, die USA wieder großartig zu machen und sie haben auch ganz klare Vorstellungen wohin die Reise gehen soll: Mehr Wohlstand, mehr Freiheit und Verantwortung für den Einzelnen und größere Stärke nach außen, um diese Werte jederzeit verteidigen zu können – ein Frontalangriff auf jede linke Ideologie.

Wer sich hier der Illusion hingibt, ein paar “Kulturschaffende” oder gewalttätige “Antifanten” könnten den personifizierten linken Albtraum bald vertreiben, wird sich täuschen: Hält Trump Kurs, wird er mit überwältigender Mehrheit wieder gewählt werden und der “American way of live” wird wieder einmal für viele zum Vorbild werden. Wie zielstrebig und hartnäckig der “Baulöwe” ist, hat er bereits in seinem bisherigen Leben unter Beweis gestellt: Jedes seiner Bauprojekte war umstritten und von vielen “Experten” als undurchführbar erklärt worden. Gleichzeitig liegt aber in seinem Erfolg auch sein persönliches Risiko: Er könnte Opfer – wie Ronald Reagan – eines Attentats werden.

Der Stellenwert der Energie im Trump’schen Plan

Trump weiß, daß Energie die wirtschaftliche Schlüsselgröße ist: Mit Energie geht alles, ohne (preiswerte) Energie geht nichts. Er hat deshalb sofort mit der Entfesselung begonnen. Bereits in der Übergangszeit zwischen seiner Wahl und seinem Amtsantritt hat er zahlreiche Dekrete unterschriftsreif ausgearbeitet und diese ohne zu zögern bei Amtsantritt in Umlauf gebracht. Diejenigen in der Industrie, die ihm schon vorher aufmerksam zugehört hatten, haben sich parallel auf das zu erwartende vorbereitet. Die “Energieexperten” in Deutschland reiben sich noch heute die Augen, warum Benzin und Diesel plötzlich wieder rund 50 Eurocent in den USA kostet. Geschweige, begreifen sie auch nur annähernd die Konsequenzen. Sie verharren lieber weiter in ihrer Traumwelt aus Wind, Sonne und Elektroautos.

Wenn man Wohlstand will, muß man Arbeitsplätze gestatten. Für Arbeitsplätze braucht man ein nachgefragtes Produkt. Sich gegenseitig die Haare zu schneiden – wie es mal ein in Ungnade gefallener SPD-Politiker treffend formuliert hat – oder staatliche Arbeitsbeschaffungsmaßnahmen, bringen gar nichts. Öl, Gas und Kohle werden überall auf der Welt zu kalkulierbaren Preisen nachgefragt. Amerika hat sie in unvorstellbaren Mengen. Man muß nur Förderung, Abbau und Handel gestatten.

Wie einfach “Wirtschaftswunder” geht, kann man im gesamten Süden der USA beobachten. Mit den Bohrtürmen, Pipelines und Tanklagern kommen die Arbeiter, die so etwas bauen. Diese brauchen aber Essen und Unterkunft. Es entstehen überall Motels und Restaurants. Diese wiederum müssen gebaut und renoviert werden, was das lokale Handwerk fördert. Aus Dörfern werden Kleinstädte – wie einst im Ölboom der 1920er Jahre. Es folgen die Familien, die Schulen und Kindergärten etc.

Und die Löhne steigen. Ganz ohne Gewerkschaftsfunktionäre, sondern durch Nachfrage. Sicheres Anzeichen dafür, sind heute schon die Schilder am Straßenrand: Wir stellen sofort ein. Üblich sind für einen LKW-Fahrer im Ölgeschäft 1.500 bis 2.000 Dollar – pro normaler Arbeitswoche. Wer bereit ist, auch nachts und am Wochenende (Zuschläge) zu fahren, auf Urlaub verzichtet, kommt auf bis zu 200.000 Dollar Jahreseinkommen. Wohlgemerkt als LKW-Fahrer. Bei Steuern und Sozialabgaben, die davon sogar etwas übrig lassen. Viele ziehen das einige Jahre durch und haben dann ein schuldenfreies Eigenheim. Man sieht auch immer mehr Frauen im Transportsektor. Sie verdienen halt mehr, als eine Friseuse oder Kindergärtnerin. Gleichberechtigung auf Kapitalismusart, ganz ohne Gendergedöns.

Wie wurde der Ölboom möglich?

Fachleuten war schon immer klar, daß die Ölvorräte (bezogen auf die heutigen Förderraten) nach menschlichen Maßstäben schier unerschöpflich sind. Alles nur eine Frage der Fördermethoden und der aktuellen Preise. Akzeptiert man das, ist es nur ein kleiner Schritt, Förderbeschränkungen und Handelsschranken abzuschaffen. Befreit man sich erst einmal von Irrlehren wie “Peak Oil”, “Klimakatastrophe” und dem Försterspruch von der “Nachhaltigkeit”, geht alles ganz schnell.

Trump brauchte nur die diversen Bohr- und Förderschikanen aus der Obamazeit außer Kraft setzen und schon wurde wieder gebohrt. Je mehr gebohrt wird, um so mehr wird in die Technik investiert und um so billiger werden die Bohrungen. Selbst Fachleute sind über den Preisverfall erstaunt. Je billiger das Öl wird, um so mehr steigt die Förderung. Hinter diesem vermeintlichen Widerspruch steht einfach die unsichtbare Hand des Marktes. Ökonomisch betrachtet, besteht kein Unterschied zwischen Computern und Öl.

Das Öl muß aber noch zum Verbraucher. Pipelines sind nach wie vor die günstigste und sicherste Methode. Trump hat per Federstrich die Verbote von Obama außer Kraft gesetzt. Schon flossen die Milliarden in diesen Sektor. Über die fadenscheinigen Gefahren für die Umwelt, wird man in einigen Jahren nur noch schmunzeln, wenn man sich überhaupt noch daran erinnert.

Je mehr Öl und Ölprodukte exportiert werden, je geringer werden die Inlandspreise. Seit den 1970er Ölkrisen gab es gravierende Exportbeschränkungen in den USA. Getreu der Lehre vom “peak oil”mußte mit dem kostbaren Saft sparsam umgegangen werden. Öl und insbesondere Gas ist aber wertlos, so lange es nicht vom Bohrloch zum Verbraucher gelangen kann. Je schlechter die Transportkette ist, um so höher sind die Abschläge für den Förderer. Dies führte dazu, daß die Ölpreise in den Weiten der USA weit unter den Weltmarktpreisen lagen. Kein Anreiz für Investoren. Es wurden lieber Raffinerien an der Küste gebaut und teures Importöl verwendet. Je mehr die Exportbeschränkungen gelockert wurden, um so mehr stieg die Nachfrage an. Es trat das ein, was viele jahrelang bestritten haben: Die Preise an den Tankstellen sanken, denn plötzlich gab es Inlandsöl zu Weltmarktpreisen. Durch die Skaleneffekte sanken die Produktionskosten. Viel schneller, als sich Saudi Arabien etc. vorstellen konnten.

Der Gassektor

Ausgelöst durch die technische Entwicklung von Bohr- und Fördertechnik für Schiefergas – hier als “fracking” bezeichnet – gab es plötzlich Erdgas im Überfluß. Die Preise fielen gewaltig. Die Technik wurde schnell auf die Ölförderung übertragen. Zum Überdruss tritt aber selten Gas und Öl alleine auf. Zumeist kommt aus jeder Ölquelle auch Begleitgas und aus jeder Gasquelle zumindest auch Kondensat (damit wird Rohöl besonders dünner Konsistenz bezeichnet). Plötzlich hatte man auch – insbesondere in den Ölfördergebieten des Permian-Basin und Bakken – Erdgas im Überfluss. Es mußten schnellstens Pipelines gebaut und zusätzliche Nachfrage geschaffen werden. Übergangsweise blieb nur das Verfeuern in Gaskraftwerken, was die Sektoren Kohle und Kernenergie (vorübergehend) kräftig durcheinander brachte.

Inzwischen baut man riesige Gasverflüssigungsanlagen und eine ganze Tankerflotte. Ziel ist es, sich die weitaus höheren Weltmarktpreise für Erdgas zu erschließen. Durch die steigenden Inlandspreise kann man die Förderung weiter ankurbeln und die anderen Energiesektoren wieder weiterentwickeln.

Kohle

Die USA sind (auch noch) ein Kohlenland. Sie verfügen über riesige Vorräte, die sich überwiegend noch im Tagebau gewinnen lassen. Als Trump im Wahlkampf angetreten ist und den Bergleuten versprochen hat, ihnen ihre Arbeitsplätze zurückzugeben, hat jede Telepromter-VorleserIn in der deutschen Medienlandschaft sich bemüssigt gefühlt, ihn mit Spott und Häme zu überziehen. Inzwischen hat die erste Kohlenmine seit 45 Jahren neu eröffnet und die Produktion zieht langsam wieder an. Die Nachfrage steigt weltweit immer weiter. Nicht nur in Entwicklungsländern. Trump hat nie behauptet, daß er die Kohle ausschließlich in den USA verfeuern will. Auch hier hätte man besser zuhören sollen.

Für den Verbrauch im Inland liegt der Schlüsselpreis bei etwa 2,3 $/MMBtu (1 Million British Thermal Units entspricht etwa 293 kWh) Wärmepreis. Liegt der Erdgaspreis darunter, werden die Gasturbinen angeworfen. Steigt das Erdgas über diesen Wert, übernehmen die Kohlekraftwerke wieder die Stromproduktion. Eigentlich ein sehr flexibles System. Obama wußte das auch und hat deshalb versucht die Kohlekraftwerke durch “Klimaschutz” auszuschalten.

Als Trump bei seinem werbewirksamen Fernsehauftritt mit Bergarbeitern den Spuk der Obama-Administration zurückgenommen hat, hat er immer wieder beschwörend den Begriff “clean coal” benutzt. Darunter versteht man nicht einfach “saubere Kohle”, sondern es ist ein Fachausdruck für CO2-Abscheidung. Nicht etwa zum “Klimaschutz”, sondern die Ölindustrie wartet sehnsüchtig auf große CO2 Ströme. Wenn die endlich bereitgestellt werden, kann man für sehr kleines Geld die bereits versiegten Ölquellen wieder reaktivieren und die Märkte endgültig mit billigem Öl fluten. Auch dies eine Entwicklung, die in Deutschland völlig verdrängt und verschlafen wird. Hier redet man sich lieber gegenseitig von der Zukunft des Elektro-Autos besoffen.

 

Der politische Aspekt

In Deutschland wird den Menschen seit ihrer Schulzeit eingehämmert, daß die USA Kriege nur um Öl führen. Dies war zwar schon immer Blödsinn, gehört aber inzwischen zu den festen Glaubensbekenntnissen linker Gutmenschen. Wer ein Gefühl dafür haben will, wie tief diese Propaganda viele Amerikaner verletzt, sollte sich mal mit Veteranen des Golfkriegs unterhalten. Inzwischen schlägt die Reaktion geradezu in Trotz um. Man will nicht nur von Ölimporten unabhängig werden, sondern es den “Feinden Amerikas” heimzahlen und ihnen ihr bequemes Leben durch Öleinnahmen wegnehmen. Es ist kein Zufall, daß auf den Bohrtürmen in Texas die amerikanische Fahne weht und viele Öltanks in der Wüste mit “remember 9/11” verziert sind. Im konservativen Amerika hat man längst begriffen, daß die wahre Macht der USA nicht seine Bomber, sondern seine Wirtschaftskraft ist. Genau darum geht es den Kreisen um Trump und das ist der politische Hintergrund der Parole “Make America Great Again”.

Eine besondere Stellung nimmt hierbei das (alte) Europa ein. Die Kritik an den nicht eingehaltenen Zusagen über die Verteidigungsausgaben ist nur das erste Wetterleuchten am Horizont. Die Stimmung in der Bevölkerung geht schon viel weiter: Man versteht es nicht, warum Europa mit seinen Energieausgaben Rußland füttert und anschließend Amerika deshalb seine Rüstungsausgaben erhöhen muß. Auch in dieser Frage sollte man nicht vergessen, daß das Vorbild von Trump Ronald Reagan ist. Reagan hat das “Reich des Bösen” dadurch zur Implosion gebracht, indem er auf das Wettrüsten voll eingestiegen ist und die Spirale beschleunigt hat. Man nannte diese Strategie damals in Deutschland abfällig den “Krieg der Sterne”. Nach dem Zusammenbruch des Sowjetreiches folgte eine lange Periode der Sympathie für Rußland in den USA. Inzwischen schlägt die Stimmung um: Man fühlt sich wieder bedroht und hintergangen. In der Deutschland eigenen Realitätsverweigerung und dem völligen Unverständnis der amerikanischen Mentalität wird das hier zur Wahlkampfposse zwischen Trump und den Clintons verniedlicht. Die Falken in den USA kommen langsam in eine Stimmung gegenüber Putins Reich, wie gegenüber Japan nach Pearl Harbor. Wenn Rußland weiter aufrüstet und Weltreich spielt, werden sie ihre Panzer und Kernwaffen diesmal nach nordkoreanischem Vorbild essen müssen.

Amerika bereitet sich darauf vor, die Öl- und Gaspreise jederzeit ins Bodenlose fallen lassen zu können. Staaten – wie Deutschland – die auf Rußland setzen (Ostseepipeline etc.), werden mit in den Strudel gezogen werden. Die Amerikaner bevorzugen immer simple Lösungen: O.K., wir haben im Moment keine Waffe gegen die U-Boote der Nazis, also müssen wir Schiffe schneller bauen als die Deutschen sie versenken können – hört sich aberwitzig an, hat aber funktioniert. Wenn Rußland weiter aufrüstet, o. k. dann müssen wir ihnen eben ihre einzige Einnahmequelle kaputt machen, indem wir die Energiepreise unter ihre Produktionskosten senken – einmal so betrachtet, ist die Nord-Korea-Frage ein Testlauf. Das Energiewende-Deutschland wird schon in wenigen Jahren ein böses Erwachen haben.

Übernommen von NUKEKLAUS hier 




Eigenschaften der Windenergie: Solide Gründe dafür und dagegen

Bericht STT:

Wäre die Windenergie ein Pferd, hätte ihr Besitzer es schon längst erschossen. Stattdessen, von ideologischen Eiferern bejubelt und endlos mit leistungssteigernden Subventionen vollgepumpt, fährt es fort, sich irgendwie zu vermehren.

Unmöglich chaotisch in der Lieferung von Energie, fängt es das Rennen niemals pünktlich an und beendet nutzlos es leider nicht, auch wenn es gelingt, es aus seinem Ruheplatz zu bewegen.

Als STT-Anhänger sind Sie sich bewusst, dass diese Website der Wind-Industrie gewidmet ist und den Blutegeln, die daraus zu Lasten der Betroffenen Profit generieren wollen.

In Deutschland ist es unser englischsprachiger Doppelgänger No Tricks Zone, der die Dinge weiterhin mit der gleichen Intensität liefert. In diesem Beitrag zieht Pierre Gosselin eine Bilanz mit acht sehr festen Gründen, die Windkraft mit Leidenschaft zu hassen.

 

8 Solide Nachteile der Windkraft: Trifft jeden, der es aushalten muss
Kommentiert von No Tricks Zone, Pierre Gosselin, 16 July 2017

Die Texte in kursiv, sind als Teilkopien der Argumente in strompreisvergleich24 zu finden; der Übersetzer.

 

Es gibt acht Nachteile, die nicht ignoriert werden können, schreibt die deutsche Webseite. Was folgt, sind die acht Gründe zusammen mit meinen (Pierre Gosselin) eigenen Beschreibungen.

 

Strompreisvergleich24, Nachteile von Windenergie, 8 Gegenargumente

  1. Unstabile, unregelmäßige Stromversorgung

Strompreisvergleich24:

Hier zeigt sich, dass zusätzliche Energiequellen unerlässlich sind und Windkraftanlagen nicht als einzige Energiequelle infrage kommen. Die mangelnde Konstanz ist einer der größten Nachteile von Windenergie. Energiegewinnung per Windkraft bietet sich deshalb lediglich als unterstützende Maßnahme an.

No Tricks Zone:

Der Wind weht nicht ständig und so ist die Versorgung instabil und wild schwankend. An vielen Orten kann der Wind für Tage oder sogar Wochen ausbleiben. Und dann kann bei starken Winden das Stromnetz durch das Überangebot überlastet werden, oder die Turbinen müssen abgeschaltet werden, um schwere mechanische Beschädigungen zu vermeiden. Insgesamt haben die Windenergieanlagen in Deutschland nur knapp 18% ihrer installierten Nennkapazität generiert.

  1. Windkraftanlagen sind teuer

Strompreisvergleich24:

Man muss kein Experte sein, um zu erkennen, dass die Errichtung von Windkraftanlagen in solchen Gebieten teurer ist, als beispielsweise auf dem flachen Land. Aus diesem Grund sind oft staatliche Subventionen nötig, um die Kosten für den Bau von Windkraftanlagen an rentablen Orten überhaupt stemmen zu können.

Wenn Windräder allerdings erst einmal stehen und ihre Arbeit aufgenommen haben, amortisieren sich die Kosten innerhalb von kurzer Zeit.

No Tricks Zone:

Der Return-off-Investment für Windkraftanlagen kann viele Jahre dauern und macht nur an Orten Sinn, wo der Wind oft weht, z.B. Küstengebiete, Offshore- oder Hügelkuppen. Aber das macht die Installation viel teurer. Viele Investoren haben sehr enttäuschende Ergebnisse von Windprojekten gesehen. Darüber hinaus sind in Deutschland die Strompreise in den vergangenen Jahren zum großen Teil durch die obligatorische Einspeisung von Windenergie stark gestiegen.

 

  1. Überschüssige Leistung ist extrem schwierig zu speichern

Strompreisvergleich24:

Zwar gibt es die Möglichkeit der Energiespeicherung in einem Pumpspeicherkraftwerk, diese können allerdings aufgrund des komplizierten Aufbaus nicht überall errichtet werden und stehen auch sonst häufig in der Kritik – vor allem aufgrund ihrer Ineffizienz.

Einen Lichtblick gibt es allerdings: Aktuell versuchen Forscher die Energie des Windes in Form von Wasserstoff und Methan – also in Form von Gas – zu speichern. Gas kann wiederum gelagert und zu einem späteren Zeitpunkt genutzt werden. Power-to-Gas – so nennt sich diese Art der Energieumwandlung – befindet sich aktuell jedoch noch in der Entwicklung.

No Tricks Zone:

Bisher sind Wissenschaftler und Ingenieure noch weit davon entfernt, eine Lösung für die Speicherung von Elektrizität zu finden. Batterien sind teuer und schwer und erfordern massive, umfangreichen Bergbau für seltene Metalle. Pumpenspeichertechniken sind nur an begrenzten Stellen möglich und auch sie sind schrecklich ineffizient. Umwandlung von Wind-Strom in ein Gas wie Wasserstoff und dann wieder in Strom, wenn der Wind nicht bläst ist teuer und hat einen sehr schlechten Wirkungsgrad.

 

  1. Zerstörung des natürlichen Lebensraumes

Strompreisvergleich24:

Es gibt nur eine Art, wie man diesen Vorgang verhindern kann: Fachkundige Biologen müssen das Gebiet vor dem Bau auf bedrohte Tier- und Pflanzenarten hin überprüfen. Dies gilt sowohl für Gebirge, für das Flachland und für Küstengebiete. Werden bedrohte Tierarten entdeckt, muss das Bauvorhaben gestoppt werden – Artenschutz geht immer vor.

No Tricks Zone:

Da die Installation von Windkraftanlagen in Wohngebieten problematisch ist, befinden sich Windparks oft in ländlichen oder naturgeschützen Gebieten – auch in der Mitte der Wälder. Dies bedingt die Industrialisierung der natürlichen Lebensräume. Pflanzen und Wildtiere verlieren ihre Habitate oder sind nachteilig betroffen. Bereiche werden oft entwaldet, um Platz für die Windtürme zu machen. Zufahrtswege reißen Schneisen in die Wälder, schädigen das lokale Biotop dauerhaft oder zerstören es sogar. Gleiches gilt für Offshore-Windkrafttürme. Auch diese stellen oft eine Gefahr für dort lebende Tierarten dar.

 

  1. Vogelmord: Tod durch Windflügel

Strompreisvergleich24:

In den USA werden beispielsweise laut der renommierten Fachzeitschrift Nature bis zu 440.000 Vögel im Jahr von Windkraftanlagen getötet. Im Vergleich zur Vogeltötung durch Autos, Pestizide und Strommasten ist diese Zahl allerdings lächerlich gering und fast schon vernachlässigbar. Entsprechende Zahlen finden Sie im verlinkten Artikel.

No Tricks Zone:

Als ob die Industrialisierung von Naturlandschaft nicht schlimm genug wäre, sind die Windenergieanlagen auch eine echte Gefahr für die Vögel. Jedes Jahr werden Millionen von Vögeln (unnatürlich) von Windenergieanlagen weltweit getötet. Nach dem Magazin „Nature“ werden in den USA bis zu 440.000 Vögel jedes Jahr getötet. Konventionelle Kraftwerke hingegen töten nicht annähernd so viele Vögel. Besonders Fledermäuse sind durch Windkraftanlagen gefährdet.

In dem verlinkten Artikel auf Nature fand ich (Demmig) kein richtiges Gegenargument:

Nature

… Die spanische Ornithologische Gesellschaft in Madrid schätzt, dass Spaniens 18.000 Windkraftanlagen jährlich 6 Millionen bis 18 Millionen Vögel und Fledermäuse töten. „Ein Flügel schneidet einen Gänsegeier halb durch“, sagt Bechard. „Ich habe sie nur enthauptet gesehen.“

Windkraftanlagen töten im Laufe des Jahres weit weniger Vögel, als viele andere Ursachen, die mit Menschen verbunden sind, einschließlich Hauskatzen und Kollisionen von Vögeln mit Glasfenstern. [das war‘s, keine Zahlen, keine Quellen, der Übersetzer] Aber die Windkraft hat eine unverhältnismäßige Auswirkung auf bestimmte Arten, die bereits ums Überleben kämpfen, wie die prekäre US- Golden Eagle [Steinadler] ( Aquila chrysaetos canadensis ).

„Die beunruhigende Frage mit der Windentwicklung ist, dass wir sehen, dass eine wachsende Zahl von Vögeln der Erhaltung von Windkraftanlagen getötet wird“, sagt Albert Manville, ein Biologe mit dem US Fisch- und Wildtierdienst in Arlington, Virginia.

 

  1. Gefahr von Eiswurf

Strompreisvergleich24:

Zum einen wird es in Deutschland normalerweise gar nicht kalt genug, sodass sich solch dicke Eisschichten gar nicht erst auf den Rotorblättern bilden können, zum anderen sind sich die Hersteller dieses Problems bewusst, sodass entsprechende Gegenmaßnahmen für den Ernstfall eingebaut werden (zum Beispiel Eisabschaltsysteme).

No Tricks Zone:

In der Winterzeit kann sich Eis auf den Flügeln bilden und später als Geschosse herabgeworfen werden, was eine Gefahr für Menschen und Eigentum in der Nähe der Windanlagen darstellt. Treffer in der Nähe von Windanlagen wurden berichtet.

 

  1. Ästhetik und Immobilienwerte

Strompreisvergleich24:

Das Landschaftsbild wird durch Windkraftanlagen – und durch zusätzliche Strommasten – nachhaltig geprägt, was vor allem Naturliebhabern übel aufstößt.

Des Weiteren schrumpfen die Immobilienpreise normalerweise, sobald sich Windräder in Sichtweite befinden. Wenn neue Windkraftanlagen gebaut werden sollen, kommt es deshalb meist zu einem Aufschrei der Vermieter.

No Tricks Zone:

In früheren Zeiten waren die Windmühlen eine Faszination. Aber heute sind sie sehr viel größer und die Leute sind die Hässlichkeit leid geworden. In Norddeutschland ist es oft schwierig, sein Haus zu verlassen, ohne einen Windpark zu sehen. In Deutschland gibt es buchstäblich Hunderte von Bürgerinitiativen gegen den Bau von Windparks. Die Menschen sind die Industrieanlagen mitten in der Natur wirklich satt.

Windenergieanlagen in der Sichtweite reduzieren die Immobilienwerte ernsthaft.

 

  1. Windkraftanlagen erzeugen Lärm und Infraschall

Strompreisvergleich24:

Auch wenn es aus der Ferne immer so wirkt: Windkraftanlagen sind nicht lautlos. Natürlich ist die Empfindung von Lärm eine individuelle Angelegenheit – einige Menschen können sich allerdings am Lärm von Windkraftanlagen stören. Wir finden den Lärm von Straßenverkehr allerdings bedeutend schlimmer, zumal man sich normalerweise nicht direkt unter ein Windrad stellt.

Beim Bau von Windrädern müssen deshalb bestimmte Grenzwerte eingehalten werden. Zudem muss ein gewisser Mindestabstand zu Wohngebieten eingehalten werden, wenn neue Windkraftanlagen errichtet werden.

Fazit: Nachteile von Windenergie

Anhand der hier vorgestellten Nachteile von Windenergie erkennt man recht deutlich, dass es so etwas wie die perfekte Energiequelle nicht gibt. Jede Art der Energiegewinnung ist sowohl mit Vor- als auch mit Nachteilen verknüpft. Wir finden jedoch, dass die Vorteile von Windenergie überwiegen.

No Tricks Zone:

Windkraftanlagen sind nicht leise. Darüber hinaus produzieren sie Infraschall: Niederfrequente Geräusche an und unterhalb der menschlichen Hörschwelle. Infraschall durch das Innenohr als Druckimpulse wahrgenommen. Wissenschaftlich ist bestätigt worden, dass dieses Menschen krank macht und sogar gesundheitsschädlich ist.

Der Übersetzer: Besonders störend ist selbst ein relativ geringer Lärmpegel [35 … 39 dBA, was nach Norm erlaubt ist] in einer ansonsten sehr ruhigen Landgegend – [nachts nahezu 0 dBA Umweltgeräusche – wo ich wohne, in der Nähe zu Windanlagen mit 200m Höhe]

***

Hier noch ein neuntes Argument gegen Windkraftanlagen:

Quelle: http://windwahn-selters-ts.de/links-zu-artikeln/;

Brennende Windkraftanlage bei Isselburg im Münsterland.

 

Strompreisvergleich24, Vorteile von Windenergie, 7 Pro-Argumente

  1. Wind ist eine unbegrenzte Ressource

Strompreisvergleich24:

… Er ist kostenlos, reichlich vorhanden, (fast) kontinuierlich verfügbar und wird uns von der Natur gegeben. … – der Wind weht so gut wie immer.

Während die Kohle- und Ölvorräte des Planeten früher oder später aufgebraucht sein werden, wird der Wind noch immer über die Erde fegen. Selbst in ferner Zukunft, wenn es die Menschheit vielleicht schon gar nicht mehr gibt. Wenn es um die Vorteile von Windenergie geht, dann sollte dieses Argument stets als erstes erwähnt werden.

Realitätscheck Eike:

Das Argument: „Irgendwo weht der Wind immer“ und die daraus abgeleitete Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, ist allerdings an Hand der realen Daten niemals eingetreten. Das gilt auch für die vielgepriesenen Offshore Windräder. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern für ganz Europa. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert der Windstromproduktion von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Man bedenke: bei Windstille werden europaweit gerade mal 6.500 Megawatt von installierten 150.000 Megawatt Wind erzeugt. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der insgesamt installierten Nennleistung. Oder anders gesagt: von den 150 „Wind-Großkraftwerken von je 1000MW“ produzieren europaweit gerade mal noch sechs. Der Rest steht nur so rum und wartet auf Wind.

Die schlechte Nachricht ist: Windenergie trägt praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare konventionelle Backup-Kraftwerke.

Dies erfuhren Sie bereits hier, aussagekräftig dafür die Grafik mit der Häufigkeit der verfügbaren Windleistung über ganz Deutschland.

Das kann man auch bei den Energieerzeugern erfahren, hier die Windstudie als Folienvortrag der VBG

 

  1. Sehr geringer Schadstoffausstoß

Strompreisvergleich24:

Wenn Windkraftanlagen erst einmal in Betrieb genommen wurden, ist quasi kein Schadstoffausstoß mehr vorhanden. … Alles in allem handelt es sich bei Windenergie um eine der saubersten Formen der Energiegewinnung mit einer positiven CO2-Bilanz.

Der kaum vorhandene Schadstoffausstoß sorgt übrigens auch dafür, dass in der Nähe von Windkraftanlagen dennoch Wohnflächen existieren können. Diese müssen zwar aufgrund der Geräuschentwicklung einen bestimmten Abstand halten, dieser muss allerdings nicht so groß sein wie bei Kohlekraftwerken.

[Abstand bei Kohlekraftwerken großer Leistung: 1.500 m]

Realitätscheck Eike: …3) Die Befürworter erneuerbarer Energie widmen dem erforderlichen Landverbrauch und den Rohmaterialien keinerlei Aufmerksamkeit, ebenso wenig wie den damit verbundenen Umweltauswirkungen bei der Einrichtung von Wind-, Solar- und Biotreibstoff-Programmen in einer Größenordnung, welche den gegenwärtigen und weiter zunehmenden Energiebedarf der Menschheit decken kann, vor allem, wenn es darum geht, den Lebensstandard in Entwicklungsländern zu erhöhen.

Selbstverständlich gehören die Emissionen von im standby laufenden Kraftwerke zu dem durch EE generierten Schadstoffausstoß, denn ohne back-up Sicherheit gegen Stromausfälle kann ein Industrieland nicht existieren. Diese und noch weitere Umweltschäden kommen hinzu, wegen des Abbaus von seltenen Erden, lesen Sie hier. (und auch bei 5.)

 

  1. Windenergie gut für rohstoffarme Länder

Strompreisvergleich24:

Länder wie Deutschland, die relativ arm an natürlichen Rohstoffen sind, müssten viel Strom importieren, wenn es keine erneuerbaren Energien gäbe. Statt auf teuren Import, setzt Deutschland allerdings lieber auf Windkraft- und Solaranlagen und verschafft sich somit einen enormen wirtschaftlichen Vorteil gegenüber anderen Nationen.

Realitätscheck: Das ist schlichte Propaganda, denn wer soll hier Wertschöpfung betreiben können, wenn es keine gesicherte Stromversorgung gibt. Die Erläuterung gilt wie oben bei Punkt 1, hier und hier.

 

  1. Windkraftanlagen schaffen Arbeitsplätze

Strompreisvergleich24:

Am offensichtlichsten sind dabei die Jobs der Handwerker, die bei der Produktion, beim Aufbau und bei der Wartung zwingend benötigt werden.

Biologen müssen beispielsweise vor dem Bau das Areal untersuchen und herausfinden, ob es bedrohte Tierarten oder seltene Pflanzen gibt, deren Heimat durch den Bau der Windkraftanlagen zerstört werden könnten. Des Weiteren müssen sich Juristen um Baugenehmigungen und um die Klärung rechtlicher Fragen kümmern. Wenn Windparks vor der Küste gebaut werden, dann kommen außerdem noch Reedereien mit ins Spiel.

Realitätscheck Eike: Dieser Mythos von vielen neuen Arbeitsplätzen durch Windanlagen (und andere EE) stirbt nicht aus. Das als Argument nun auch die Juristen angeführt werden, ist mir allerdings neu. Wie viele solide Arbeitsplätze sind denn z.B. durch den Niedergang oder Wegzug der Industrie unwiederbringlich verloren gegangen? Lesen Sie hier und hier und hier, dass sich die Sache mit den Arbeitsplätzen bereits seit mehreren Jahren nicht gebessert hat.

 

  1. Wind stinkt nicht

Strompreisvergleich24:

Wer in der Nähe von einem Kohlekraftwerk wohnt, der kennt das Problem: Solche Anlagen können eine ziemliche Geruchsbelästigung darstellen. Windräder produzieren ebenfalls Strom, allerdings sind sie dabei geruchlos. Optisch kann man von Windrädern halten, was man möchte – die Nasen der Anwohner belästigen sie jedoch nicht.

Realitätscheck Eike: Wer die alten, mit schlechter Braunkohle betriebenen Kohleöfen noch in Erinnerung hat (meine Großmutter drosselte die Wärmeabgabe meist nur durch mehr oder weniger Luftzufuhr, der weiß wie diese Abgase stinken. Die moderner Filtertechnik laufenden Kohlkraftwerke haben damit aber überhaupt nichts mehr zu tun. Ich selbst war mal bei einer Inbetriebnahme dabei: Die Luft kam sauberer raus, als sie reinging. Hier mal ein Verweis auf Wikipedia. (Das Geruchsproblem stellt sich bei Biogasanlagen mit größerer Intensität).

 

  1. Stetige Weiterentwicklung der Anlagen

Strompreisvergleich24:

Windkraftanlagen werden von Ingenieuren immer weiter verbessert. Die heutigen Windräder produzieren beispielsweise deutlich mehr Strom, als es noch vor 20 Jahren der Fall war. … Wer weiß, welche Windräder uns in Zukunft zur Verfügung stehen werden?

Jedoch: Die Weiterentwicklung kostet ebenfalls Geld, weshalb man davon ausgehen kann, dass sich Kosten und Nutzen insgesamt gesehen neutralisieren.

Realitätscheck Eike:

Die heutigen Windkraftanlagen können bezüglich Flügelbildung bereits auf mehr-hundertjährige Entwicklung zurückblicken. Die maximale Ausbeute der Windenergie ist physikalisch bestimmt – hier greifen auch die Verbesserungen der Flugzeugbauer, für die Gestaltung der Flügel. Die Entwicklungen der letzten Jahre bezogen sich hauptsächlich auf Wirkungsgradverbesserung der Generatoren.  (Einsatz von Dauermagneten (Neodym) für die Erregung, spart Erregerleistung ein. Wesentliche Verbesserungen der bestehenden Anlagen sehe ich nicht. (Mein Studium und Praxis: Energietechnik). Zu erwarten ist, dass die Anlagenbauer in Richtung „höher“ und „mehr Leistung“ (größere Flügel) gehen werden. Die Kosten steigen jedoch auch überproportional. Fazit: Neutral. Die Windbranche schreibt dazu.

 

  1. Dauerhaftes Einkommen für Gemeinden

Strompreisvergleich24:

Wenn Windkraftanlagen auf dem Gelände von Gemeinden errichtet werden, dann erhalten diese Pachteinnahmen, solange die Windräder Strom produzieren. So hat im Endeffekt auch der Steuerzahler etwas davon.

Realitätscheck Eike: Das mag an windreichen Standorten an der Küste noch so sein. Im Inland und an den nun angegangen windschwachen gebieten (Merke:  Bürgerwindparks begrenzen das Risiko für die Planer und Erbauer). Lesen Sie hier über die ausbleibende Gewinne und hier.

Fazit: Vorteile von Windenergie

Strompreisvergleich24:

Windenergie ist eine grandiose Art der Energiegewinnung, die uns unser Planet kostenlos zur Verfügung stellt. Warum sollte man sie also nicht nutzen? Windenergie hat allerdings nicht nur Vorteile. Die Nachteile von Windenergie haben wir ebenfalls für Sie aufgelistet.

Dem ist weiter nichts hinzuzufügen, als …

Bürgerinitiative Marienthal, Windkraftgegner

***

Gefunden auf STT am 19.08.2017

Übersetzung und Realitätscheck Andreas Demmig

https://stopthesethings.com/2017/08/19/hateful-eight-8-solid-reasons-why-subsidised-wind-power-is-both-pointless-harmful-to-health-wealth/

http://notrickszone.com/2017/07/16/wind-energys-8-serious-disadvantages-hurts-everything-from-wealth-to-health/#sthash.FIXqHrz7.dpbs

https://www.strompreisvergleich24.com/erneuerbare-energien/vorteile-von-windenergie/




Deutschlands Autoindustrie: Mord auf offener Straße? – Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (1)

Wer wissen will, wie perfide das Spiel ist, das unsere Politiker derzeit mit dem Recht des Bürgers auf individuelle Mobilität spielen, dem sei empfohlen, in der Mediathek des ZDF die um 19.00 Uhr ausgesandte „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 anzusehen. Unter „Strategien gegen Luftverschmutzung“ wird das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“.

Mit überlegenem Lächeln erläutert anschließend Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Hier erklärt ein Oberbürgermeister einer Landeshauptstadt, dessen Stadt von der DUH („Deutsche Umwelthilfe“, manchmal auch als Toyotas ’Ndrangheta bezeichnet) wegen zu hoher Abgaswerte verklagt wird, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Dabei halten Spitzenvertreter seiner Partei zudem Schauermärchen über „zehntausend Tote durch Autoabgase jedes Jahr in Deutschland“ für glaubwürdig und fordern mit dieser Begründung Fahrverbote. Wenn ein SPD-Politiker zugleich willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man vermuten, dass er hier bewusst Leben und Gesundheit von Bürgern gefährdet. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten. Es scheint berechtigt, hier von einem Bubenstück der besonderen Art zu sprechen.

Interessanterweise gibt es auch aus Stuttgart Hinweise darauf, dass die grün geführte Stadtverwaltung dort zu ähnlichen „Tricks“ greift. In einem Kommentar zu einem Bericht im „Spiegel Online“ ist zu lesen, dass an einer besonders kritischen Messstelle (Am Neckartor) die Straße Richtung Fellbach von zwei auf eine Spur verengt wurde, um einen Fahrradstreifen anzulegen, so dass sich dort die Pendler aufstauen. Zudem gibt es dort jetzt eine Abzweigung zu einem neuen Einkaufszentrum, dessen Parkhaus jeden Samstag komplett voll ist. Und last but not least gibt es direkt neben dem Neckartor eine riesige Baustelle, bei der regelmäßig schwere Nutzfahrzeuge hin- und herfahren.

Die NOx-Emissionen des Straßenverkehrs in Deutschland sind seit 1990 sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) zurückgegangen (Grafik: Umweltbundesamt)

 

Meister der Doppelzüngigkeit

Mit seiner Haltung steht der SPD-OB Geisel selbstverständlich nicht alleine da, sondern befindet sich, wie man so schön sagt, im Mainstream. Auch seine Art des „Nudging“, also des hinterhältigen Manipulierens, hat größere Vorbilder. Es gibt in Deutschland Politiker, die ihre Schulung in einer Zeit und einer Republik erhalten haben, in der Grenzwachen „Republikflüchtlingen“ in dem gutem Glauben in den Rücken geschossen haben, die Obrigkeit habe dies befohlen. Hinterher hieß es, dass ein solcher Schießbefehl niemals existiert haben soll. Eine solche Fähigkeit, Menschen zu manipulieren und sie zu Handlungen zu veranlassen, zu denen sie sich bei klarer Kenntnis der Sachlage vermutlich nicht bereitgefunden hätten, war schon eine Meisterleistung. Politiker, die diese Kunst in verantwortlicher Position des Regimes verinnerlicht haben, sind es gewohnt, ihre wahren Absichten zu verstecken und wenn möglich andere vorzuschieben, damit diese die Drecksarbeit machen. Wer sich in diesem Dschungel zurechtfinden will, muss lernen, dem gesprochenen oder geschriebenen Wort nicht blind zu vertrauen, zwischen den Zeilen zu lesen und vor allem die Fakten zu beachten.

Der Rückgang der transportbedingten Schadstoffemissionen ist auch europaweit zu beobachten (Grafik: [THAL])

 

Das eigentliche Ziel heißt „Dekarbonisierung“

Die politische Elite, die Deutschland im Moment führt, hat sich voll und ganz dem Ziel der „Dekarbonisierung“ unserer Volkswirtschaft verschrieben. Dies ist eine der wesentlichsten Triebkräfte des Handelns insbesondere der Mehrheitsparteien, ein Ziel, an dem sie seit mindestens einem Jahrzehnt geduldig und mit allen ihr verfügbaren Mitteln und Methoden arbeiten. Autos, deren Verbrennungsmotoren fossiles CO2 ausstoßen, haben in diesem Weltbild keinen Platz. Entsprechende Aussagen tätigten maßgebliche PolitikerInnen bereits 2009: „Während die Autobranche mit der 63. IAA mühsam versucht aus der Krise zu fahren, fordert Bundeskanzlerin Merkel nichts geringeres als die Neuerfindung des Automobils“ und verlangte „von den deutschen Herstellern einen Entwicklungsschub hin zu umweltfreundlicheren Motoren“. Es gelte, „das Auto fast wieder neu zu erfinden, nämlich völlig neue Antriebstechnologien zu entwickeln“ [SUED]. Bereits damals gab es Planungen, bis 2020 mindestens eine Million Elektromobile auf deutsche Straßen zu bringen, die von höchster Stelle als „ehrgeizig, aber notwendig“ bezeichnet wurden. Da die Kfz-Hersteller sich jedoch halsstarrig zeigten, wurden im Rahmen einer Langfristplanung geeignete „erzieherische Maßnahmen“ auf den Weg gebracht. Die faulen Ausreden der unwilligen Automanager, dass es keine ausreichende Nachfrage nach E-Fahrzeugen gebe und der Markt von ihnen andere Fahrzeuge verlange, durften schließlich nicht ungestraft bleiben. Die Umsetzung der gewünschten „Erziehungsmaßnahmen“ erforderte jedoch die Ausarbeitung einer ausgeklügelten und langfristig angelegten Strategie.

Die historischen Karten der NO2-Jahresmittelwerte in Deutschland belegen den ständigen Rückgang der NO2-Gehalte in der Luft (Grafik: Umweltbundesamt)

 

Grünlinke Traumwelten

Zum Leidwesen solcher „verantwortungsbewusster“ Politiker ist es im heutigen Deutschland jedoch schwieriger, die Bevölkerung zum „richtigen“ Konsumverhalten zu motivieren, als noch vor einigen Jahrzehnten im östlichen Deutschland. Dort konnte es solche Flausen der Untertanen erst gar nicht geben, weil es nur ein einziges Automodell gab, und selbst das konnte man nicht mal so eben kaufen. Aber die Politikerkaste ist flexibel und wächst mit ihren Aufgaben. Zunächst galt es, sich die Deutungshoheit zu sichern. Der Bevölkerung musste klargemacht werden, dass ganz Deutschland eine Art Naturparadies zu sein hat. Dabei wird einfach ausgeklammert, dass Zivilisation nicht nur Vorteile wie warme Wohnungen, Kleidung und Nahrung sowie Antibiotika und moderne Medizin ermöglicht, sondern unabdingbar auch gewisse Belastungen mit sich bringt. Dazu gehört die Beanspruchung durch körperliche Arbeit ebenso wie Beeinträchtigungen der Gesundheit durch Gift- und Reizstoffe sowie Schäden an Natur und Umwelt. Früher gab es in den westlichen Gesellschaften einen gewissen Grundkonsens darüber, dass man hier Kompromisse einzugehen hatte. Es galt, die zivilisatorisch gewünschten Vorteile nicht zu gefährden, dabei jedoch die zu akzeptierenden Nachteile auf ein vertretbares Minimum einzugrenzen. Heute geht dieser Konsens jedoch immer weiter verloren, insbesondere bei den großstädtischen Eliten. Hier tummeln sich alle möglichen grünen und linken Ideologien, welche dem Glauben anhängen, man habe ein Anrecht darauf, die Vorteile einer technologisch fortgeschrittenen Industriegesellschaft uneingeschränkt zu genießen, ohne dafür irgendwelche Kompromisse eingehen zu müssen. Diese moderne urbane Spaßgesellschaft wünscht sich eine Fahrradrepublik mit bedingungslosen Grundeinkommen und einer Umwelt wie in einem hochalpinen Luftkurort, ergänzt um eine schrankenlose Willkommenskultur für Wirtschaftsflüchtlinge aus jedem „failed state“ dieser Welt. Diese Ideologien werden von einem Großteil der Medien mit großer Verve unterstützt. Hierdurch erhalten sie einen überproportional großen Einfluss auf die öffentliche Meinung und damit auf die Politik.

Die Lebenserwartung der deutschen Bevölkerung ist mit der Weiterentwicklung unserer technischen Zivilisation ständig gestiegen (Grafik: Statistisches Bundesamt)

 

Die beste Luft seit 100 Jahren

Die deutsche Bevölkerung atmet heute die beste Luft seit mindestens 100 Jahren. Früher gab es in den Häusern offene Kamine und Herde, geheizt wurde überwiegend mit Holz, dessen schädlicher Rauch karzinogene Substanzen in der Raumluft verteilte. Auch Kerzen sowie Petroleumlampen sind massive Quellen schädlicher Luftschadstoffe, denen die Bevölkerung tagein, tagaus ausgeliefert war. In den Städten und Industriegebieten gab es keinerlei Abgasbehandlung. Noch in den 60er Jahren kam es im Ruhrgebiet zu Todesfällen durch Smog, einer giftigen Mischung aus unbehandelten Abgasen (Ruß, Staub, SO2) und Nebel. Mit der Einführung entsprechender Gesetze und der Installation von Abgasbehandlungsanlagen hat sich die Qualität der Luft seither ständig und in erheblichem Umfang verbessert, wie sich anhand langjähriger Vergleiche des Umweltbundesamts unschwer dokumentieren lässt. Waran liegt es also, dass man derzeit von fast allen Parteien und aus allen Medien den Eindruck erhält, die Luft in unseren Städten werde durch gierige und rücksichtslose Automanager so verpestet, dass jährlich abertausende Menschen an den Folgen sterben. Es sei deshalb unausweichlich, dass man um der Volksgesundheit willen so schnell wie möglich ein Verbot von Verbrennermotoren anstreben müsse? Wobei der Diesel zwar derzeit die meisten Prügel abbekommt, der Benziner jedoch ebenfalls bereits zum Tode verurteilt wurde.

Auf europäischer Ebene ist der Straßentransport nur mit 13 % an der Emission des besonders kleinteiligen Feinstaubs PM2.5 beteiligt (Grafik: [THAL])

 

Verleumdungen statt Tatsachen

Wenn man sich die Vorwürfe gegen den Diesel, der im Moment als Sündenbock herhalten muss, einmal genauer ansieht, so stellt man fest, dass diesem Dinge unterstellt werden, die gar nicht den Tatsachen entsprechen. So wird in den Medien häufig suggeriert, dass Diesel-PKW Hauptquelle sowohl von Feinstaub als auch von Stickoxiden (NOx) seien und ihre Abgase Krebs sowie Lungen- und Kreislauferkrankungen auslösen würden. Dabei stimmt dies für Diesel-PKW spätestens ab der seit 2009 geltenden Schadstoffklasse Euro 5 nicht, weil sie seitdem mit einem Rußpartikelfilter ausgerüstet sein müssen. Der Diesel unterscheidet sich vom Benziner lediglich durch einen höheren Ausstoß von Stickstoffoxid (NO), das sich an der Atmosphäre dann zu Stickstoffdioxid (NO2) umwandelt. Über die Gesundheitsgefahr dieser Mischung, die unter dem Sammelbegriff NOx zusammengefasst wird, werden alle möglichen abstrusen Behauptungen in die Welt gesetzt. Dabei sind diese vergleichbar einfachen chemischen Substanzen der Wissenschaft seit gut 100 Jahren bekannt. Auch ihre gesundheitlichen Auswirkungen sind seit vielen Jahrzehnten immer wieder sorgfältig untersucht worden. In den Konzentrationen, in denen sie in der Atmosphäre unserer Städte vorkommen, sind sie höchstens lästig bis irritierend, keinesfalls aber gefährlich. Da sie auch an Arbeitsplätzen – z.B. im Bereich der chemischen Industrie – auftreten, wurden hierzu nach umfassenden Untersuchungen durch Fachgremien sogenannte MAK-Grenzwerte festgelegt. Diese MAK-Werte werden als unbedenklich für Gesunde eingestuft, selbst wenn diese dem Grenzwert über Jahre hinweg an 8 Stunden jeden Arbeitstags ausgesetzt sind. In Deutschland galt für NO2 noch 1994 ein MAK-Wert von 9 mg/m3 [NIEM], in der Schweiz sind es bis heute 6 mg/m3.

Die Anzahl der Überschreitung des Ozon-Grenzwerts von 180 µg/m3 ist seit Jahrzehnten rückläufig (Grafik: Umweltbundesamt)

Inzwischen wurde – vermutlich aufgrund von Pressionen linksgrüner politischer Kräfte – der MAK-Wert für NO2 in Deutschland drastisch um einen Faktor von fast 10 auf nur noch 0,950 mg/m3 heruntergesetzt. Für die beiden Einzelbestandteile gelten weiterhin auch separate MAK-Werte. Beim NO liegt dieser in Deutschland bei 0,63 mg/m3, in der Schweiz dagegen bei 3 mg/m3 [NOMA]. Die oft vertretene Ansicht, dass Asthma-Patienten und Menschen mit chronischer Bronchitis auf erhöhte NO2-Werte empfindlicher reagieren als Gesunde, wird in relevanten Datensammlungen zu den Gesundheitsrisiken nicht unterstützt [NO2GE]. Auch in den Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 [NOAEL] ist nachzulesen, dass trotz intensiver Überprüfung der Literatur keine eindeutigen Erkenntnisse bezüglich einer nachteiligen klinischen Wirkung von NO2 auf Personen mit Asthma, chronischen Lungenerkrankungen oder Bronchitis vorliegen. In der dort aufgeführten Literatur finden sich Studien über Bergarbeiter in einem Salzbergwerk. Diese waren Dieselabgasen (Ruß + NO + NO2) in Kombination mit den im Bergbau üblichen Belastungen (Staub) unter bergbautypischen körperlichen Belastungen bei NO2-Gehalten bis zu 7,6 mg/m3 ausgesetzt waren. Dabei konnte kein Zusammenhang mit Atembeschwerden oder Husten festgestellt werden.

Noch ungefährlicher als NO2 ist das NO, das im primären Dieselabgas den weit überwiegenden Anteil des NOx ausmacht. NO bewirkt keine Reizerscheinungen an den Schleimhäuten und ist zudem ebenso wie NO2 weder reproduktionstoxisch noch mutagen oder krebsauslösend [NOMA]. Es stellt sich daher die Frage, warum man überhaupt NOx-Werte (d.h. die Summe aus NO und NO2) heranzieht, statt lediglich den NO2-Gehalt zu bestimmen. Möglicherweise vor allem deshalb, weil die gemessenen Werte dadurch im „grünen“ Sinne aufgebläht werden und man leichter zu Grenzwertverletzungen kommt.

Fasst man das ungefährlichere NO mit NO2 zu NOx zusammen, so erhält man deutlich höhere Werte als bei reiner Betrachtung des NO (Grafiken: [UBA])

 

Konzentrierte Dieselabgase im Tierversuch

Dass die Abgase moderner Dieselfahrzeuge mit Feinstaubfilter bei weitem nicht so schädlich sind wie vielfach behauptet, wurde in den USA 2015 von McDonald et al. durch eine eingehende experimentelle Untersuchung an Ratten nachgewiesen [MCDO]. Hierbei wurden die Versuchstiere über Zeiträume von bis zu 30 Monaten für 16 Stunden am Tage und an 5 Tagen in der Woche in einer kontrollierten Abgasatmosphäre gehalten, die auf der höchsten Stufe einen NO2-Gehalt von 8,4 mg/m3 aufwies, das ist rund das neunfache des deutschen MAK-Werts. Dabei ergaben sich kaum Hinweise auf karzinogene Wirkungen. Selbst bei den höchsten Abgaskonzentrationen zeigten sich an den Lungen der Versuchstiere nur minimale bis leichte Schädigungen….

wird fortgesetzt…




FakeNews: ..Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten!

Die Wahrheitspostille Nr 1 (oder ist es Nr. 2, oder 3 oder,,,) der deutschen Medienlandschaft FOCUS Online meldet am 21.8.17

„Elektrische Streetscooter Brand nach technischem Defekt: Drei Elektro-Transporter der Post zerstört!“

In einem relativ sachlichen Bericht wird erläutert, dass…

Drei Lieferwagen vom Typ Streetscooter fingen wegen eines technischen Defekts Feuer.

Und weiter

Nach Auskunft der Polizei entstand ein Sachschaden in Höhe von 250.000 Euro. 30 weitere Transporter wurden durch Ruß und Hitzeeinwirkung beschädigt, so die Polizei. Verletzt wurde niemand.

Dann –man schreibt mal eben die Fakten bei Kollegen ab…

Wie die „Rhein-Neckar-Zeitung“ unter Berufung auf die bisherigen Ermittlungen berichtete, sollen die Akkus der elektrischen Postautos die Ursache des Feuers sein. Dem widerspricht allerdings jetzt ein Sprecher der Deutschen Post: Der Akku sei bisherigen Erkenntnissen nach nicht die Brandursache gewesen…

Soweit so klar, der eine glaubt es seien die Akkus gewesen, der andere mit seinem speziellen (Förder)-Interesse widerspricht. Soweit so fair.

Dann aber der Hammer: So schreibt der/die anonyme AutorIn und besinnt sich dabei auf seine unmittelbare Pflicht Propaganda für das einzig Gute, Wahre, Schöne zu machen, Und dichtet :

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten und lassen sich meistens auf zwei Ursachen zurückführen: Entweder durch aufgerissene Akkus bei schweren Unfällen oder durch technische Probleme beim Aufladeprozess.

Das muss man sich auf der Zunge zergehen lassen:

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten

Ein einfacher Dreisatz zeigt, dass bei nur 3 (1) von ca. 25.000 E-Fahrzeugen (Bestand 2016) auf deutschen Straßen ca. 5.040 (korr. 23.8.17) Auto-Bränden von im wahrsten Sinne des Wortes Verbrennern (bei 42 Mio KfZ) auf deutschen Straßen entsprechen?

Das vorhersehbare Ergebnis dieser Massenzerstörung:

Die Medien würden Amok laufen, alle Zeitungen wären voll, Sondersendungen Tag und Nacht berichten, die Grünen hätten es schon immer gewusst, die Deutsche Umwelthilfe sowieso und würde nach strengeren Brandschutzgrenzwertregeln rufen, dann alle anderen abmahnen und Schadensersatzklagen einreichen, die anderen Parteien die Manager beschimpfen und die Kanzlerin würde sofort einen weiteren Verbrenner-Verbots-Gipfel mit sofortiger Verbotswirkung einberufen.

Nur, so etwas passiert beim Lieblingskind aller Grün-Bewegten – dem E-Auto- in diesem Land nicht. Und sei es noch so gefährlich.

Trotzdem stelle ich meine bisher ungeklärte Frage:

Wie kommt der AutorIn auf „relativ selten“?

Einzig mögliche Antworten

  1. Er/sie kann nicht rechnen

und

  1. Er/sie will verdummen, d.h die Leser auf sein(ihr Niveau herabziehen.

Ich fürchte es wird ihm/ihr sogar gelingen.

 

(1) Die anderen Brände bei E-Autos- über die so gut wie nicht berichtet wird- sind in diesem Vergleich nicht berücksichtigt. Eine aussagefähige Erhebung dazu liegt mir nicht vor.

 

 

 




Was wissen wir über die Trends des arktischen Meereises?

Diese Änderung des arktischen Klimas wird oft als Beweis angeführt, dass die Menschen einen drastischen Klimawandel verursachen. Zum Beispiel wurde am 29. April 2017 in einem Artikel im Economist impliziert, dass das arktische Eis ungewöhnlich schmilzt, dramatisch und besorglich:

Das Abschmelzen erfolgt weitaus schneller als einst erwartet. Während der letzten drei Jahrzehnte ist die Eisausdehnung der Arktis um die Hälfte und dessen Volumen um drei Viertel zurückgegangen … Man schätzt, dass die Arktis bereits im Sommer 2040 eisfrei sein könnte. Bisher war man von dem Jahr 2070 ausgegangen.

Wie auch immer, ist die Satellitenaufzeichnung seit 1978 lang genug, um uns die folgenden Fragen zu beantworten?:

1. Wie ungewöhnlich (oder normal) sind die jüngsten Trends?

2. Können wir bestimmen, wie viel des derzeitigen Klimawandels auf das Konto der Menschen geht und wie viel davon natürlichen Ursprungs ist?

Vor Kurzem haben wir im Hydrological Sciences Journal (HSJ) eine Studie veröffentlicht, in welcher wir das arktische Meereis bis zurück zum Jahre 1901 abschätzten, wobei wir verschiedene Datenquellen vor der Zeit der Satelliten herangezogen haben (Abstract hier).

HSJ hat diesen Artikel als einen ihrer „Featured Articles“ eingestuft, was bedeutet, dass er während eines begrenzten Zeitraumes heruntergeladen werden kann: hier. Aber falls man diesen Beitrag nach diesem Zeitraum liest und keinen Zugang ohne Zahlschranke mehr hat, kann man ein Vorab-Druck hier herunterladen.

In unserer Studie sind wir zu dem Ergebnis gekommen, dass der jüngste Rückzug des arktischen Meereises während der Satelliten-Ära tatsächlich einer Periode mit Eiszunahme Mitte der vierziger Jahre gefolgt ist, welche wiederum einer anderen Rückzugsphase während der zehner Jahre folgte. Dies zeigt, dass das arktische Meereis wesentlich dynamischer ist als man denken könnte, wenn man sich allein die Satellitenaufnahmen anschaut (wie es der Economist oben getan hat). Also werden wir in diesem Beitrag detaillierter darauf eingehen, was wir gegenwärtig über Trends des arktischen Meereises wissen.

Meereis-Trends während der Satelliten-Ära

Die Satellitendaten bzgl. der Meereisausdehnung in der Arktis und um die Antarktis können vom US National Snow & Ice Data Center (NSIDC) hier heruntergeladen werden. In den folgenden Graphiken plotteten wir die jährliche Meereis-Ausdehnung aus dieser Satelliten-Ära sowohl für die Arktis als auch für die Antarktis. Zum Vergleich sind die Temperaturtrends in der Arktis seit 1900 eingetragen (übernommen aus unserem HSJ-Beitrag).

Wir erkennen: Jawohl, die mittlere Ausdehnung des arktischen Meereises hat seit Beginn der Satellitenaufzeichnungen allgemein abgenommen. Jedoch hat die Ausdehnung des Meereises um die Antarktis im gleichen Zeitraum allgemein zugenommen. Wenn wir jedoch unser Augenmerk auf die viel längeren Temperaturaufzeichnungen aus der Arktis lenken, können wir sehen, dass dies keine Überraschung ist. Seit Ende der siebziger Jahre (also zu Beginn der Satellitenaufzeichnungen) hat sich die Arktis erwärmt, aber dies folgte einer Periode der Abkühlung in der Arktis von den vierziger bis Anfang der siebziger Jahre! Mit anderen Worten, hätten die Satellitenaufzeichnungen in den vierziger Jahren begonnen und würde das arktische Meereis mit den Temperaturen zusammenhängen, hätten wir vermutlich eine Periode mit Meereis-Wachstum gefunden.

Änderungen des arktischen Meereises vor der Satelliten-Ära

Einer der Gründe für das große Interesse an Meereis-Aufzeichnungen auf der Grundlage von Satelliten-Beobachtungen ist der Umstand, dass die meisten Gebiete des Planeten kontinuierlich überwacht werden. Aber man hat das arktische Meereis auch vor der Satelliten-Ära überwacht mittels zahlreicher Messungen an Landstationen, von Schiffen, U-Booten Bojen und Flugzeugen.

Während der neunziger Jahre und zu Beginn dieses Jahrhunderts haben die Professoren Walsh und Chapman versucht, einige dieser Messungen vor der Satelliten-Ära zu kombinieren, um die Satellitenaufzeichnung rückwärts bis zum Beginn des 20. Jahrhunderts zu erweitern. Man erkennt in der Abbildung unten, dass ihre Schätzungen implizierten, dass es vor der Satelliten-Ära praktisch keine Variabilität gegeben hatte!

Viele Jahre lang war der „Walsh and Chapman“-Datensatz als ziemlich zuverlässig und genau eingeschätzt worden. Er fand in der wissenschaftlichen Gemeinschaft weithin Verwendung.

Wie man aus dem folgenden Videoclip erkennen kann [der hier aus urheberrechtlichen Gründen nur als Link angegeben ist] wurde er sogar in dem Al-Gore-Fil „An Inconvenient Truth“ aus dem Jahr 2006 gezeigt, obwohl Gore da etwas durcheinander gebracht zu haben scheint, welche Daten er eigentlich zeigt, behauptet er doch, dass die Walsh & Chapman-Graphik auf „Messungen der Eisdicke von U-Booten“ beruht.

https://www.youtube.com/watch?v=vTFuGHWTIqI

Übrigens haben wir den Verdacht, dass die von Gore erwähnten U-Boot-Messungen vermutlich diejenigen von Rothrock et al. (1999) sind (hier ohne Zahlschranke), aber jene Messungen sind viel mehr begrenzt als Gore impliziert, und sie wurden bereits im Jahre 1999 veröffentlicht. Damit ist unklar, warum Gore sich bemüßigt fühlte, „sie zur Veröffentlichung zu überreden“.

Als wir jedoch detailliert auf die Daten vor der Satelliten-Ära schauten, erkannten wir, dass es bei den Walsh & Chapman-Schätzungen ernste Probleme gab.

Das Hauptproblem ist, dass die Daten vor der Satelliten-Ära sehr limitiert sind. Falls ein Schiff durch ein bestimmtes Gebiet während einer bestimmten Jahreszeit fährt, hätten diese Auskunft geben können über das Eis in jenem Gebiet oder ob es eisfrei war. Aber was macht man, wen dort nie Schiffe gefahren (oder Flugzeuge geflogen) sind?

Es scheint, dass in vielen Fällen, wenn Walsh & Chapman Messungen aus einem bestimmten Gebiet vorliegen haben, sie im Grunde am Ende davon ausgingen, dass jene Regionen mit Eis angefüllt waren!

Zum Beispiel zeigt die Karte links in der Abbildung unten die von Walsh & Chapman herangezogene Hauptdatenquelle für August 1952. Es ist eine Schätzung der arktischen Meereis-Ausdehnung, welche vom Danish Meteorological Institute (DMI) vorgenommen worden war. Die roten Linie auf der Karte zeichnen die Eisgrenzen nach, wo das DMI tatsächlich Messungen durchgeführt hat – in diesem Falle zumeist um Grönland und Ostkanada. Die weißen Regionen auf der übrigen Karte zeigen Gebiete, in denen „Eis angenommen wurde, ohne dass man Informationen dazu habe“. Mit anderen Worten, das DMI hat geraten, dass es dort Eis geben könnte, aber man wusste es beim DMI nicht!

Dieser Zeitraum lag mitten im Kalten Krieg, und leider gab es kaum Datenaustausch zwischen der Sowjetunion und westlichen Ländern wie Dänemark. Also lagen dem DMI praktisch keinerlei Informationen aus dem russischen Sektor der Arktis vor. Allerdings haben die Russen zufälligerweise ihre eigenen Beobachtungen des russischen Meereises durchgeführt mittels Luftaufklärung, Schiffen, Bojen usw. Im 21. Jahrhundert haben einige russische Wissenschaftler angefangen, diese Daten zu digitalisieren und zu veröffentlichen. Die Karte auf der rechten Seite zeigt die russischen Beobachtungen für genau den gleichen Monat (August 1952). Die blauen Gebiete waren eisfrei, die weißen Regionen mit Eis angefüllt. In den grau gefärbten Gebieten wurden keine Messungen durchgeführt.

Erkennen Sie, dass alle Regionen der von den Russen überwachten sibirischen Arktis eisfrei waren, während das DMI sie mit Eis angefüllt vermutet hat?

Die Schätzungen von Walsh & Chapman vermuteten, dass die vom DMI geratenen Eisverhältnisse genau waren, aber das war keineswegs der Fall!

Jetzt müssen wir erwähnen, dass während der Zeit, in der wir unsere Studie sowohl mit den Russischen Daten als auch mit den DMI-Daten durchführten, Walsh & Chapman ihre Schätzungen aktualisiert haben. Und der neue Walsh et al.-Datensatz zieht den russischen Datensatz ebenfalls heran (hier).

Wie wir in der Studie besprechen, endet ihr Verfahren jedoch immer noch in der effektiven Vermutung, dass die meisten Gebiete ohne Beobachtungen „mit Eis angefüllt“ waren! Unserer Ansicht nach ist das eine sehr unkluge Vermutung, vor allem für die ersten Jahre, als es nur sehr wenige Beobachtungen gab.

Wir erkannten also, dass die Daten aus der Vor-Satelliten-Ära neu kalibriert werden mussten, um den begrenzten Beobachtungen und auch den Änderungen in den verschiedenen Datenquellen Rechnung zu tragen (Flugzeuge vs. Schiffe und Bojen usw.) – für verschiedene Gebiete und Zeiträume. Für eine detaillierte Diskussion unseres Re-Kalibrierungs-Verfahrens empfehlen wir, unsere diesbezügliche Studie zu lesen. Das Abstract findet sich hier. Aber im Wesentlichen nutzten wir die Temperaturaufzeichnungen der Arktis von Wetterstationen auf dem Festland um sicherzustellen, dass die Meereis-Messungen jeder einzelnen Datenquelle eine ähnliche Reaktion zeigen auf Änderungen der Temperatur in der Arktis wie jene, welche während der Satelliten-Ära beobachtet worden waren.

Nach der Neukalibrierung erhielten wir das folgende Ergebnis einschließlich der Fehlerbalken:

Dabei sind verschiedene Phänomene zu beachten:

Während das arktische Meereis in der Tat allgemein abgenommen hat seit Beginn der Satelliten-Ära, folgte dies zufällig einer Periode mit arktischem Meereis-Wachstum von den vierziger bis zu den siebziger Jahren!

Tatsächlich scheint die Arktis regelmäßig zu alternieren zwischen Perioden mit Meereis-Zunahme und -rückzug. Dies unterscheidet sich so ziemlich von den Schätzungen zuvor von Walsh & Chapman, welche implizierten, dass sich das arktische Meereis vor der Satelliten-Ära kaum veränderte!

Falls wir die Fehlerbalken ignorieren, könnte man vielleicht argumentieren, dass die jeweiligen Meereis-Ausdehnungen seit 2005 geringer sind als seit 1901. Allerdings sollten wir die Fehlerbalken nicht ignorieren. Wir erkennen, dass die Fehlerbalken der Vor-Satelliten-Ära niedriger sind als die größeren Fehlerbalken während der gesamten Satelliten-Ära. Mit anderen Worten, die gegenwärtig niedrigen Werte sind immer noch konsistent mit unseren Schätzungen aus der Vor-Satelliten-Ära.

Ein brauchbarer Test der vom IPCC verwendeten globalen Klimamodelle (mit der Bezeichnung „CMIP5“-Modelle) ist deren Fähigkeit, arktische Meereis-Trends im Nachhinein abzubilden [„hindcast“]. Eine „Nachhersage“ ist eine „Vorhersage“, welche zeitlich zurück verläuft.

Unten vergleichen wir unsere Sommer-Rekonstruktion mit dem Mittel der Nachhersagen der IPCC-Klimamodelle.

Man erkennt, dass die IPCC-Modelle in keiner Weise in der Lage waren, die unterschiedlichen Wachstums- und Rückzugsphasen zu reproduzieren.

Änderungen des arktischen Meereises während der letzten 10.000 Jahre

Während der letzten Jahre haben viele Forscher ein interessantes neues „Proxy“ für die Bedeckung mit arktischem Meereis entwickelt mit der Bezeichnung „PIP-25“. Dieses kann herangezogen werden für die Abschätzung langfristiger Änderungen der Meereisausdehnung. Ein „Proxy“ ist eine Art Messung zur indirekten Abschätzung einiger Eigenschaften – in diesem Falle die arktische Meereisausdehnung.

Im Jahre 2007 bemerkten Prof. Simon Belt und seine Kollegen, dass ein bestimmter Algentyp, der nur im Meereis wächst, eine besondere Gruppe von Molekülen bildet mit der Bezeichnung „IP-25“ – siehe Belt et al. 2007 (Abstract hier, Link zu Google Scholar hier). Ihr Ergebnis: falls das Meereis in einer Region im Sommer schmilzt, sinken einige dieser IP-25 auf den Meeresboden als Teil der Ozean-Sedimente. Falls es jedoch kein Meereis gibt, oder falls das Meereis das ganze Jahr über erhalten bleibt, dann enthalten die Ozean-Sedimente jenes Jahres keinerlei IP-25. Falls man also einen Sediment-Bohrkern zieht für jenes Gebiet, kann man die Gegenwart von IP-25 als Proxy heranziehen für „jahreszeitliches Meereis“, d. h. Eis, dass sich nur zeitweise im Jahr bildet.

Später erkannte man, dass falls IP-25 fehlten, auch das Vorhandensein anderer Phytoplankton-Spezies herangezogen werden konnte, um zu unterscheiden zwischen Perioden mit permanenter Eisbedeckung (weniger Wachstum des Phytoplanktons infolge verringerter Sonnenstrahlung unter dem Eis) und eisfreien Bedingungen (stärkeres Wachstum des Phytoplanktons). Kombiniert man die IP-25 mit Phytoplankton-Messungen in einem ozeanischen Sediment-Bohrkern, hat man eine „PIP-25“-Proxy-Reihe, welche zwischen drei Typen der Eisbedeckung unterscheiden kann:

Permanente Eisbedeckung (wenig IP-25 und wenig Phytoplankton)

Jahreszeitliche Eisbedeckung (hohe IP-25)

Zumeist eisfrei (wenig IP-25, aber viel Phytoplankton)

In Stein et al. (2017) präsentierten Prof. Rüdiger Stein und seine Kollegen die Ergebnisse von zwei neuen PIP-25-Sedimentbohrkernen (aus der Tschuktschen-See und dem Ostsibirischen Meer) und verglichen sie mit anderen zwei Bohrkernen aus früheren Studien in anderen Gebieten der Arktis (einen aus der Laptev-See und der andere aus der Fram-Straße).

Wir haben die Karten unten angepasst an Abbildung 2 von Stein et al. 2017, mit einigen Markierungen, um die Stellen einfacher zu erkennen. Die Karten zeigen die Stelle der vier Bohrkerne relativ zur maximalen bzw. minimalen Meereisausdehnung im Jahre 2015. Die vier Bohrkerne sind ziemlich gleichmäßig in der Arktis verteilt und sollten daher eine vernünftige Schätzung gestatten, wie das Meereis in der gesamten Arktis langfristig variiert hat.

Man beachte, dass alle vier Bohrstellen während des sommerlichen Minimums (am 6. September 2015) eisfrei waren, dass aber drei Stellen während des Winter-Maximums eisbedeckt waren. Mit anderen Worten, an diesen drei Stellen gab es „jahreszeitliche Eisbedeckung“, während die übrige Stelle (in der Fram-Straße) auch zum winterlichen Maximum (am 17. März 2015) außerhalb der eisbedeckten Gebiete lag. Also ist jene Station derzeit „zumeist eisfrei“. Wie wir jedoch gleich sehen werden, zeigen die PIP-25-Sediment-Bohrkerne, dass sich diese Bedingungen mit der Zeit verändert haben.

Für die vier Plots unten haben wir die PIP-25-Ergebnisse für die vier Sediment-Bohrkerne digitalisiert, und zwar von Abbildung 10 in Stein et al. 2017. Grob gesagt zeigen PIP-25-Werte über 0,5, dass das Gebiet zu der Zeit zumeist eisfrei war, während Werte über 0,7 auf permanente Eisbedeckung hinweisen, das heißt also das ganze Jahr über mit Eis bedeckt waren. Werte zwischen 0,5 und 0,7 zeigen, dass es in dem Gebiet „jahreszeitliche Eisbedeckung“ gab, d. h. es war zum winterlichen Maximum mit Eis bedeckt, im sommerlichen Minimum jedoch eisfrei.

Wie oben erwähnt durchlaufen drei der Vier Stellen gegenwärtig „jahreszeitliche Eisbedeckung“, während die Stelle in der Fram-Straße „zumeist eisfrei“ war. Allerdings durchliefen den PIP-25-Daten zufolge während der letzten 10.000 Jahre alle vier Stellen extensive Perioden mit weniger Eisbedeckung ebenso wie extensive Perioden mit viel mehr Eisbedeckung. Im Besonderen scheint die Eisbedeckung an allen vier Stellen vor 6000 bis 8000 Jahren erheblich geringer gewesen zu sein (deutlich vor der Bronzezeit) als es heute der Fall ist.

Dies deutet auf zwei Punkte, die besonders relevant für unsere Diskussion sind:

Arktische Meereis-Ausdehnungen haben sehr viel Variabilität gezeigt während der letzten 10.000 Jahre (mindestens), so dass wir nicht allzu überrascht sein sollten, dass sich die Ausdehnungen seit Beginn der Satellitenaufzeichnungen im Jahr 1978 substantiell verändert haben.

Trotz des weit verbreiteten Glaubens, dass die gegenwärtige arktische Eisbedeckung „ungewöhnlich gering“ ist, scheint es so, als ob die Eisbedeckung vor 6000 bis 8000 Jahren noch deutlich geringer war.

Zusammenfassung

Nach der Neu-Kalibrierung der Daten vor der Satelliten-Ära kommt zum Vorschein, dass das arktische Meereis alterniert hat zwischen Perioden mit Wachstum und Perioden mit Schrumpfung. Die Satellitenaufzeichnungen begannen zufällig am Ende von einer der Wachstumsperioden. Dies hat zu der irrigen Ansicht verleitet, dass der Eisrückgang nach 1978 ungewöhnlich ist.

Die Ergebnisse neuer Meereis-Proxys aus Ozean-Sedimentbohrkernen zeigen, dass die Eisausdehnung in der Arktis während der letzten 10.000 Jahre substantiell variiert hat. Sie zeigen außerdem, dass die arktische Eisausdehnung vor der Bronzezeit noch viel geringer war als heute.

Die gegenwärtigen globalen Klimamodelle sind nicht in der Lage, die beobachteten Änderungen des arktischen Meereises seit 1901 abzubilden. Daher dürften sie die natürliche Meereis-Variabilität erheblich unterschätzen.

Link: https://wattsupwiththat.com/2017/08/17/what-do-we-know-about-arctic-sea-ice-trends/

Übersetzt von Chris Frey EIKE