Oktober warm – dass Gott erbarm‘?!

Wenden wir uns zunächst den Bauernregeln zu. Ihnen liegt das Prinzip zugrunde, dass man den Wetter- oder Witterungsverlauf zu einem bestimmten Zeitpunkt oder einem bestimmten Zeitraum beobachtet und dann versucht herauszufinden, ob die Folgewitterung ebenfalls einen bestimmten Verlauf nimmt.
Hinsichtlich der Bauernregeln gibt es nun aber drei fundamentale, unlösbare Probleme, die den Gebrauch von Bauernregeln bis zur Unbrauchbarkeit einschränken. Entstanden sind sie ja während des Mittelalters. Die Bauern des Mittelalters (heute nennt man sie Landwirte) waren natürlich Witterungsunbilden noch viel stärker ausgesetzt als heutzutage. Diese eventuellen Unbilden rechtzeitig erkennen zu können war ihnen naturgemäß ein dringendes Anliegen. Es ist schon absolut erstaunlich, wie sorgfältig die Bauern der damaligen Zeit das Wetter beobachtet und ihre Schlüsse daraus gezogen haben.
Es gibt aber, wie gesagt, drei fundamentale Probleme:
1) Die meisten Bauernregeln sind vor etwa 1000 Jahren entstanden. Damals herrschte bekanntlich ein deutlich wärmeres Klima als heute, und ob die damals gefundenen Zusammenhänge auch in einem kälteren Klima gelten, ist nicht erforscht.
2) Um sich Bauernregeln besser merken zu können, wählte man als Bezugszeitpunkt in der Regel (katholische) Feiertage, die damals eine ganz andere Bedeutung hatten als heute. Außerdem wurden sie der besseren Merkfähigkeit wegen auch in Reimform gepresst. Die Beobachtungen erfolgten naturgemäß am Wohnort der Bauern. Die Herumreiserei von heute gab es natürlich damals nicht. Die Örtlichkeit oder das Gebiet, in dem die jeweilige Bauernregel entstanden ist, ist aber von ausschlaggebender Bedeutung. Ob eine im Allgäu gefundene Bauernregel auch für Ostfriesland gültig ist, ist zumindest fraglich. Der Ursprung der jeweiligen Bauernregeln ist aber heute nicht einmal ansatzweise feststellbar.
3) Dann gab es da noch eine Kalenderreform, bei der 10 Tage einfach unter den Tisch fielen (interessante Parallele: Die katholische Kirche hatte damals so viel Macht, dass sie mit der Zeit das machen konnte, was das IPCC heute mit Klimadaten macht, nämlich manipulieren. Der Unterschied ist jedoch, dass der Nutzen der Kalenderreform heute völlig unbestritten ist, während man dies von der ,Datenreform‘ des IPCC wohl nicht unbedingt sagen kann).
Die Tage-Bezugspunkte der Bauernregeln machten diese Verschiebung jedoch nicht mit, ein Umstand, der bei der Diskussion um die Bauernregeln heute in der Regel vergessen wird. (Dieser letzte Punkt ist vermutlich nicht so relevant, wenn man Zeiträume, d. h. in der Regel Monate, als Bezugspunkt nimmt. Dazu später mehr).
Vorhersagen auf der Grundlage von Bauernregeln werden heute seriöserweise nicht mehr gemacht, wenngleich viele Menschen immer noch auf sie schwören. Es wäre jedoch grob fahrlässig, den Wissensschatz der Bauernregeln einfach außen vor zu lassen. An dieser Stelle kommt einer der meiner Ansicht nach größten Zufälle der Wissenschaft ins Spiel. In den fünfziger und sechziger Jahren hat nämlich ein Meteorologe versucht, das statistische Prinzip, auf dem die Bauernregeln beruhen, in die heutige Zeit zu übertragen. Warum Zufall? Weil dieser Meteorologe Baur hieß (ohne e)! Mehr zu seiner Person hier bei Wikipedia.
Prof. Dr. Franz Baur hat im vorigen Jahrhundert auf Basis von Beobachtungen (Numerik gab es damals noch nicht bzw. steckte allenfalls in den Kinderschuhen) genau dieses Prinzip der Bauernregeln angewendet. Er fand auch viele teils sehr deutliche Zusammenhänge, die als die – Baur’schen Regeln bekannt sind. Zu Prof. Baur, seiner Vita und seiner Arbeit kann man viel googeln. Es würde aber diesen Beitrag sprengen und auch ein wenig am Thema vorbeigehen, wenn man hier näher darauf eingehen würde.
Häufig war es so, dass Prof. Baur altbekannte Bauernregeln einfach für die heutige Zeit „übersetzt“ hat. So wurde aus der altbekannten Bauernregel zum Siebenschläfer (astronomisch am 26. Juni) eine Baur’sche Regel zum Siebenschläfer (dem meteorologischen um den 5. Juli).
Prof. Baur selbst hat noch sehr genau seine eigenen Baur’schen Regeln mit der Realität überprüft. Hinsichtlich der Siebenschläfer-Regel fand er (und findet man bis heute!) eine Korrelation über 0,9 unter der Voraussetzung, dass die Statistik strikt angewendet wird.
Wie wichtig dies ist, soll am Beispiel der in der Überschrift zu diesem Beitrag genannten Bauernregel erläutert werden. In den Medien war schon vielfach die Rede davon, dass auf einen warmen Oktober ein kalter Winter folgen soll. Tatsächlich gibt es auch andere Bauernregeln, die mit anderen Worten auf den o. g. Zusammenhang hinweisen. Nicht von ungefähr sind jedoch von mir hinter die Überschrift die zwei Satzzeichen gesetzt worden. Übersetzen wir doch diese Regel mal in eine Baur’sche Regel. Die gibt es wirklich, und zwar die Regel Nr. 64. Sie hat folgenden Wortlaut:
Wenn der Oktober in Mitteleuropa mehr als zwei Grad zu warm und gleichzeitig deutlich zu trocken ausfällt, ist mit hoher oder sehr hoher Wahrscheinlichkeit ein kalter oder extrem kalter Januar in Mitteleuropa zu erwarten“.
Anhand dieser Regel soll näher erläutert werden, was man mit einer solchen statistischen Regel anfangen kann – und was nicht. Unabdingbar ist zu prüfen, ob die genannten statistischen Witterungserscheinungen wirklich so aufgetreten sind. Für diesen Oktober 2014 bedeutet das, dass er sicher deutlich zu warm ausfällt, vermutlich weit über 2 Grad zu warm. Der kurze Kaltlufteinbruch um den 20. des Monats ändert daran nicht viel. Aber hinsichtlich des zweiten Kriteriums gilt das nicht! Er war eben nicht deutlich zu trocken. In manchen Gebieten war er das zwar wirklich, aber nicht im Flächenmittel. Dabei spielt es statistisch keine Rolle, ob der Regen mehr oder weniger gleichmäßig über den ganzen Monat verteilt ist oder ob ein singuläres, flächendeckendes Starkregenereignis an einem einzigen Tag die Ursache dafür ist, dass der Monat zu nass ausfällt. Wer jetzt sagt „nun ja, wenn man von dem einzelnen Tag absieht…“. Das wäre bereits eine Verbiegung der Statistik. Beim IPCC ist das zwar gang und gäbe, aber es ist unwissenschaftlich. Fazit: die Regel ist also in diesem Jahr nicht anwendbar.
Nun ist dauerhaft warme und trockene Witterung im Oktober nur auf wenige Wetterlagen beschränkt. Ein zentrales Hochdruckgebiet über Mitteleuropa ist dafür im Gegensatz zum Hochsommer auf keinen Fall geeignet. Sehr schnell würde sich nämlich in den immer längeren Nächten Nebel bilden, der sich tagsüber kaum noch auflöst, mit der sukzessiven Folge einer immer weiter fortschreitenden Abkühlung der unteren Luftschichten. Starker Wind würde zwar für Durchmischung sorgen, doch wird dies nur von durchziehenden Tiefdruckgebieten bewerkstelligt, die aber eben auch Regen mitbringen. Warme und gleichzeitig nasse Okobtermonate treten also viel häufiger auf (beispielsweise in diesem Jahr 2014) als trockene und warme bzw. deutlich zu warme. Die einzige Wetterlage, die noch im Oktober dauerhaft warmes und trockenes Wetter bringen könnte, wäre eine kräftige südwestliche Strömung zwischen einem Hochdruckgebiet über dem Balkan und dem jahreszeitlich bedingten Aufleben der atlantischen Tiefdrucktätigkeit. Eine milde Westwindwetterlage mit viel Regen bringt eben nicht gleichzeitig warmes und trockenes Wetter.
Nun gab es in diesem Oktober tatsächlich immer wieder ausgeprägte Südwestlagen. Die teils extrem hohen Maxima bis hin zu Sommertagen (< 25°C Maximum) können nur aufgrund einer solchen Wetterlage zustande kommen. Nur wurden diese Südwestlagen in diesem Monat immer wieder unterbrochen. Außerdem macht die Statistik nach Prof. Baur keinerlei Aussage darüber, aufgrund welcher Wetterlage die warme und trockene Witterung zustande kommt. Im vorigen Jahrhundert kam es etwa 10 bis 12 mal vor, dass der Oktober mehr als 2 Grad zu warm und gleichzeitig deutlich zu trocken ausgefallen war. In allen Fällen ohne Ausnahme gab es danach in der Tat einen kalten Winter in Mittelruopa. Das heißt nun aber NICHT, dass ein zu warmer und gleichzeitig zu nasser Oktober einen milden Winter zur Folge hat!
(Nebenbei: ein statistisch viel signifikanteres Ereignis ist die Tatsache, dass im völligen Gegensatz zum vorigen Jahr im Oktober die atlantische Tiefdrucktätigkeit kaum Anzeichen einer merklichen Belebung zeigt. Außerdem ist bereits der russische Hochdruckblock unübersehbar – zu einem statistisch ungewöhnlich frühen Zeitpunkt).
Auch wenn man die Statistik in einer solchen Regel ins Gegenteil verkehrt, also ein kalter und überaus nasser Oktober auftritt, ist keine statistische Aussage möglich. Das heißt, die nachfolgenden Winter waren teils zu kalt, teils zu mild oder teils ausgeglichen. Gäbe es hier einen Zusammenhang, hätte Prof. Baur den mit Sicherheit entdeckt. Zwar gab es statistisch in 6 oder 7 von 10 Fällen mit einem nassen und kalten Oktober tatsächlich einen milden oder sehr milden Winter in Mitteleuropa, aber ein solches Verhältnis ist sicher noch nicht als statistisch signifikant einzustufen. Musterbeispiel hier war der Oktober des Jahres 1974, der im Flächenmittel in Deutschland über 300% (!) der im Mittel zu erwartenden Regenmenge gebracht hatte. Auf dem Zugspitzplatt lag der Schnee damals Ende Oktober, also zu einem Zeitpunkt, an dem die Schneedecke dort besonders niedrig bzw. (noch) gar nicht vorhanden ist, über 300 cm hoch.
Dies alles sollte bedenken, wer in den Medien pauschal mit der Prämisse „warmer Oktober – kalter Winter“ konfrontiert ist.
Und weil es so schön ist und gerade passt, soll hier noch eine weitere Baur’sche Regel genannt werden, und zwar eine mit einem Korrelationsfaktor von fast 1:
Fällt die erste Dekade im Dezember mehr als 2 Grad zu mild aus und ist auch die gesamte erste Dezemberhälfte zu mild, ist mit sehr hoher Wahrscheinlichkeit ein milder oder sehr milder Hochwinter in Mitteleuropa zu erwarten unter der Voraussetzung, dass die milde Witterung mit einer Westlage verknüpft ist“.
Diese Einschränkung am Ende wird gerne vergessen, ist aber sehr wichtig, wie Prof. Baur selbst betont hat. Im Dezember 1986 beispielsweise (den hat Prof. Baur nicht mehr erlebt) herrschte in der ersten Dezemberhälfte sehr mildes und trockenes Wetter im Bereich einer kräftigen südlichen und südöstlichen Strömung. Ziemlich genau zur Monatsmitte kippte diese Wetterlage. Es folgten eine klassische „weiße Weihnacht“, die in Berlin die höchste jemals an den Weihnachtstagen gemessene Schneedecke gebracht hatte, und ein sehr kalter Winter.
Aber auch diese Regel ist die Übersetzung einer uralten Bauernregel: „Ist bis Weihnachten kein Winter, kommt auch keiner mehr dahinter“.
Das heißt, auch im Mittelalter, vor allem zur Zeit der MWP, gab es schneelose, milde Winter. Diese Erkenntnis zu vermerken würde manchen Alarmisten ganz gut zu Gesicht stehen!
Zum Abschluss noch eine Anmerkung: Diese letzte Regel für den Dezember lässt sich aus synoptischer Sicht sehr gut herleiten. Das ist im Falle eines warmen und trockenen Oktober nicht so ohne Weiteres möglich. Generell gilt aber für statistische Betrachtungen:
Wenn in 10 von 10 Fällen immer der gleiche Ablauf verzeichnet wird, besteht hier ein sehr hoher statistischer Zusammenhang. Das heißt NICHT, dass beim elften Mal diese Abfolge MIT SICHERHEIT wieder eintritt, sondern nur, dass es dafür eine sehr hohe statistische Wahrscheinlichkeit gibt. Für Prognosezwecke ist es dabei aber VÖLLIG UNERHEBLICH, wie dieser Zusammenhang beschaffen ist, solange er nur statistisch signifikant ist.
Hans-Dieter Schmidt
Kleiner Nachtrag für die Alarmisten, die ja die Wärme so gerne als die große Katastrophe darstellen: Die Bauern der damaligen Zeit hatten natürlich vor der Kälte Angst, nicht vor der Wärme!
Hans-Dieter Schmidt war schon von Kindesbeinen an ein – wie er es nennt – Wetterfreak. Bereits während seines Studiums in den siebziger Jahren arbeitete er nebenher als Wetterbeobachter im Beobachtungs- und Radardienst. Nach seinem Diplom im Jahre 1980 arbeitete er durchweg im Bereich synoptische Meteorologie und Wettervorhersage. Da es zu seiner Zeit längst nicht die technischen Möglichkeiten wie heute gab, wurde er zum Spezialisten für Synoptik mit heute über 40-jähriger Erfahrung, um allein aus Wettermeldungen möglichst viele Erkenntnisse für die Vorhersage zu gewinnen. – Vita zusammengestellt von Chris Frey




Neue Studie: Bedrohung durch ,Ozean-Versauerung‘ widerlegt; Erwärmung lässt pH-Wert steigen

Falls die globale Erwärmung nach dem „Stillstand“ wieder einsetzt, werden die Ozeantemperaturen folglich zusammen mit dem Ausgasen von CO2 steigen, was die Ozeane basischer macht, nicht saurer. Es gibt einfach nicht beide Möglichkeiten zugleich (hier):
Entweder die Ozeane erwärmen sich und die CO2-Konzentration im Meerwasser nimmt ab, was bedeutet, dass die Ozeanversauerung infolge anthropogenen CO2 Unsinn ist.
Oder die Ozeane kühlen sich ab, und das anthropogene CO2 aus der Atmosphäre löst sich im kälteren Meerwasser und verursacht eine – nicht signifikante – Ozeanversauerung, was bedeutet, dass die sich erwärmenden Ozeane und der damit verbundene Anstieg des Meeresspiegels Unsinn ist.
Man wähle also – die REALE WISSENSCHAFT sagt, dass nicht beides zugleich der Fall sein kann.
Außerdem zeigt die Studie, dass der pH-Wert des Sees über eine große Bandbreite variiert hat von etwa 7,5 bis 8,8, was einfach abhing von der Temperatur eines jeden Monats des Jahres. Wie die „Versauerungs“-Alarmisten zu sagen pflegen, eine Variation von 1,3 pH-Einheiten ist äquivalent zu einer Änderung von Wasserstoff-Ionen von 1995% infolge der logarithmischen pH-Skala, und das nur in einem einzigen Jahr! Sommermonate sind natürlich verbunden mit wärmeren Temperaturen und alkalischerem Wasser, höhere pH-Werte und Wintermonate sind assoziiert mit kälteren Temperaturen und viel „saureren“ niedrigeren pH-Werten. Man beachte auch, wie der pH variiert zwischen etwa 7,5 und 8,8, einfach abhängig von der Tiefe zu einer gegebenen Zeit, weil kälteres Wasser in größeren Tiefen höhere Partialdrucke von CO2 aufweist als das wärmere Oberflächenwasser:

Die zweite Graphik von links zeigt den rekonstruierten pH der letzten 280.000 Jahre, die dritte Graphik von links die Temperatur-Rekonstruktion. Man sieht, wie sehr beide in Harmonie schwingen, obwohl die Studie sagt, dass pH der Temperatur manchmal bis zu vielen tausend Jahren hinterherläuft. Dies entspricht genau den Ergebnissen aus Eisbohrkernen, denen zufolge der CO2-Gehalt der Temperatur ebenfalls rund 1000 Jahre hinterherläuft.

Der Vergleich mit Pollenansammlungen in Bohrkernen aus dem Biwa-See zeigt, dass der pH von Seewasser durch die Sommertemperaturen in Zeiten geringer Exzentrizität bestimmt worden ist, während er in Zeiten hoher Exzentrizität durch die Sommerniederschläge bestimmt worden ist. Von vor 130.000 bis 55.000 Jahren lief der pH-Wert des Sees (Sommerniederschlag) hinter dem der sommerlichen Temperatur um viele tausend Jahre hinterher.
Diese Ergebnisse stehen in direktem und vollständigem Widerspruch zu der Angstmache um die „Versauerung“ seitens CAGW. Stattdessen zeigt sich, dass eine Erwärmung die Ozeane alkalischer machen sollte, nicht „saurer“.

Clim. Past, 10, 1843-1855, 2014
http://www.clim-past.net/10/1843/2014/
doi:10.5194/cp-10-1843-2014

Die Studie: Water pH and temperature in Lake Biwa from MBT’/CBT indices during the last 280 000 years

T. Ajioka, M. Yamamoto, K. Takemura, A. Hayashida, and H. Kitagawa
Abstract
Wir haben eine 280.000 Jahre überdeckende Aufzeichnung des pH-Wertes und der Wassertemperatur im Biwa-See in Zentraljapan erstellt, indem wir den Methylierungs-Index [?] (MBT) und das Verhältnis des Zyklisierungs-Verhältnisses [?] (CBT) in verzweigten Tetraedern in Sedimenten von Kolben und Bohrloch-Kernen analysierten [Original der ganze Satz: „by analysing the methylation index (MBT) and cyclisation ratio (CBT) of branched tetraethers in sediments from piston and borehole cores“. Das ist mir völlig unverständlich. Eine Bildungslücke von mir? Anm. d. Übers.] Unser Ziel war es, die Reaktionen auf Niederschlag und Lufttemperatur in Zentraljapan besser zu verstehen im Rahmen der Variabilität des Ostasiatischen Monsuns in orbitalen Zeitmaßstäben. Weil der pH-Wert des Wassers im Biwa-See durch den Eintrag von Phosphor- und Kalisalzen bestimmt wird, sollte die Aufzeichnung des pH-wertes im Wasser die Änderungen der Temperatur und des Niederschlags in Zentraljapan spiegeln. Ein Vergleich mit Pollenansammlungen in Sedimentkernen aus dem Biwa-See zeigt, dass der Seewasser-pH bestimmt wurde durch die Sommertemperatur während der Niedrig-Exzentrizitäts-Periode vor 55.000 Jahren, während er in der Hoch-Exzentrizitäts-Periode danach durch den Sommerniederschlag bestimmt worden ist. Von vor 130.000 bis 55.000 Jahren lief die Variation des Seewasser-pH (Sommerniederschlag) dem durch die Sommertemperatur bestimmten Wert um viele tausend Jahre hinterher. Diese Perspektive ist konsistent mit den Ergebnissen früherer Studien (Igarashi und Oba 2006; Yamamoto 2009) denen zufolge die Temperaturvariation der Niederschlagsvariation in Zentraljapan vorausging.
Link: http://wattsupwiththat.com/2014/10/21/new-paper-debunks-acidification-scare-finds-warming-increases-ph/
Übersetzt von Chris Frey EIKE




Europas grüner Selbstmord: Schwerindustrie verlegt Investitionen ins Ausland

In den achtziger Jahren des 19. Jahrhunderts gründete Friedrich Engelhorn eine Firma, um Färbemittel für die boomende Textilindustrie in Europa herzustellen. Fast 150 Jahre später ist diese Firma – Badische Anilin & Soda Fabrik BASF – der weltgrößte Hersteller von Chemikalien.
Trotz des Wachstums zu einem globalen Unternehmen blieb BASF ein integraler Bestandteil der industriellen Basis, die geholfen hat, Deutschland zur größten Volkswirtschaft in Europa zu machen. Und Ludwigshafen bleibt die Heimatstadt des Unternehmens. Das BASF-Grundstück, ausgedehnt über vier Quadratmeilen [ca. 10 km²] entlang des Rheins, ähnelt einer kleinen Stadt mit 33.000 Arbeitern, die in 2000 Gebäuden tätig sind und die durchzogen ist von Straßen und Schienen.
In letzter Zeit allerdings hat BASF immer mehr Investitionen außerhalb Deutschlands getätigt, vor allem in den USA. Und die Gründe hierfür helfen zu illustrieren, warum die deutsche industrielle Ökonomie an Fahrt verliert – und warum Deutschland Gefahr läuft, in eine Rezession zurückzufallen.
BASF-Direktoren sagen, dass die Politik in Deutschland und der Europäischen Union gegen die Industrie gerichtet ist, vor allem dann, wenn es um Energie geht. Diese Politik zwingt große Unternehmen, sich anderswo umzuschauen, wenn sie expandieren wollen.
Energie ist möglicherweise der größte Einzel-Kostenfaktor für BASF. Gewaltige Mengen Energie werden benötigt, um chemische Rohmaterialien wie Äthylen, Propylen und Butan für eine Vielzahl von Produkten herzustellen wie Plastik, Pharmaka und Gummi. Und Öl oder Erdgas bilden die Grundlage zur Erzeugung dieser Chemikalien.
Vor allem in Deutschland sind die Energiepreise nach oben geschnellt als Folge des großen Vorantreibens erneuerbarer Energiequellen seitens der Regierung – eine Politik, die die Regierung von Kanzlerin Merkel Energiewende genannt hat.
Gleichzeitig sorgt die rasant steigende Förderung von Erdgas aus Schiefergestein in den USA für billige und mehr verfügbare Energie denn je, was den Chemiewerken und anderen Fabriken in den USA neue Wettbewerbsvorteile gegenüber Europa verschafft. Das ist ein gewichtiger Grund für BASF, einige seiner Werke in den USA auszubauen und dort auch neue Werke zu errichten.
Schon jetzt hat BASF seine jährlichen Investitionen in den USA verdoppelt auf etwa 1 Milliarde Dollar pro Jahr. Zusammen mit dem französischen Partnerunternehmen Total wurde kürzlich eine Erweiterung um 400 Millionen Euro abgeschlossen und eine Aufwertung ihres petrochemischen Werkes in Port Arthur, Texas, mit 250 Arbeitern.
Als Folge dieser Modifikationen kann die Haupterzeugungsmaschine der Fabrik, eine unter der Bezeichnung Steam Cracker bekannte Installation – die zum ersten Mal 2001 in Betrieb genommen worden war und die zuvor mit Öl betrieben wurde – jetzt die Chemikalien aus Schiefergas herstellen, was riesige Einsparungen zur Folge hat.
„Wir verlagern Investitionsgelder von Europa in die USA als Konsequenz der immer schlechter werdenden Wettbewerbsfähigkeit in Europa“, sagte Harald Schwager, Vorstandsmitglied bei BASF, in einem Interview. Das ist eine bedeutende strategische Verlagerung seitens des Unternehmens, das im vorigen Jahr ein Betriebseinkommen von 74 Milliarden Euro erzielt hatte.
Während der nächsten fünf Jahre plant BASF, ein Viertel seines geplanten Investitionsvolumens in Höhe von 20 Milliarden Euro in Nordamerika zu stecken. Zum ersten Mal plant das Unternehmen, seine Ausgaben in Deutschland vom traditionellen Drittel auf ein Viertel der Investitionssumme zurückzufahren.
BASF ist nicht das einzige Unternehmen, dass sich jenseits der Grenzen von Europa umschaut. Seit 2011 hat die chemische Industrie insgesamt – Deutschlands drittgrößter Industriesektor nach Auto- und Maschinenbau – seine Produktion oder Investitionen in Deutschland nicht erhöht, sagt der Industrieverband VCI.
Und einer Umfrage der deutschen Industrie- und Handelskammer zufolge erwägt fast ein Viertel aller Unternehmen der Schwerindustrie, die Produktion in Deutschland zu verringern, (…) „Die schlechte Nachricht aus europäischer Perspektive – also nicht aus der Perspektive eines einzelnen Unternehmens – ist, dass es nicht nur BASF ist“, sagte Herr Schwager. „Es sind viele energieintensive Unternehmen. Sie merken immer mehr, dass die Vorteile einer Verlagerung von Investitionen aus Europa in die USA immer größer werden“.
Link: http://www.thegwpf.com/europes-green-suicide-heavy-industry-moves-investment-abroad/
Übersetzt von Chris Frey EIKE
Bemerkung des Übersetzers: Steht davon eigentlich irgendetwas in der deutschen „Qualitäts“-Presse? Wie sonst wenn nicht hier soll man also darüber informieren?




Zahl der Naturkatastrophen sinkt 2013 auf Zehn-Jahres-Tief

Auch die Süddeutsche Zeitung hat es am 16. Oktober 2014 bemerkt:

Zahl der Naturkatastrophen sinkt 2013 auf Zehn-Jahres-Tief
Die Zahl der Naturkatastrophen ist im vergangenen Jahr so niedrig gewesen wie seit zehn Jahren nicht mehr. Das geht aus dem „Weltkatastrophenbericht 2014” hervor, den die Föderation der Rotkreuz- und Roter-Halbmond-Gesellschaften (IFRC) in Genf veröffentlichte. Demnach wurden im vergangenen Jahr 337 Naturkatastrophen gezählt, fast die Hälfte des Höchststandes 2005. Die Zahl der Toten lag bei 22 452 und damit deutlich unter dem Durchschnitt des Jahrzehnts von 97 954 Opfern.

Weiterlesen in der Süddeutsche Zeitung.
Übernommen von Die kalte Sonne




Die deutsche Energiewende – das Billionen-Grab

Wie sich die 7 Billionen Euro zusammensetzen

Allein die zusätzlichen Stromkosten, die das Erneuerbare-Energien-Gesetz (EEG) verursacht, beziffert Limburg auf rund 2 Billionen Euro. Die zusätzlichen Kosten für das Stromnetz mit weiteren Trassen veranschlagt er auf 1 bis 1,5 Billionen. Die Energiesparverordnung (EnEV) führt nach Limburg zu einer Kostenbelastung von rund 3 Billionen.
Hinzukommt: Mit zu hohen Stromkosten verlieren Betriebe an Wettbewerbsfähigkeit. Zwingt das, wie es schon geschieht, zu Schließungen oder zu Verlagerungen ins Ausland, gehen Arbeitsplätze dauerhaft verloren. Die Kosten, die sich daraus ergeben, sind noch nicht bezifferbar, aber es werden, so Limburg, weitere Milliarden sein. Hinzukommt, dass mit immer mehr Windkraft- und Fotovoltaikanlagen die Gefahr für die Netzstabilität noch größer wird als schon bisher. Denn der Strom mit Wind und Sonne ist höchst unzuverlässig, ist „Flatterstrom“. Netzzusammenbrüche führen zu flächendeckenden Stromausfällen. Auch diese Kosten lassen sich vorher schwer berechnen. In die Milliarden werden auch sie gehen.

7 Billionen Euro sinnlos verpulvert

Also rund 7 Billionen insgesamt. Wer nun sagt „Na ja, bis zum Jahr 2050 ist es noch ziemlich weit, und der jährliche Betrag – seit Beginn bis dahin durchschnittlich auf die Jahre gerechnet – sieht doch schon viel kommoder aus, das packen wir schon“, der unterschlägt, das auch der jährliche Betrag schon zuviel ist. Vor allem aber unterschlägt er dies: Diese Kosten von 7 Billionen sind völlig unnötig und werden sinnlos verpulvert. Denn ohne seine „Energiewende“ könnte sich Deutschland wie zuvor reibungslos und sicher mit Strom versorgen, ohne diese Billionen ausgeben zu müssen und ohne alle damit zu belasten. Und noch schlimmer: Das Klima wird damit schon gar nicht gerettet, dieses vorgebliche Ziel also noch nicht einmal erreicht.

Wieviel sind 7 Billionen? Zum Beispiel: 140 Milliarden 50-Euro-Scheine

Eine Billion ist bekanntlich eine Eins mit zwölf Nullen. Eine Billion sind tausend Milliarden, sieben Billionen also siebentausend Milliarden oder siebenhunderttausend Millionen oder sieben Millionen Millionen. Das sind Größenordnungen, die sich der Normalbürger schwer vorstellen kann. Versuchen wir es mal mit der 50-Euro-Banknote. Wer eine Billion Euro in 50-Euro-Scheinen auszahlen wollte, müsste sich 20 Milliarden dieser Scheine besorgen. Würde man alle diese Geldscheine der Länge nach hintereinander legen, so entstünde ein Band, das sich siebzigmal um den Erdball wickeln ließe. 2)   Das also ist eine Billion. Aber mit sieben Billionen Euro in 50-Euro-Noten (= 140 Milliarden Scheine) käme man vierhundertundneunzigmal um die Erde herum. Also ziemlich viel Holz, untertreibend salopp gesagt. Aber zuviel Holz, wenn man nicht verblödet ist, es sei denn, es stecken Ziele dahinter, die verborgen bleiben sollen. Aber was verborgen wird, ist noch gefährlicher.

Womit die Menschen für die „Energiewende“ geködert werden

An Zielen, an Absichten, die nicht verborgen werden, führte Limburg in Frankfurt (neben dem Vermeiden von CO2 als „Klimaschutz“) diese auf: eine nachhaltige Entwicklung der Energieversorgung ermöglichen, die volkswirtschaftlichen Kosten der Energieversorgung auch durch die Einbeziehung langfristiger externer Effekte verringern (Internalisierung externer Kosten), fossile Energieressourcen schonen und die Weiterentwicklung von Technologien zur Erzeugung von Strom aus erneuerbaren Quellen fördern sowie mit der EnEV bis 2050 einen nahezu „klimaneutralen“ Gebäudebestand zu erreichen. Ebenfalls ausdrückliches Ziel der Energiewende ist „Weg von der Stromerzeugung mit Kernkraft“. Aber für die Wende geködert werden die Menschen mit der bekannten, aber unbewiesenen Behauptung, anthropogenes CO2 führe zu einer zu starken Erwärmung der Erde und damit zu einem  Klimawandel, folglich sei das (bestehende) Klima zu retten.

Für 7 Billionen Euro ein Temperatursenkungseffekt in 36 Jahren um 0,004 Grad

Selbst dann, wenn man der Behauptung glaubt und ihr folgt: Das Ergebnis ist derart grotesk, dass es ein Wahnsinn ist, dafür 7 Billionen Euro auszugeben und zu verschwenden. Auch das führte Limburg vor. Geht man vom Jahr 2000 aus, dann belief sich der errechnete deutsche Ausstoß von anthropogenem CO2 in Deutschland (Industrie, Haushalte, Verkehr, Energie u.a.) auf rund 830 Millionen Tonnen. Da sind zwar auch andere sogenannte Treibhausgase dabei, aber zu 99 Prozent bestehen diese 830 Millionen aus CO2. Der Ausstoß dieses vorgeblichen Treibhausgases soll – unter anderem durch Stromerzeugung mittels Wind, Sonne und „Biogas“ – bis 2050 auf 166 Millionen Tonnen verringert werden. Dann hätte das einen errechneten Temperatursenkungseffekt von gewaltigen 0,004 Grad – aber nur rein theoretisch, denn ob es wirklich (in 36 Jahren!) so kommt, ist unbeweisbar.

Für zigtausend subventionierte Arbeitsplätze zigtausende bedrohte und vernichtete

Die Arbeitsplätze in der Windkraft-, Fotovoltaik- und Biogasindustrie sind hochsubventioniert. So beliefen sich die EEG-bedingten Zwangsbelastungen der Stromverbraucher 2013 netto auf rund 20 Milliarden Euro. Mit diesem Betrag wurden die Erzeuger von EEG-Strom (aus Wind, Sonne, Biogas) subventioniert. 2013 waren in dieser Industrie nach Angaben Limburgs rund 85 000 Menschen real beschäftigt. Jeder Arbeitsplatz ist also im Durchschnitt mit 235 000 Euro subventioniert worden, weit mehr als einst im deutschen Kohlebergbau. Diesen subventionierten Arbeitsplätzen muss man auch jene Arbeitsplätze gegenüberstellen, die die Energiewende durch die Stromverteuerung vernichtet. Als Beispiele direkter Arbeitsplatzverluste nannte Limburg diese: Bei den Stromversorgern seien 20 000 Beschäftigte bedroht, bei den Kraftwerkzulieferern akut derzeit etwa 10 000, EnBW baue 1350 Arbeitsplätze ab, RWE 10 400, EON 11 000, Siemens (bei der Windkraft) 1000, Vattenfall 1500 sowie RWE, Evonik, Lanxess zusammen 30 000.3)
1) Veranstalter dieser 8. Konferenz Internationalen Klima- und Energiekonferenz (IKEK-8) und der früheren sieben Konferenzen ist das Europäische Institut für Klima und Energie e.V., das sich abgekürzt EIKE nennt. Michael Limburg ist dessen Vize-Präsident.
2) Quelle für das Beispiel hier.
3) Limburg gab auch einen Überblick, womit alles begann, und darüber, wie es weiterging. Zuerst gab es das Stromeinspeisungsgesetz, in Kraft getreten am 1. Januar 1991. Seine Autoren waren Matthias Engelsberger (CSU) und Wolfgang Daniels (Grüne). 1991 standen in Deutschland rund 1000 Windkraftanlagen, 1999 waren es schon 10 000. Bundesumweltministerin von 1994 bis 1998 ist Angela Merkel (CDU) gewesen, danach hat bis 2005 Jürgen Trittin (Die Grünen) das Amt gehabt. Am 1. Januar 2001 folgte das Erneuerbare Energien Gesetz (EEG). Die Autoren: Michaele Hustedt, Hans-Josef Fell (beide Bündnis 90/Die Grünen), Hermann Scheer und Dietmar Schütz (beide SPD). 2001 waren rund 11 500 Windkraftanlagen aufgestellt und 2013 rund 24 000. Am 1. Februar 2002 trat die Energieeinsparverordnung (EnEV) in Kraft.
Der Beitrag erschien zuerst auf dem Blog von Dr. K.P.Krause als dessen erster Teil. Weitere Teile daraus folgen in Kürze