Warum die Menschen nicht viel mit Klimaänderung zu tun haben

Diese Wissenschaftler und andere, die jetzt vor einer globalen Abkühlung warnen, haben grundlegend eines gemeinsam – anders als die vor der globalen Erwärmung warnenden Wissenschaftler, die menschliche CO2-Emissionen für Klimaänderungen verantwortlich machen, schauen sie auf die Meteorologie, Sonnenphysik und andere Disziplinen, die die Sonne, kosmische Strahlen und den Orbit der Erde als dominante Faktoren unseres Klimas ansehen.

„Die Sonne, nicht der Mensch, erwärmt die Erde” hat Lüdecke in einem früheren Artikel* geschrieben. Knapp und präzise wird dort die weiter um sich greifende Ansicht auf den Punkt gebracht, dass die Rolle des Menschen keine Konsequenzen für das Weltklima hat. Die sich immer mehr ansammelnden Beweise von Wissenschaftlern, die sich eher auf natürliche als auch anthropogene Erklärungen für Klimaänderungen stützen, hat selbst die BBC, einen passionierten Befürworter der Theorie zur globalen Erwärmung, dazu gebracht, die Sonne mit ins Boot zu holen.

[*Ein englischer Link. Das gibt es sicher auch auf Deutsch, habe ich aber auf die Schnelle nicht gefunden. A. d. Übers.]

„Echte Gefahr einer ‚Kleinen Eiszeit’ nach Art des Maunder-Minimums”, hieß es im Oktober in einer BBC-Schlagzeile. Bezogen hatte man sich auf den Standpunkt von Mike Lockwood, Professor für Space Environment Physics im Fachbereich Meteorologie an der Reading University. Er sagte, dass „die Sonnenaktivität derzeit schneller abnimmt als zu jeder anderen Zeit während der letzten 10000 Jahre“.

Während der letzten Jahre war es Standard, dass Vorhersagen einer globalen Abkühlung und natürliche Erklärungen für Klimaänderungen kontrovers, wenn nicht abartig waren. Schaut man aber auf den weiter gefassten Standard des letzten Jahrhunderts der Wissenschaft – und während der Jahrhunderte zuvor – war es abartig, massive Klimaänderungen der Zunahme des Kohlendioxids zuzuordnen, einem Spurengas, dass lediglich einen so winzigen Anteil unserer Atmosphäre ausmacht, dass man es in Parts per Million messen muss. Die etablierte Wissenschaft hat immer natürliche Antriebe für Klimaänderungen ursächlich betrachtet.

Die Kehrtwende der etablierten Wissenschaft resultierte nicht aus einer Änderung der Wissenschaft, sondern aus einer Änderung im Establishment, und zwar in Gestalt der UN-Bürokratie. Als die UN im Jahre 1988 das IPCC ins Leben gerufen haben, wurde dieses beauftragt, ausschließlich auf den Menschen zurückzuführende Gründe zu untersuchen. Dieser Auftrag sorgte dafür, dass das IPCC es ablehnte, den Einfluss der Sonne auf das Erdklima auch nur als der Diskussion würdig zu betrachten. Wissenschaftsdelegationen aus der ganzen Welt mussten dies auf einem IPCC-Treffen im Jahre 1992 erfahren. Zur Überraschung der dänischen Delegation hatte man es Eigil Friis-Christensen, Leiter des Bereiches Geophysik am Danish Meteorological Institute untersagt, Ergebnisse aus einem begutachteten Artikel im Science Magazin zu präsentieren, an dem er als Ko-Autor mitgewirkt hatte und in dem überzeugend eine starke Korrelation zwischen Sonnenflecken und der globalen Temperatur gefunden worden war.

Ausschließlich Beweise einer dem Menschen geschuldeten Klimaänderung würden vom IPCC herangezogen, wurde ihm und anderen danach gesagt. Und für alle Absichten und Ziele, musste er bald erfahren, würden nur Forschungen in Richtung anthropogener Gründe gefördert, veröffentlicht und mit Glaubwürdigkeit versehen. Friis-Christensen und andere, die die Rolle der Sonne erforschten, mussten erleben, dass ihre Arbeit lächerlich gemacht, marginalisiert und von jeder Förderung ausgenommen wurde. Bis zu einem bemerkenswerten Grad war das IPCC erfolgreich bei der Kontrolle, welche Arbeiten zur Veröffentlichung akzeptiert wurden, welche Karrieren man fördern und welche man unterdrücken würde.

Was das IPCC nicht kontrollieren konnte [und kann], war [und ist] das Klima. Obwohl die CO2-Emissionen ihren unaufhörlichen Anstieg fortgesetzt haben, sind die Temperaturen dem nicht auf dem Fuße gefolgt, wie es die Modelle der globalen Erwärmung vorhergesagt haben. Stattdessen erreichten die Temperaturen in den neunziger Jahren ein Maximum und haben seitdem auf diesem Niveau verharrt. Selbst Befürworter der Hypothese von der globalen Erwärmung – einschließlich Al Gores Guru James Hansen – räumen inzwischen ein, dass der globale Temperaturanstieg aufgehört hat.

Die Wissenschaftler der globalen Erwärmung – deren Modelle versagt haben und die jetzt eher nach dem Prinzip Hoffnung als nach der Wissenschaft gehen – sagen jetzt, dass die Temperaturen ihren Anstieg bald wieder aufnehmen werden. Die Wissenschaftler der globalen Abkühlung nehmen das Gegenteil an – dass nämlich die Temperaturen der Erde ihren Höchstwert überschritten haben und dass es solche Maxima unzählige Male als Folge natürlicher Zyklen schon immer gegeben habe. Da dies also konsistent mit der Erdgeschichte ist und auch mit den Gesetzen der Physik, werden die Temperaturen der Erde jetzt fallen.

Link: http://www.huffingtonpost.ca/lawrence-solomon/global-cooling_b_4413833.html

Übersetzt von Chris Frey EIKE




Falls anthropogene Treibhausgase für die Erwärmung der globalen Ozeane verantwortlich sind…

Oder, aus einem anderen Blickwinkel betrachtet, man hat uns gesagt, dass – während sich die Lufttemperaturen nicht mehr erwärmen – sich die Ozeane in der Tiefe weiterhin erwärmen… und doch findet diese Erwärmung nicht im größten Ozeanbecken statt, dem Pazifik. Der Nordatlantik zeigt sogar Beweise für eine Abkühlung.

Außerdem sagen Kevin Trenberth und seine Jünger, dass die jüngste Serie von La Niña-Ereignissen dafür sorgen, dass sich der Pazifik erst in Tiefen unter 700 Metern erwärmt und dass sich als Folge davon die globale Erwärmung fortsetzt. Siehe: Meehl et al (2013)Balmaseda et al. (2013)Trenberth and Fasullo (2013).

Warum aber haben sich dann die jährlichen vertikalen Mitteltemperaturen des Pazifiks (0 bis 2000 m) geweigert, überhaupt irgendeine Erwärmung während des letzten Jahrzehnts zu zeigen? Die Daten für den Pazifik (0 bis 700 m, 0 bis 2000 m und 700 bis 2000 m) in Abbildung 2 zeigen etwas ganz anderes als das, was Trenberth & Co. behauptet haben.

Die Daten des Pazifik zeigen, dass die Erwärmung in einer Tiefe zwischen 700 und 2000 Meter einfach die Abkühlung kompensiert hat, zu der es in den oberen 700 Metern gekommen war. (Anmerkung: Die Grundlage für Temperaturanomalien in Tiefen zwischen 700 und 2000 Metern werden in diesem Beitrag besprochen).

Kein Wunder, dass Trenberth auf eine Re-Analyse zurückgreifen musste (anstatt auf Daten) für seinen kürzlichen Jubelschrei ‚Hey, ich habe die fehlende Erwärmung gefunden‘.

Wenn die Daten nicht die auf Computermodellen basierenden Erwartungen der klimawissenschaftlichen Gemeinschaft erfüllen, passt diese Gemeinschaft die Daten einfach an die Modelle an. Wenn dann aber die angepassten Daten immer noch nicht die Erwartungen der klimawissenschaftlichen Gemeinschaft erfüllen, verwirft diese Gemeinschaft die Daten und benutzt stattdessen den Output eines anderen Computermodells, Re-Analyse genannt. Unter dem Strich: Anstatt zuzugeben, dass die Hypothese der vom Menschen verursachten globalen Erwärmung in Bausch und Bogen gescheitert ist, pflegen sie die Fortsetzung eines Mythos‘.

Eine kurze Bemerkung zu den vertikalen mittleren Temperaturdaten:

Die vertikalen mittleren Temperaturdaten des NODC ist die Temperatur-Komponente ihrer Daten zum ozeanischen Wärmegehalt. Die andere Komponente ist der Salzgehalt.

Weiterführende Literatur:

Die Daten des ozeanischen Wärmegehaltes und dessen Komponenten sind im besten Falle fragwürdig, im schlimmsten Falle frei erfunden. Weitere Informationen hier:

Link: http://wattsupwiththat.com/2013/12/19/if-manmade-greenhouse-gases-are-responsible-for-the-warming-of-the-global-oceans/

Übersetzt von Chris Frey EIKE




Nachhaltigkeit – Was ist das?

Ist schon der ursprüngliche Begriff unscharf, wird er auch noch maßlos überfrachtet:

Mit der Arbeit der Brundlandt-Kommission der UN und der darauf folgenden UN Konferenz für Umwelt und Entwicklung 1992 wurde ein Begriffsverständnis von “Nachhaltigkeit” salonfähig, das verschiedene politische Interessen vereinen sollte; dabei sollten umweltpolitische Ziele den ökonomischen und sozialen Entwicklungszielen gleichgestellt werden. Der Begriff Nachhaltigkeit wird hier als Zielbündel verwendet: dauerhaft stabile Gesellschaften seien zu erreichen, indem ökologische, ökonomische und soziale Ziele nicht gegeneinander ausgespielt, sondern gleichrangig angestrebt würden. Dieses Begriffsverständnis von Nachhaltigkeit enthält den Anspruch, dass diese Ziele für alle Länder der Welt (globale Gerechtigkeit) und für künftige Generationen (Generationengerechtigkeit) gelten. Dieser Ansatz wurde von der Enquete-Kommission des Deutschen Bundestages weiter ausgearbeitet, bei ihr setzt sich der Begriff der Nachhaltigkeit aus drei Komponenten zusammen, einer ökologischen, ökonomischen und sozialen Nachhaltigkeit, die auch als Drei-Säulen-Modell der Nachhaltigkeit bezeichnet werden. Wiki

Das ist nichts weniger als Utopia, die perfekte Welt, in der alle für alle Zeit glücklich sind. Ein Traum, aber keine Vision, denn es ist schlicht unmöglich, auch nur annähernd solche paradiesischen Zustände zu verwirklichen und es besteht im Gegenteil die Gefahr, dass die Propagierung solcher unerfüllbarer Hoffnungen zu Enttäuschung, Unzufriedenheit, Unruhe und Unfreiheit führt – Historische Beispiele dafür gibt es genug!
Beachtlich ist, dass der Begriff nicht nur bis zur Unkenntlichkeit verschwimmt, sondern eine sehr starke ‘kommunistische’ Färbung annimmt – Was hat eigentlich soziale Gerechtigkeit mit sparsamem Umgang mit Ressourcen zu tun? Ist es nicht im Gegenteil so, dass eine soziale Welt gerade möglichst viel Konsum für möglichst viele Menschen bieten sollte?

Ist es etwa besonders gerecht, wenn möglichst alle gleich arm und knapp gehalten werden?

Oder ist der Ökologismus nur ein Neuaufguss des Kommunismus, der Wolf im Schafspelz? Die Vermutung ist sehr naheliegend.
Ein Beispiel dafür:
Auf Grundlage des Berichts der Brundland-Komission der UN wurde eine “Weltdekade der Vereinten Nationen: Bildung für nachhaltige Entwicklung” ausgerufen, die die Ziele der ‘Nachhaltigkeit’ nach UN-Verständnis propagieren und verankern soll.

Wie sieht das praktisch aus?

Da gibt es zum Beispiel den Verein ‘Creating Sustainability e.V.‘ , der von der UN gefördert wird.
Er betreibt die Webseite ‘Zukundo.de‘  zwecks Indoktrination von Kindern und da hier die ‘Nachhaltigkeits’-Ziele ohne hochtrabendes Geschwurbel ganz praktisch an die Zielgruppe gebracht werden müssen, lohnt sich ein Blick darauf.

Erst einmal: Was ‘Nachhaltigkeit’ ist, erfährt man dort nicht. Die wissen es selbst nicht, sondern lassen raten. Aber sie lenken in eine ganz bestimmte Richtung. Bezeichnend das  Filmchen “Lass dir erklären, worum es hier geht!”

Die zentrale Botschaft:”…und ohne Ausbeutung!”

Es ist sozusagen das Manifest. Und von ökologischen Zielen, Umweltschutz, Ressourcenschonung ist kaum die Rede. Statt dessen “Aber Spaß auf Kosten der anderen? Das muss dann doch nicht sein!”
Und schuld sind?

Natürlich die Kapitalisten!

Alter Wein in neuen Schläuchen, Agitprop nach bekanntem Muster, nur aussen dünn mit grüner Farbe angestrichen.

Doch zurück zu den – buchstäblichen – Wurzeln:

DIE WELT ALS WALD

‘Nachhaltig’ ist ursprünglich ein Begriff aus der Biologie bzw. Forstkultur und bezeichnet das Prinzip ‘Entnehme nicht mehr als nachwächst’.
Mit einiger Berechtigung lässt sich der Begriff auch auf die Gewinnung von Energie ausweiten, wenn die beständigen natürlichen Energieflüsse als ‘nachwachsend’ verstanden werden und ‘geerntet’ werden.

Aber für die dritte menschliche Bezugsquelle, die Bodenschätze, kann der Begriff keinesfalls aptiert werden, denn diese sind grundsätzlich in Zeiträumen der menschlichen Existenz nicht ‘nachwachsend’ sondern begrenzt und absehbar erschöpflich. Jede Entnahme ist daher Raubbau und zwangsläufig un-nachhaltig. Es gehört zu den festen Glaubensartikeln des Ökologismus, dass es dafür keinen Ausweg gibt und dass dieses Ende der Welt unmittelbar bevorsteht; ‘Peak Oil’ ist dafür nur der Vorbote und letztendlich sollen alle Bodenschätze ihrem nahen Ende entgegensehen.
Dieses Dilemma soll durch ‘Sparsamkeit’ gelöst werden, was aber nur bedeutet, dass das unabwendbare Ende zeitlich hinausgezögert wird. Der Widerspruch wird nicht aufgelöst, sondern verdrängt.
Damit entlarvt sich der umfassende Anspruch des Begriffs ‘Nachhaltigkeit’ als diffuse emotionale Formel die eher eine Weltflucht als eine Weltgestaltung ist. Durch eine Art Magie soll die ‘richtige’ Lebenshaltung, die Unterwerfung unter natürliche Kreisläufe, irgendwie die Lösung für alles erbringen.

Dies wird übrigens noch klarer, wenn man sieht, dass der Ökologismus sogar im ursprünglichen, biologischen Sinn das Ziel verfehlt, denn die ‘Bio’-Landwirtschaft ist grundsätzlich un-nachhaltig, sie nimmt dem Boden seine knappen Mineralien und laugt ihn aus, er wird unfruchtbar, weil der Erosions-Bergbau nicht mehr mit der Entnahme mithalten kann. Erst die moderne technologische Agrarwirtschaft konnte diesen Raubbau durch Einführung der Mineraldüngung kompensieren und eine nachhaltig optimierte Fruchtbarkeit gewährleisten.

“SCHWUND IST IMMER!”

Da ein völliger Verzicht auf Bodenschätze unmöglich ist, sollen gemäss dem Nachhaltigkeitsdogma die begrenzten und endlichen Vorräte dafür eingesetzt werden, eine regenerative Zivilisation aufzubauen, die von begrenzten Ressourcen möglichst unabhängig ist und sie idealerweise analog zur Biosphäre in einem beständigen Kreislauf recycelt.

Leider funktioniert das aber nicht, nicht mal in der Natur.
Die Biosphäre betreibt nämlich ebenfalls ‘Bergbau’ und ist zumindest an Land zwingend auf die Erschliessung immer neuer Bodenschätze angewiesen:

Flußdelta: Eine Abraumhalde des Biosphären – ‘Bergbaus’

Pflanzen (und damit auch die von den Pflanzen lebende Tierwelt) benötigen unbedingt Mineralien, neben dem Wasser insbesonders die drei chemischen Elemente Stickstoff, Phosphor und Kalium.
Während es den Pflanzen gelang, einen rudimentären Kreislauf für Stickstoff-Verbindungen in Gang zu setzen, indem einige Organismen die Fähigkeit gewannen, Stickstoff aus der Luft zu binden, sind Phosphor und Kalium nur durch fortschreitenden Abbau zugänglich. Fels wird durch Erosion zerlegt, wobei die Pflanzen mit Durchwurzelung des Bodens und Ausscheidung von Säuren kräftig mithelfen, und die darin enthaltenen Mineralstoffe werden in löslicher Form freigesetzt. Zum Teil werden sie dann von den Pflanzen ein- oder auch mehrfach genutzt, aber letztendlich landen alle löslichen Minerale und der ‘Abraum’ dieses natürlichen Bergbaus im Meer und müssen durch beständigen neuen Aufschluß (‘Verwitterung’) von Urgestein ersetzt werden. Das ist mehr oder minder eine Einwegstrasse und das ganze funktioniert nur, weil sich die Pflanzenwelt sehr beschränkt und weit von der optimalen Versorgung entfernt eine Mangelwirtschaft betreibt und weil sehr, sehr viel Urgestein und Fels zur Verfügung steht.

Eine technologische Nachahmung kommt also ebenfalls nicht ohne Bergbau aus, man kann keinesfalls alles ’100% recyceln’, nicht mal die Natur kann das.
Technologie ist aber sowohl quantitativ als auch qualitativ auf weitaus mehr Bodenschätze angewiesen als Pflanzen und so lange sich eine Gesellschaft nicht auf primitivste Wirtschaft auf Steinzeitniveau beschränkt, ist sie auf grosse Mengen relativ seltener Elemente wie Eisen, Kupfer, Aluminium, Zink, Stahlveredler (Mangan, Chrom, Nickel etc), Seltenen Erden, Schwefel, Phosphor etc. in abbauwürdigen, ‘reichen’ Vorkommen angewiesen.

ZAUBERLEHRLINGE

Trotz dieses Dilemmas wird versucht, das Idealbild praktisch zu verwirklichen. Vor allem auf dem Energiesektor, der stellvertretend für das Ganze gesehen wird

Dabei wird jedoch ausgerechnet die schlechteste aller Wirtschaftsmethoden, die Planwirtschaft, als Allheilmittel angesehen. Die dadurch entstehenden Probleme und Widersprüche sind geradezu grotesk:
Man will ‘Ressourcen sparen’, aber die wirkungsvollste Sparmethode, der Einsatz der Kernkraft, wird geächtet, obwohl diese in geradezu idealer Weise ‘Nachhaltigkeit’ verspricht. Statt dessen baut man Windräder:

Die modernere E 126, die eine Gesamthöhe von fast 200 Metern erreicht, benötigt ein Fundament von 1.500 Kubikmetern Beton, der mit 180 Tonnen Stahl armiert ist. Auf dem runden Fundament, das 3.500 Tonnen wiegt, steht der Turm aus konischen Stahlbeton – Segmenten, der 2.800 Tonnen auf die Waage bringt. Das auf dem Turm sitzende Maschinenhaus mit Generator wiegt 340 Tonnen, die Nabe mit den Rotorflügeln aus glasfaserverstärktem Kunststoff noch einmal 320 Tonnen

Gigantische Dimensionen, enormer Materialverbrauch

Dieses Modell hat eine Nennleistung von 7.5 MW und erzeugt nach Werksangabe praktisch 15 Millionen kWh jährlich. So imposant sich das anhören mag: Es braucht rund 680 dieser Super-Windräder, um auch nur ein einziges konventionelles Kraftwerk mit 1300 MW Nennleistung zu ersetzen. Also:

– 4,3 Millionen Tonnen Beton
– 246.000 Tonnen Stahl
– 82.000 Tonnen Maschinenhaus-Werkstoffe
– 150.000 Tonnen Generator( Stahl, Kupfer etc.)
– 219.000 Tonnen Rotor (GFK-Kunststoff etc)

Ein konventionelles Kraftwerk braucht kaum 10% dieser ungeheuren Massen. Doch beim Windrad kommt noch der Mehraufwand für zusätzliche Hochspannungsleitungen und Speichersysteme dazu.

Und diese Windräder müssen alle 20 Jahre erneuert werden, denn länger halten sie nicht. Es ist also keineswegs damit getan, etwas aufzubauen und dann geruhsam die materiellen und energetischen Zinsen der Investition zu kassieren oder gar noch zu vererben, sondern da entstehen gigantische ‘Ewigkeitskosten’, das genaue Gegenteil von gefühlter ‘Nachhaltigkeit’.

Wer aber glaubt, ‘Nachhaltigkeit’ sei eine neue, viel bessere Philosophie für den Umgang mit Natur und Mensch, der sei an die maßlosen Zerstörungen erinnert, die durch den Raubbau der Seltenen Erden in China entstehen: Eine fast beispiellose Verseuchung ganzer Landstriche mit giftigen Rückständen im Namen der Ökologie, denn inzwischen ist die Nachhaltigkeits-Industrie für den grössten Teil der boomenden Nachfrage nach den Metallen Neodym, Lanthan etc. verantwortlich.

Neodym-Bergbau in China, für ‘saubere und nachhaltige Energie’ in Deutschland.

Wie verträgt sich diese skrupellose Ausbeutung mit den hehren Zielen der UN, mit der ökologischen, ökonomischen und sozialen Gerechtigkeit für jetzt und in Zukunft?

 Zukünftige Generationen sollen dieselben Chancen auf ein erfülltes Leben haben wie wir. Gleichzeitig müssen Chancen für alle Menschen auf der Erde fairer verteilt werden. Es geht zum einen um Gerechtigkeit zwischen den Generationen und zum anderen um Gerechtigkeit zwischen den verschiedenen Weltregionen, Nationen und Kulturen.

Ist es ökologisch, rücksichtslos giftige Abfälle zu verbreiten?

Ist es ökonomisch, mit ineffizienten, aber billigen und menschenverachtenden Methoden nur an den jetzigen Boom und seine schnelle Nutzung zu denken?

ist es sozial, chinesische Bauern und Arbeiter auszubeuten und gesundheitlich zugrunde zu richten und zukünftigen Generationen eine vergiftete Landschaft zu hinterlassen?
Nein, keines von allem.

Wie sich die Bilder doch gleichen: Die Giftgrube ‘Silbersee’ in der DDR, bei Bitterfeld, der ehemals ‘schmutzigsten Stadt Europas’

Es ist der altbekannte real existierende Sozialismus: Der grösstmögliche Widerspruch zwischen pathetischen, grössenwahnsinnigen Zielen und einer bitteren Realität der rücksichtslosen Ausbeutung, Unterdrückung und Zerstörung.

BERGBAU IM WANDEL

Man kann Bergbau sicher, ökonomisch und ‘nachhaltig’ betreiben.

In den entwickelten Industrieländern hat der einst gefahrvolle Beruf des Bergmanns ebenso sein Gesicht gewandelt wie die Bergbaufolgen.

Unter sozialistschem Regime wurden Bergleute in der DDR regelrecht ‘verheizt’; mit billigem Schnaps ruhiggestellt und mit Sonderzuteilungen geködert, liess man sie in den Zechen der Wismut AG verrecken, um Uran für die Bombenproduktion aus der Erde zu kratzen. Bewetterung und Arbeitsschutz wurden ignoriert und in der Folge grassierte Silikose und die Schneeberger Krankheit, der Lungenkrebs durch radioaktive Strahlung.

Halden wurden nicht gesichert, Uranstaub verbreitet sich und es kostete nach dem Zusammenbruch des Regimes viele Milliarden, die Altlasten zu sanieren.

Die wilden Jahre bei der “Wismut”

Im ‘ausbeuterischen’ Westen waren Bergleute dagegen wesentlich besser geschützt, Uranbergbau ist mit modernem Arbeits- und Umweltschutz kein Problem und stellt kein besonderes Risiko dar.
Das gilt nicht nur für Uran. Aus Braunkohle-Tagebaulöchern werden vielfältige, schöne Landschaften mit hohem Nutzwert für Mensch und Natur, statt dutzender oder gar hunderter Bohrlöcher genügt heute für die Öl- und Erdgasgewinnung ein Turm, der dank neuer Horizontalbohrverfahren und hydraulic fracturing nicht nur die alte Technik ersetzt, sondern gigantische neue Vorkommen erschliessen kann.

Und die Erde ist reich! Erst 1975 wurde die Lagerstätte ‘Olympic Dam‘ in Südaustralien gefunden, die alle bisherigen Dimensionen sprengt, Eisen, Kupfer und Gold können dort gemeinsam gefördert werden und obwohl die Mine auch das grösste bekannte Uranlager der Welt ist, ist dieses Uran nur ein nebensächliches Beiprodukt der Gesamtproduktion.
In dieser australischen Mine schuften keine Sklaven, sondern selbstbewusste, von strengen Gesetzen und starken Gewerkschaften geschütze Bergleute, niemand muss unnötig sterben, Staub wird aus der Abluft gefiltert, das Wasser geklärt, selbst die Lärmemissionen werden sorgfältig überwacht und begrenzt.

 DER AUSWEG: ROCHADE

Ich bin der Geist, der stets verneint! Und das mit Recht;
denn alles, was entsteht, ist wert, dass es zugrunde geht

Trotz allen Reichtums kann der Bergbau jedoch niemals ‘Nachhaltig’ im utopischen Sinn des Ökologismus werden. Damit sind die Bedingungen dieses Sektors die zwangsläufige und fundamentale Bankrotterklärung dieser Ideologie.
Der grundlegende Fehler ist die Überzeugung von einer statischen Gesellschaft. Heutige Maßstäbe, heutiges Wissen werden als das Nonplusultra und Ideal angesehen und die Aussicht auf grundlegenden Fortschritt verneint.
In der jetzigen dynamischsten und fortschrittlichsten Phase, in die die Menschheit je eintrat, ist das jedoch geradezu absurd. Alles deutet darauf hin, dass die technologische Revolution gerade erst begonnen hat und dass das meiste, was wir bisher auch an negativen Begleiterscheinungen kennen lernten, nur heilbare Kinderkrankheiten sind.

Um mit endlichen, nicht regenerierbaren Ressourcen ‘nachhaltig’ zu wirtschaften, gibt es nur einen Weg: Man muss Ersatz finden!
Das geschieht grundsätzlich auf zweierlei Arten:

 1. Neue Fundorte aufsuchen und neue Technologien einsetzen

Diese Methode war und ist äusserst erfolgreich, wie der ‘ewige’ Peak Oil zeigt, der zwar schon seit Beginn der Ölforderung am Horizont droht, doch trotz riesenhaft gesteigertem Verbrauch bis heute immer weiter zurück weicht.
Dagegen spricht auch nicht, dass die Förderung auf immer schwerer zugängliche und weniger konzentrierte Vorkommen zugreifen muss.
Wichtig ist, dass wir das dank neuer Technologien können! In der Regel erweist es sich dabei sogar, dass die Kosten real, also inflationsbereinigt, keineswegs wirklich steigen, sondern oft sogar trotz des grösseren Aufwands effektiv sinken, wie es beispielsweise beim US-Shalegas der Fall ist.

 2. Durch neue Werkstoffe und Energiequellen Abhängigkeiten beenden

Auch dieser Weg ist von enormen Erfolgen begleitet. Die Steinzeit ging nicht durch einen Mangel an Steinen zu ende, sondern durch Fortschritt!
Auf dem Energiesektor erleben wir gerade den Beginn der Ablösung des Öls als Brenn- und Treibstoff durch Erdgas. Mit der Kernspaltung fanden wir eine ganz und gar revolutionäre Energiequelle und die Schwester der Spaltung, die Kernfusion, ist in Reichweite.
Auf dem Werkstoffsektor haben die die Plaste und Elaste (Die heissen wirklich so, ganz offiziell) eine ähnliche Revolution bewirkt; eine völlig neue Klasse von synthetischen Materialien, die eine nahezu unglaubliche Bandbreite von Anwendungen abdecken und die jetzt, kaum 100 Jahre nach den ersten Versuchen, geradezu als Leitfossil unserer Zivilisation erscheinen.

Wenig im Fokus ist dagegen die Keramikforschung, die jedoch im Verborgenen stetige Fortschritte macht und eines nicht allzu fernen Tages ultraharte und verschleißfeste, hochtemperatur- und korrosionsbeständige und besonders leichte Werkstoffe liefern kann, die Metalle in vielen Anwendungen nicht nur ersetzen, sondern weit übertreffen, z.B. bei Gasturbinen, die bei Weißglut noch fest bleiben und mit unerhörten Drehzahlen und Drücken laufen, wodurch der Brennstoff-Wirkungsgrad enorm verbessert werden kann. Keramiken haben darüber hinaus auch noch den Vorteil, dass ihre Grundstoffe auf der Erde ausserordentlich reichlich vorhanden sind.
Was Keramik heute schon kann, zeigt dieser Test eindrücklich: Hochleistungskeramik im Hammerschlagtest – mit dem guten alten Porzellan hat das schon nichts mehr zu tun.

Nachhaltigkeit kann niemals statisch sein, sie hat als einzige Konstante die beständige Forschung und Innovation, den ständigen Wandel oder kurz:

Wahre Nachhaltigkeit ist ganz einfach Fortschritt!

Der Beitrag erschien zuerst bei ScienceSceptical




Die 11 Hauptgründe, warum die Ölindustrie ihre Milliarden nicht dafür ausgibt, die Müll-Wissenschaft von AGW zu widerlegen

Meine Antwort auf solche Eingaben erfolgt im Stil von David Letterman [einem in den USA Talkmaster in den USA]:

11 Hauptgründe, warum die Ölindustrie ihre Milliarden nicht dafür ausgibt, die Müllwissenschaft von AGW zu widerlegen:

11) Es ist unmöglich, einen Negativ-Beweis anzutreten.

10) Die Beweislast liegt bei denen, die diese USA in den Bankrott führen wollen, um dies umzukehren…

9) Das Klima ändert sich immer; es hat sich immer geändert und wird sich immer ändern. Es gibt absolut keine Beweise dafür, dass Klimaänderungen in jüngster Zeit über die Variabilität der Zeit vor den Menschen hinausgehen. Es gibt anthropogene Einflüsse, die die natürlichen Oszillationen des Klimas modifizieren. Nur sehr wenige Wissenschaftler in der Ölindustrie bezweifeln, dass anthropogene Aktivitäten das Klima beeinflussen. Wir wissen um die Tatsache, dass diese Auswirkungen nicht das Klima auf eine Art und Weise ändern, dass diese über die normale Variabilität des Holozäns hinausgeht, und dass diese Auswirkungen vermutlich so klein sind, dass man sie nicht herauslesen kann. Anderenfalls hätten die Warmisten schon vor langer Zeit die natürliche Erwärmung von der anthropogenen Erwärmung unterschieden. Außerdem ist keine der vorgeschlagenen Lösungen ökonomisch durchführbar, und die Klimaänderung würde dadurch nicht auf irgendeine messbare Weise abgeschwächt.

8) Die Ölindustrie setzt sich aus Unternehmen zusammen, die sich mit allen Aspekten der Ausbeutung von Öl und Gas befassen, den Bohrungen und der Erzeugung. Diese Unternehmen gehören Leuten, normalerweise Anteilseignern, die ihr eigenes Geld investiert haben, um aus dieser Ausbeutung, Bohrung und Erzeugung von und für Öl und Gas Profite schlagen. Sie haben ihr Geld nicht in wissenschaftliche Projekte gesteckt, besonders nicht in Projekte der Müllwissenschaft.

7) Wir haben bereits Vollzeit-Arbeitsplätze. Ich schreibe dies als Hobby, weil es meine professionelle Erfahrung als Geowissenschaftler und 25 Jahre Erfahrung in einem Sedimentbassin des Tertiärs kombiniert. Außerdem habe ich mich schon lange für Paläoklimatologie interessiert.

6) Die Warmisten haben bereits bewiesen, dass AGW falsch ist – erster Teil. Das Fehlen jeglicher globaler Erwärmung seit dem Ende der neunziger Jahre zwang sie, den Begriff „globale Erwärmung“ in „Klimaänderung“ oder „globale Klimastörung“ oder andere temperaturneutrale Bezeichnungen zu ändern.  

5) Die Warmisten haben bereits bewiesen, dass AGW falsch ist – zweiter Teil. Jedes denkbare Wetter-, Gesundheits-, Landwirtschafts-, botanische, zoologische und sogar geophysikalische Ereignis wird als „konsistent” mit der Gore‘schen AGW-„Theorie” beschrieben (hier). Daher ist ihre „Theorie“ nicht falsifizierbar und wird als unwissenschaftlich bloßgestellt. Kevin Trenberth vom NCAR hat mit seiner Feststellung, dass das Prinzip der „Null-Hypothese“ für AGW umgekehrt werden sollte ( hier), sogar erklärt, dass eine wissenschaftliche Theorie nicht mehr falsifizierbar ist.

4) Die Warmisten haben bereits bewiesen, dass AGW falsch ist – dritter Teil. Dieses verteufelte Thema Klimasensitivität. Der Gore’sche Premier James Hansen, ehemals bei NASA-GISS und jetzt ein politischer Vollzeit-Aktivist, hat zum ersten Mal vor 25 Jahren bewiesen, dass AGW falsch ist. Danach hat er einen endlosen Strom eines idiotischen Alarmismus losgetreten. Bereits im Jahre 1988 veröffentlichte er ein Klimamodell, dass AGW substantiell widerlegt, wenn man es mit seinen eigenen Temperaturdaten vergleicht… (hier).

GISTEMP hat das Hansen-Szenario aufgezeichnet, in dem ein Gore’sches Utopia schon vor über einem Jahrzehnt erreicht worden ist. Hansens Modell ging von einer Gleichgewichts-Klimasensitivität (ECS) von 4,2°C pro Verdoppelung des vorindustriellen CO2-Niveaus aus. Der IPCC-„Konsens“ beträgt 3,0°C. Die physikalisch maximal mögliche ECS ist nicht höher als 2,0°C. Jüngere Studien kamen zu dem Ergebnis, dass der solare Antrieb um einen Faktor sechs unterschätzt worden war (hier) und dass der CO2-Antrieb viel niedriger liegt als die Schätzung des sog. Konsens‘ (hier). „Szenario B“ könnte die relevanteste Vorhersage sein, weil CH4 und CFCs [Chlorofluorocarbon] eng der „C“-Trajektorie gefolgt sind, während CO2 mehr nach „A“ lief. Schaut man auf die Modellergebnisse, gibt es im Jahre 2010 nur geringe Unterschiede zwischen „A“ und „B“…

Hansen beschreibt „A” mit „Business as Usual” und „B” als realistischere oder ,,leichtere” Version des „Business as Usual“. „C“ repräsentiert eine Welt, in der die Menschheit im Wesentlichen im Jahr 2000 das Feuer entdeckte [Original: mankind essentially undiscovered fire in the year 2000. Wie kann man das übersetzen?]. Die tatsächliche mittels Satellit gemessene Temperaturänderung seit 1988 verläuft deutlich unter „C“, wobei die Monster-ENSO des Jahres 1998 die einzige nennenswerte Ausnahme ist…

Wenn CO2 “A” folgt, CH4 und CFCs “C” und die Temperatur unter “C” verlief, ist die Atmosphäre viel weniger sensitiv hinsichtlich des CO2 als Hansen modelliert hat. Die Atmosphäre war im Wesentlichen unempfindlich hinsichtlich des CO2-Anstiegs um etwa 50 ppmv während der letzten 24 Jahre. Hansen könnte hier unfreiwillig solide Unterstützung für die für ihn „unbequeme Wahrheit“ geliefert haben.

3) Die Warmisten haben bereits bewiesen, dass AGW falsch ist – vierter Teil: Ein Modell des Scheiterns. Das Modell des Gore’schen Premiers Jimbo Hansen aus dem Jahr 1988 spiegelt alte Wissenschaft und alte Computer, und mit Sicherheit sind die Modelle während der letzten 25 Jahre verbessert worden … oder auch nicht.

IMMER NOCH epochal gescheitert: 73 Klimamodelle im Vergleich, gleitendes 5-Jahres-Mittel, 6. Juni 2013 von Roy W. Spencer, Ph.D

In dieser Graphik wurden Modelle und Beobachtungen geplottet, so dass ihre jeweiligen Trendlinien 1979 bis 2012 sich alle im Jahr 1979 schneiden. Wir glauben, dass dies der bedeutsamste Weg ist, die Modellergebnisse simultan zu plotten für den Vergleich mit den Beobachtungen. Meiner Ansicht nach ist der Tag der Abrechnung gekommen. Die Modellierer und das IPCC haben absichtlich die Beweise für die geringe Klimasensitivität seit vielen Jahren ignoriert, und zwar trotz der Tatsache, dass einige von uns gezeigt haben, dass man einfach Ursache und Wirkung vertauscht hatte, wenn Wolken und Temperaturvariationen hinsichtlich der Wolken-Rückkopplung in die Irre führen können (Spencer & Braswell 2010). Die Diskrepanz zwischen den Modellen und den Beobachtungen ist nichts Neues … sondern lediglich etwas, das mit der Zeit immer krasser hervortritt. Es wird interessant sein zu beobachten, wie sich das während der kommenden Jahre weiter entwickelt. Klar ausgedrückt, ich sehe nicht, wie das IPCC die Behauptung aufrechterhalten kann, dass die Modelle mit den Beobachtungen „nicht inkonsistent“ sind. Jede geistig gesunde Person kann erkennen, dass dem nicht so ist. Lägen die Beobachtungen in obiger Graphik auf der OBEREN (warmen) Seite der Modelle, glauben Sie nicht auch, dass die Modellierer in diesem Falle sich in die Arme fallen und versuchen würden herauszufinden, wie viel zusätzliche Erwärmung sie ihre Modelle erzeugen lassen können? Hunderte Millionen Dollar, die in das teure Abenteuer der Klimamodellierung gesteckt worden waren, haben zu nichts weiter geführt, als die Finanzierung seitens der Regierung für Forschungen hinsichtlich natürlicher Klimaänderungen zu vernichten.- Dr. Roy Spencer

 (Vermutung: die weinerliche Gore’sche Stimme) oh, dieser durchtriebene Roy Spencer. Das sind nur die Tropen, und es reicht zurück bis zum Jahr 1979… das ist unfair! Die Modelle sind richtig! Oder auch nicht… Das unten abgebildete CMIP5-Modell wurde parametrisiert (verfälscht), um die HadCRUT4-Daten von 1950 bis 2004 genau abzubilden.

[Link zu dieser Abbildung: http://www.met.reading.ac.uk/~ed/bloguploads/models_diff_masks_2012.png]

Acht Jahre und weg! Innerhalb von acht Jahren ist die gemessene Temperatur drauf und dran, auch noch die unterste Fehlergrenze zu unterschreiten. Dieses Modell von Kaufmann et al. 2011 simulierte natürliche und anthropogene (hauptsächlich durch CO2) Antriebsmechanismen von 1999 bis 2008. Die natürlichen Antriebe gewannen mit 3 zu 1.

Obwohl – die Autoren scheinen daraus geschlossen zu haben, dass die anthropogenen Antriebe in Bezug auf globale Abkühlung den mit der globalen Erwärmung zusammenhängenden „anthropogenen Antrieb“ maskieren. Dies war zu erwarten, weil das Erdklima vor der Gründung der Standard Oil Company statisch war … Modelle sind gute heuristische Werkzeuge; aber sie können nicht und sollten niemals als ein Ersatz für Beobachtung, Messung und Korrelation verwendet werden. Ich kann ein Computermodell erschaffen, das mir sagt, dass zusammengepresste Sandsteine [Cibicides opima sandstones] in einer Tiefe von 15.000 Fuß [ca. 4500 m] eine Reaktion bzgl. einer AVO der Klasse 3 [?] zeigen. Falls ich eine AVO-Anomalie Klasse 3 in dieser Nachbarschaft erbohre, wird das Loch trocken sein. Ein wenig Beobachtung und Korrelation würde mir schnell sagen, dass produktive gepresste Sandsteine in einer Tiefe von 15.000 Fuß keine AVO-Anomalien Klasse 3 zeigen. 99% aller Petroleum-Geologen und Erkundungs-Geophysiker würden einen auslachen, wenn man ernsthaft glaubt, dass ein Modell über aktuellen Beobachtungen steht.

2) Die Warmisten haben bereits bewiesen, dass AGW falsch ist – fünfter Teil: Dieses verteufelte Thema Klimasensitivität – Unterteil zwei: Im ersten Teil dieses Themas Klimasensitivität haben wir Jimbo Hansens spektakulär falsche Gleichgewichts-Klimasensitivität von 4,2°C begutachtet. Jetzt wollen wir mal auf den gegenwärtigen vermeintlichen Konsens bzgl. ECS von 3,3°C (±1.1) °C schauen. (Nichts, das ähnlich eines Fehlerbalkens von 33% ist, um Vertrauen einzuflössen…)

Die Werte der Gleichgewichts-Klimasensitivität für die gekoppelten, nicht dynamischen AOGCMs im AR4 für Ozeane sind zum Vergleich eingedruckt (Box 10.2; Abb. 1 e, f; siehe auch Tabelle 8.2). Diese Schätzungen stammen von Modellen, die gegenwärtig die größten Bemühungen der internationalen Klimamodellierer-Gemeinschaft darstellen. Eine normale Anpassung zeigt eine Bandbreite von 5 bis 95% von 2,1°C bis 4,4°C, mit einem mittleren Wert der Gleichgewichts-Klimasensitivität von etwa 3,3°C. …

Um richtig Schaum zu schlagen, greifen die Konsenssüchtigen des IPCC zu derartig grundlosem Alarmismus…

Studien, die die beobachtete kurzlebige Reaktion der Temperatur nach großen Vulkanausbrüchen mit Modellergebnissen auf Basis einer unterschiedlichen Klimasensitivität vergleichen (siehe Abschnitt 9.6) stellen keine PDFs zur Verfügung, stimmen aber am besten mit Modell-Sensitivitäten um 3°C überein und liegen innerhalb der Bandbreite von 1,5°C bis 4,5°C (Wigley et al. 2005). Sie sind nicht in der Lage, Sensitivitäten über 4,5°C auszuschließen.

Dies erklärt das Gore’sche Gejaule von der Climategate University

„Unsere Forschungen sagen vorher, dass die Klimaänderung in großem Umfang die Diversität selbst sehr weit verbreiteter Spezies in den meisten Gebieten der Welt vermindern wird. Dieser Verlust von Biodiversität im globalen Maßstab würde die Biosphäre signifikant verarmen lassen und auch das damit zusammenhängende Ökosystem…[…] Die gute Nachricht lautet, dass unsere Forschungen grundlegende neue Beweise dafür zeigen, dass schnelle Aktionen zur Reduktion von CO2 und anderen Treibhausgasen den Verlust an Biodiversität verhindern können, indem die Erwärmung auf 2°C reduziert wird anstatt der 4°C“.

Der Energie- und Umwelt-Nichtfachmann der Washington Post…:

„Der gegenwärtig von der Politik beschrittene Weg führt uns in eine um 3,5 bis 4°C wärmere Welt bis zum Ende dieses Jahrhunderts“.

Und Armutspropheten der Dritten Welt:

Die Weltbank sagt voraus, dass wir uns auf dem Weg eines Temperaturanstiegs um 4°C bis zum Ende dieses Jahrhunderts befinden. Dies würde einen Anstieg des Meeresspiegels um drei bis sieben Fuß bedeuten (hier) [ca. 91 bis 213 cm].

Es gibt nicht einen einzigen winzigen Splitter eines Beweises, dass die gegenwärtige Emissionsrate zu einer Erwärmung über 2°C bis zum Jahr 2100 führen wird (relativ zu einem CO2-Gehalt von 280 ppmv). Jede auf Beobachtungen basierende Schätzung der ECS aus jüngster Zeit hat bei einer Verdoppelung des CO2-Gehaltes eine Erwärmung um 1 bis 2°C ergeben, und fast 1°C davon ist bereits eingetreten. Asten 2012 hat eine ECS von 1,1°C ± 0.4 °C gefunden, und zwar auf Basis von δ18O und δ11B- Aufzeichnungen aus fossilen Kalksteinen und dem Übergang vom Eozän zum Oligozän in maritimen Sedimenten an der Stelle DSDP 744. Anfang diesen Jahres haben Forscher am CICERO und dem Norwegian Computing Center verkündet, wenn sie die Temperatur- und CO2-Daten der Jahre 2000 bis 2010 in ihre auf Messungen basierende ECS einbringen, erhalten sie einen wahrscheinlichsten Wert von 1,9°C. Diese Arbeit harrt noch der Veröffentlichung. Lewis 2013 kam auf einen wahrscheinlichsten Wert der ECS von 1,6 K mittels einer Bayesianischen Analyse und der Einarbeitung jüngster Daten. Masters 2013 fand einen wahrscheinlichsten Wert der ECS von 1,98 K aus Daten des ozeanischen Wärmegehaltes und der Wassertemperatur… Aldrin et al 2012 sowie Forster & Gregory 2006 fanden ebenfalls eine ECS höchstwahrscheinlich unter 2°C. Und doch posaunen das IPCC, die Klimagate-Universität und andere Alarmisten-Ideologen weiterhin hinaus, dass die ECS im Bereich 4 bis 5°C oder höher liegt…

1) Der Witz ist einfach zu verdammt komisch, als dass wir ihn verderben sollten…

Obamas Verrücktheit bzgl. der globalen Erwärmung

Charles Krauthammer, veröffentlicht am 4. Juli:

Die Wirtschaft stagniert. Syrien brennt. Skandale schwappen um seine Füße. China und Russland machen sich lustig über ihn, selbst als ein „29 Jahre alter Hacker“ die Spionage-Geheimnisse der Nation vor aller Welt enthüllt hat. Wie reagiert Präsident Obama? Mit einer prahlerischen Rede zum Thema Klimaänderung. Klimaänderung? Das rangiert an letzter Stelle auf einer Liste der Sorgen der Amerikaner (an 21. Stelle von 21 Plätzen). Das bedeutet, dass Obamas Erklärung eines einseitigen amerikanischen Krieges gegen die globale Erwärmung zu welchen Kosten auch immer – und die werden gewaltig sein – entweder hoch visionär oder hoffnungslos solipsistisch [Solipsismus = Flucht aus der Wirklichkeit durch Beschäftigung mit  völlig unbeteiligten Dingen] ist. Entscheiden Sie selbst: Die globale Temperatur hat sich seit 16 Jahren nicht mehr verändert – ein seltsamer Zeitpunkt, um ein gewaltiges, immens teures und sozialfeindliches Anti-Erwärmungs-Programm zu enthüllen. Nein, dieses unbequeme Ergebnis ist nicht entscheidend. Es bedeutet nicht, dass es keine globale Erwärmung gibt. Aber es ist etwas, das die sehr komplexen Modelle zur globalen Erwärmung nicht erklären können, und Obama behauptet naiv, dass die Modelle eine ‚settled‘ Wissenschaft repräsentieren. … Nichtsdestotrotz wollen wir einmal so tun, als ob die globale Erwärmung genau das ist, was Obama glaubt. Dann antworte man so: Was in aller Welt kann sein massives Programm neuer Vorschriften und massiver Ausgaben – welches mit einem Krieg gegen Kohle beginnt und mit Milliarden weiterer Subventionen für Solyndra endet – dagegen ausrichten? Die USA haben schon jetzt ihre CO2-Emissionen radikal reduziert – mehr als jedes andere Land auf der Erde seit dem Jahr 2006, jedenfalls der International Energy Agency zufolge. Die Emissionen liegen jetzt wieder auf dem Niveau des Jahres 1992. Und doch sind die globalen Emissionen gleichzeitig gestiegen. Grund – Überraschung: Es liegt daran, dass wir den Energieverbrauch der anderen 96% der Menschheit nicht kontrollieren können. … Auswirkung alles in allem: Zehntausende vernichtete Arbeitsplätze, die Verarmung ganzer Staaten. Und das zu einer Zeit einer chronisch hohen Arbeitslosigkeit, geringem Wachstum, nervösen Märkten und großer ökonomischer Unsicherheiten. Aber das ist noch nicht das Schlimmste. Dieses massive Selbstopfer würde vielleicht weltweit gebracht, wenn es tatsächlich zu einem Stopp der globalen Erwärmung führen und den Planeten retten würde. Die ganze Misere liegt darin, dass das keineswegs der Fall sein wird. … Ein Präsident, der dies einer derartig aggressiven Sicherheit vorschlägt, handelt unverantwortlich. Es ist das stärkste Beispiel für eine Religion, wenn etwas für Beweise völlig unzugänglich ist. Das Wort dafür lautet Glaube, aber nicht Wissenschaft.

Link: http://wattsupwiththat.com/2013/12/14/daves-top-ten-reasons-why-the-oil-industry-doesnt-spend-its-billions-on-disproving-the-junk-science-of-agw/

Übersetzt von Chris Frey EIKE

Anmerkung: Im Original ist nur von „10 besten Gründen“ die Rede. Aber der Autor hat sich bei der Abwärtszählung vertan und den Punkt 2) zweimal aufgeführt. Um das zu umgehen, habe ich kurzerhand 11 Gründe daraus gemacht, dann stimmt die Zählung wieder. Und jeder einzelne Grund für sich sagt ja schon alles, egal wie viele angeführt sind.

C. F.




Überraschende Erkenntnis in der Energiewende: „Flaute und Wolken stoppen Ökostrom-Produktion“

 

„Flaute und Wolken stoppen Ökostrom-Produktion“. 

Wetzel – vielleicht langsam zum Gegner der Energiewende mutiert- weil zunehmend kritisch ob ihrer miserablen Ergebnisse, fällt auf, dass unter diesen Umständen keines der Versprechen der Energiewende Befürworter einzuhalten sind. So schreibt er:

Zitat

Ökostrom meldet sich ab

Wind und Sonne tragen zuweilen über weite Zeiträume fast nichts zur Stromversorgung bei. Als der Orkan „Xaver“ abgezogen war, setze eine Flaute mit Hochnebel ein. In der Erzeugungskurve der zweiten Dezemberwoche wird der Windkraft-Anteil zu einer hauchdünnen Linie. Auch die Solaranlagen produzieren nur für zwei oder drei Stunden am Mittag minimale Mengen. Konventionelle Kraftwerke, in der Grafik die große graue Basis, mussten die ganze Woche über die Last der Stromversorgung fast allein tragen. In Zeiten typischer winterlicher Hochdrucklagen kann eine solche Situation auch mal zwei Wochen anhalten. .. 

Um dann im Gegenzug die Jubelmeldungen der NIE Lobbyisten vom Frühjahr zu zitieren:

…Im Frühjahr erfreute eine Serie von Jubelmeldungen die Herzen der Energiewende-Fans. „Wind- und Solarstromproduktion so hoch wie nie“, verkündete stolz das „Internationale Wirtschaftsforum Erneuerbare Energien“ (IWR) am 19. April. Ökostrom mit 35 Gigawatt im Netz, „dieser Wert entspricht der Leistung von 26 Atomkraftwerken“…Wer wollte angesichts solch kraftstrotzender Zahlen nicht von der Allmacht erneuerbarer Energien träumen? Orkantief „Xaver“ sorgte ja noch Anfang Dezember für eine Windstrom-Menge, die dem Output von 26 mittleren Atomkraftwerken entsprach, meldete frohgemut erneut das Münsteraner IWR.

Die Jubelnachrichten der Ökostrom-Statistiker haben allerdings bedenkliche Folgen. Viele Bürger sehen inzwischen das Grünstrom-Zeitalter schon zum Greifen nah, die Energiewende fast am Ziel. Wer braucht da noch Kohlekraftwerke?

Nach einer aktuellen, repräsentativen Umfrage des Meinungsforschungsinstitut TNS Emnid im Auftrag der TU Bergakademie Freiberg glaubt ein Drittel der Deutschen, man könne in der Stromproduktion „ohne Probleme sofort oder bis 2020 auf Kohle verzichten“. Sie schätzen den Anteil von Stein- und Braunkohlestrom in Deutschland im Durchschnitt auch auf lediglich 25 Prozent. In Wahrheit liegt er mit 44 Prozent knapp doppelt so hoch.

Damit erinnert er an eine ganz grundlegende Problematik, die die EEG Gewinnler und in ihrer Gefolge die handelnden Politiker aller Parteien schamlos ausnutzen. Es ist die völlige Unfähigkeit weiter Kreise der Bevölkerung, die komplizierten Zusammenhänge der Stromproduktion und Verteilung auch nur im Ansatz zu verstehen. Dazu es fehlt nicht nur am Willen, sondern, bei sehr vielen, auch an der dafür nötigen Bildung. Die MINT Fächer wurden schon immer gern abgewählt. Sie gehören „nicht zur Bildung“, wie ein vermessener Dietrich Schwanitz uns einmal glaubhaft berichtete.

Und Wetzel fällt noch mehr auf:

Unter der Überschrift:

Es gibt nicht genug Stromspeicher

Schreibt er:

Stromspeicher, die Solar- und Windstrom für solche Flautezeiten aufbewahren könnten, stehen noch nicht einmal ansatzweise zur Verfügung. Selbst wenn es der Bundesregierung gelänge, wie geplant bis 2020 eine Million Elektroautos auf die Straßen und ans Stromnetz zu bringen: Ihre Batterien könnten Deutschland gerade einmal etwa sieben Minuten lang mit Strom versorgen.

Eine winterliche Flaute dauert aber oft mal 14 Tage und länger. Die einzigen bislang wirtschaftlichen Stromspeicher sind die Stauseen in den Bergen. Doch alle Pumpspeicher Deutschlands wären nach fünf bis sieben Stunden leer gelaufen, dann müssten auch sie die Stromproduktion einstellen. Andere Speichertechniken wie „Power-to-heat“ oder „Power-to-gas“ stecken allesamt noch in den Kinderschuhen.

Darin ist einiges richtig, jedoch nicht die Behauptung, dass alle deutschen Stromspeicher Deutschland fünf bis sieben Stunden versorgen könnten, bevor sie leer wären. Dem ist nicht so, auch wenn das den Kohl auch nicht mehr fett macht. Denn es sind leider nur ca. 35 Minuten! Mehr als 40 GWh liefern sie nicht. Bei einer Stromproduktion von ca. 600 TWh im Jahr , könne sie das Land also nur rd. 35 Minuten an einem durchschnittliche Tag versorgen. Um dann viele Tage lang wieder aufgefüllt werden zu müssen. Mit Strom, der aus den verteufelten Kohle- oder Kernkarftwerken kommen muss.

Und wenn dann noch viele Forschungsmilliarden in die Erforschung der „Power-to-heat“ oder „Power-to-gas“ Speichertechnologien geflossen sind, dann wird man nicht umhin können festzustellen, dass diese den Strompreis locker in die Gegend von 1 bis 2 €/kWh katapultieren werden, weil deren Wirkungsgradverluste naturgesetzlich bedingt und nicht änderbar sind.

Aber wenn das soweit sein wird, dann ist sicher schon wieder eine neue Regierung im Amt und die bisher Verantwortlichen der alten Regierung wohl versorgt nach Brüssel oder in lukrative Positionen der staatsnahen Wirtschaft verschoben. Und mit Ehrungen überhäuft.

Wer erinnert sich dabei da nicht an den alten Witz in der untergegangenen DDR von den vier großen Feinden des Sozialismus?

Sie heißen Frühling, Sommer, Herbst und Winter, mit den ebenso überraschend auftretenden kleinen Feinden, die da heissen Tag und Nacht

Bleibt uns zum Schluss dieser Bestandsaufnahme der schönen neuen Energiewendewelt noch auf einen Bericht in den Deutschen Wirtschaftsnachrichten hinzuweisen, die über Vorbereitungen auf den großen Blackout in Europa berichtet:

Unter der Überschrift

Blackout im Winter: Vorbereitung auf europaweiten Stromausfall

lesen wir

Eine Initiative aus Österreich diskutiert über die Folgen eines europaweiten Stromausfalls. Fazit: Schon kleinere Störungen können weitreichende Dominoeffekte auslösen. Vertreter aus Wirtschaft und Verwaltung planen für den Ernstfall. Beispiele aus der Vergangenheit zeigen, dass die Sorge vor einem Blackout durchaus begründet ist. 

Die zivilgesellschaftliche Initiative „Plötzlich Blackout“ lud kürzlich mehr als 200 Vertreter aus Österreichs Wirtschaft und Verwaltung zu einem nationalen Workshop ein. Dies berichtet Die Presse. Thema der Veranstaltung war die Möglichkeit eines überregionalen Stromausfalls. Dazu wurde eine fiktive Notsituation durch einen Stromausfall in Wien simuliert. Die Teilnehmer erörtern das mögliche Vorgehen aller Beteiligten und die Folgen für die Wirtschaft und die Bürger.

Neben den staatlichen Behörden, Privatunternehmen und Energieversorgern waren auch Bürger-Initiativen, gemeinnützige Organisationen und Rettungskräfte auf dem Workshop vertreten. Eine Zusammenarbeit aller gesellschaftsrelevanten Bereiche sei notwendig, um in Notsituationen schnellst möglich zu handeln, so die Organisatoren von “Plötzlich Blackout”.

Sie sind davon überzeugt, dass ein überregionaler Stromausfall sehr wahrscheinlich ist. Dabei beziehen sie sich dabei auf die Tatsache, dass Stromnetze schon lange nicht mehr national begrenzt sind. Alle europäischen Erzeuger, Betreiber, Händler und Verbraucher teilen sich im Grunde eine Strom-Infrastruktur. Daraus folgt, dass sich ein lokaler Störfall schnell zu einemeuropaweiten Problem ausweiten kann…

Häufig sind auch Überkapazitäten der Grund für eine Überlastung des Netzes. So könnten hohe Kapazitäten aus Windenergie zusammen mit milden Temperaturen zu Weihnachten die Versorgung in Deutschland gefährden. Dies berichtet die FAZund bezieht sich dabei auf ein Dokument des Netzbetreibers Entso-E.

„Aufgrund der Erfahrungen der vergangenen Jahre könnte der Zeitraum um Weihnachten mit einem großen Stromüberschuss im deutschen Netz kritisch werden“, so die Autoren des Entso-E-Berichts.