Knapp dem Blackout entkommen!

Update 4.9.12

Das Geheimnis welche Kraftwerke ausfielen wurde am Montag dem 3.9.12 gelüftet. U.a.auf ACHGUT ist zu lesen:

Patzer im RWE-Vorzeigekraftwerk 
Doch am Donnerstag versagte die von Siemens gelieferte Leittechnik, eigentlich der technische Clou der beiden Großgeneratoren. Um 14.03 Uhr ging zunächst Block Neurath G in die Knie. Sieben Minuten später folgte der Nachbarblock Neurath F, sagte eine Sprecherin der Bundesnetzagentur. Nach Daten, die die Kraftwerksbetreiber im Internet veröffentlichen, zog sich der Ausfall bis in die frühen Freitagmorgenstunden hin. Eine weitere Panne ereilte RWE am Standort Weisweiler, wo am Freitag ein großer älterer Block ausfiel. Zwischen beiden Vorfällen gibt es laut RWE Power keinen ursächlichen Zusammenhang [sic!]. 
Quelle:
http://www.ftd.de/unternehmen/industrie/:energiewende-patzer-im-rwe-vorzeigekraftwerk/70085370.html 

und 

http://www.welt.de/wirtschaft/article108950145/Schnellabschaltung-beim-RWE-Braunkohle-Kraftwerk.html

Hinweis:

Was ein Blackout bewirken kann, wird hier in Marc Elsbergs Roman "Blackout" packend beschrieben. Es liest sich wie ein spannender Thriller, kann aber viel früher Wirklichkeit werden, als es viele Mitmenschen wahrhaben wollen.




Klimavorhersagen im AR5: Was soll man nun glauben?

Foto rechts: MIT’s “wheel of climate” forecaster – image courtesy Donna Coveney/MIT

Ich wollte auch nachschauen, wie sich die neuen GCMs im Vergleich zu den CMIP3-Modellen geschlagen haben, die im Jahr 2003 beschrieben worden sind {2}. Die CMIP3 wurden im AR4 des IPCC verwendet. Jene Modelle erzeugten einen geschätzten Fehler von 10,1% bei der Bewölkung, was gleichbedeutend ist mit einer Ungewissheit der Wolken-Rückkopplung von ± 2,8 Watt pro m². {3} Diese Ungewissheit ist äquivalent mit ± 100% des exzessiven Antriebs durch alle von den Menschen seit 1900 in die Atmosphäre emittierten Treibhausgase. Die Ungewissheit hinsichtlich der Wolken ist für sich allein genauso groß wie die gesamte Auswirkung, die das IPCC festzustellen versucht.

Wenn wir wissen wollen, wie zuverlässig Modellprojektionen sind, die energetische Ungewissheit, d. h. wegen des Wolkenfehlers, muss dieser in die GCM-Berechnungen des zukünftigen Klimas Eingang finden. Danach sollte die Ungewissheit als Fehlerbalken dargestellt werden, die die zukünftige Lufttemperatur festlegen. Allerdings scheint die Einbeziehung einer echten physikalischen Fehlergrenze niemals zu erfolgen.

Die Klimamodellierer veröffentlichen Projektionen der Temperaturzukunft völlig ohne jede Angabe der Fehlergrenzen. Hier findet man ein Standardbeispiel, die zahlreiche GCM-Projektionen der zukünftigen Temperatur in der Arktis zeigen. Man findet keinen einzigen Fehlerbalken.

Das IPCC macht genau das Gleiche, dargestellt hier dank einer unkritischen US EPA. Die schattierten Regionen in der IPCC-SRES-Graphik beziehen sich auf die numerische Variabilität individueller GCM-Modellläufe. Sie haben nichts zu tun mit physikalischer Ungewissheit oder mit der Zuverlässigkeit der Projektionen.

Die Abbildung S1 beim Auxiliary Material {1} [etwa: Hilfsmaterial] bei Jiang et al. fasst zusammen, wie genau die CMIP5-GCMs die globale Bewölkung in der Vergangenheit abbilden konnten. Das sieht so aus:

Jiang et al. sagten dazu Folgendes: „Abbildung S1 zeigt das vieljährige Mittel der TCFs [TCF = Total Cloud Fraction, etwa: der gesamte Bewölkungsanteil] global, in den  Tropen und in Mittleren Breiten aus den CMIP3 und CMIP5-Modellen sowie von den MODIS und ISCCP-Beobachtungen. Die Unterschiede zwischen MODIS und ISCCP liegen innerhalb von 3%, während die Bandbreite der Modelle bis zu 15% beträgt“.

Der Vergleich zwischen den CMIP3-Modellergebnissen mit den Ergebnissen des neuen CMIP5 lässt einen einfachen Blick auf den Fortschritt dieser Modellierung während der vergangenen 9 Jahre erkennen. Ebenso lässt sich der offizielle CMIP3-Wolkenfehler mit dem Wolkenfehler von 10% vergleichen, den ich schon früher in den Ergebnissen äquivalenter GCMs abgeschätzt habe.

Zunächst folgen hier die Tabellen der Wolkenprojektionen von CMIP3 und CMIP5 mitsamt den mit ihnen verbundenen Fehlern. Die beobachtete Bewölkung wurde aus dem Mittel der Beobachtungen von ISCCP und MODIS AQUA-Satelliten gebildet (die letzten beiden Balkenanordnungen in Abbildung S1 bei Jiang). Es ergab sich eine Wolkenbedeckung von 67,7%. Die GCM-Abkürzungen folgen den Referenzen unten.

Tabelle 1: CMIP3 GCM Globale mittlere Bewölkungsmenge und Fehlergrenzen

Model Source

CMIP3 GCM

Global Average Cloudiness Fraction

Fractional Global Cloudiness Error

NCC

bcm2

67.7

0.00

CCCMA

cgcm3.1

60.7

-0.10

CNRM

cm3

73.8

0.09

CSIRO

mk3

65.8

-0.03

GFDL

cm2

66.3

-0.02

GISS

e-h

57.9

-0.14

GISS

e-r

59.8

-0.12

INM

cm3

67.3

-0.01

IPSL

cm4

62.6

-0.08

MIROC

miroc3.2

54.2

-0.20

NCAR

ccsm3

55.6

-0.18

UKMO

hadgem1

54.2

-0.20

Avg. 62.1

R.M.S. Avg. ±12.1%

Table 2: CMIP5 GCM Globale mittlere Bewölkungsmenge und Fehlergrenzen

Model Source

CMIP5 GCM

Global Average Cloudiness Fraction

Fractional Global Cloudiness Error

NCC

noresm

54.2

-0.20

CCCMA

canesm2

61.6

-0.09

CNRM

cm5

57.9

-0.14

CSIRO

mk3.6

69.1

0.02

GFDL

cm3

71.9

0.06

GISS

e2-h

61.2

-0.10

GISS

e2-r

61.6

-0.09

INM

cm4

64.0

-0.06

IPSL

cm5a

57.9

-0.14

MIROC

miroc5

57.0

-0.16

NCAR

cam5

63.5

-0.06

UKMO

hadgem2-a

54.2

-0.20

Avg. 61.2

R.M.S. Avg. ±12.4%

Diese Ergebnisse zeigen, dass einige Modelle zwischen 2003 und 2012 verbessert worden sind, andere nicht, und einige wurden offenbar ungenauer. Die Fehleranteile sind eindimensionale Zahlen, die aus den Fehlern in drei Dimensionen konzentriert worden sind. Die Fehleranteile bedeuten nicht, dass ein gegebenes GCM einen konstanten Bewölkungsanteil über oder unter der beobachteten Bewölkungsmenge vorhersagt. Die GCM-Bewölkungsvorhersagen schwanken rund um die beobachtete Menge in allen drei Dimensionen; die hier mehr, dort weniger Bewölkung vorhersagen {4,5}. Die GCM-Fehleranteile sind die positiven und negativen Wolkenfehler integriert über den gesamten Globus, gepresst in einzelne Zahlen. Der mittlere Fehler über alle GCMs wird aus der Wurzel der Summe der quadrierten Fehler der einzelnen GCM-Fehleranteile ermittelt. (root- mean-square = rms)

Die CMIP5-Wolkenbedeckung wurde über 25 Modelljahre gemittelt (1980 bis 2004), während CMIP3 das Mittel aus 20 Modelljahren repräsentiert (1980 bis 1999). Die mittlere Bewölkungsmenge als Mittel der GCMs wurde aus den „monatlichen Mitteln der Gitterquadrate“ [“monthly mean grid-box averages“] gebildet. Also enthielt ein 20-jähriges globales Mittel 12 x 20 monatliche Realisierungen der globalen Bewölkung, was die zufälligen Fehler [random calculational error] der GCMs um mindestens den Faktor 15 reduziert. 

Man kann daher sicher vermuten, dass die restlichen, in den Tabellen 1 und 2 gezeigten Fehler systematische GCM-Fehler hinsichtlich der Wolkenmenge repräsentieren, ähnlich dem schon früher gefundenen Bewölkungsfehler. Der mittlere systematische Fehler des Mittels der GCMs hinsichtlich der Bewölkung wurde zwischen 2003 und 2012 nicht bestimmt. Die CMIP3-Modelle ergaben im Mittel einen Fehler von 12,1%, was sich nicht signifikant von meiner Schätzung von 10,1% unterscheidet für GCMs ähnlicher Güte.

Wir können jetzt dazu übergehen, den GCM-Bewölkungsfehler in eine globale Lufttemperatur-Projektion einfließen zu lassen, um zu sehen, wie stark die Unsicherheit über die GCM-Projektionszeit wächst. Typischerweise berechnen die GCMs das zukünftige Klima stufenweise, von Monat für Monat zu Jahr für Jahr. Bei jeder Stufe werden die in der vorangehenden Periode berechneten Klimavariablen auf die nächstfolgende Periode extrapoliert. Jeder in diesen berechneten Variablen übrig gebliebene Fehler muss sich mit diesen Werten fortpflanzen. Wenn die Bewölkung durch Berechnung von Jahr zu Jahr in einer Klimaprojektion extrapoliert wird, repräsentiert der mittlere Wolkenfehler von 12,4% im CMIP5 eine Ungewissheit von ± 3,4 Watt pro m² bei der Klimaenergie {3}. Diese energetische Unsicherheit von ± 3,4 Watt pro m² muss in jede Berechnung des zukünftigen Klimas eingehen.

Klimamodelle repräsentieren begrenzte Systeme. Begrenzte Variable werden innerhalb gewisser Grenzen  gehalten, die durch die Physik des Systems festgelegt werden. Allerdings ist die systematische Unsicherheit nicht begrenzt. In einer stufenweisen Berechnung muss jeder systematische Fehler oder jede systematische Unsicherheit bei den Input-Variablen als ±sqrt(sum(per-step error)²) in die Output-Variablen einfließen. Die Unsicherheit steigt mit jeder neuen Stufe. Diese Bedingung wird in der nächsten Darstellung zusammengefasst.

Die linke Formel illustriert die Art und Weise, mit der ein GCM stufenweise das künftige Klima projiziert {6}. Die weißen Rechtecke repräsentieren ein Klima, das sich während einer Serie von Zeitschritten weiter entwickelt. Jedes voran gegangene Klima schließt die Variablen mit ein, die sich nach Berechnung bis zum Klima der nächsten Stufe weiter entwickeln. Fehler in den Ausgangsbedingungen, Unsicherheiten in den parametrisierten Quantitäten und die Grenzen der Theorie führen allesamt zu Fehlern in projizierten Klimaten. Die Fehler in jedem voran gehenden Schritt der sich entwickelnden Klimaberechnung werden in die nächste Stufe mitgenommen.

Diese Fortpflanzung erzeugt die Zunahme des Fehlers, dargestellt in der rechten Formel, illustriert anhand der Temperatur. Die ursprünglichen Bedingungen führen zur ersten Temperaturangabe. Aber Fehler in der Berechnung erzeugen hohe und niedrige Unsicherheitsgrenzen (e_T1, etc.) bei der ersten projizierten Temperatur. Der nächste Rechenschritt erzeugt seine eigenen Fehler, die sich addieren und die hohen und niedrigen Unsicherheitsgrenzen beim nächsten Temperaturwert ausdehnen.

Wenn der Fehler systematisch ist, erscheinen ursprüngliche Unsicherheiten nicht als statistischer Fehler. Stattdessen pflanzt sich die Unsicherheit fort und erzeugt eine immer größer werdende Streuung von Unsicherheit um Klimaberechnungen nach Zeitstufen. Die Figur rechts außen fasst den Weg zusammen, auf dem der systematische Fehler als stufenweise Berechnung der Projektion mit der Zeit zunimmt.

Wenn die Unsicherheit wegen des Wachstums des systematischen Fehlers größer wird als die physikalischen Grenzen, hat die berechnete Variable keinerlei physikalische Bedeutung mehr. In der obigen Darstellung wäre die projizierte Temperatur nicht mehr bedeuten als statistisches Raten.

Hat man dies im Hinterkopf, kann sich der mittlere Fehler im CMIP5 hinsichtlich der globalen Bewölkung in eine zeitliche Temperaturprojektion hinein fortpflanzen. Dies wird die mittlere Unsicherheit der projizierten zukünftigen Temperatur infolge der Fehler zeigen, die die GCMs als Folge der Wolken-Rückkopplung machen.

Hier kommt nun der systematische Wolkenfehler im CMIP5 von 12,4% ins Spiel, der sich in jedermanns bevorzugte Temperaturprojektion fortpflanzt: Jim Hansens berühmtes Untergangsbild; das gleiche, das er in seiner Anhörung vor dem Kongress 1988 präsentierte. Die Fehlerbalken wurden berechnet mit Hilfe der Erkenntnisse meiner hoch aufgelösten GCM-Temperaturprojektions-Nachbildung, wie schon vorher detailliert beschrieben (892 kB pdf download).

Die GCM-Nachbildung zeigte, dass innerhalb der GCMs die globale Lufttemperatur lediglich eine lineare Funktion der Treibhausgase [net GHG] W/m² ist. Die Unsicherheit bei der berechneten Lufttemperatur ist dann nur eine lineare Funktion der Unsicherheit in W/m². Der mittlere GCM-Wolkenfehler pflanzte sich fort als:

„Lufttemperatur“ ist die Lufttemperatur an der Erdoberfläche in Grad Celsius. Die Lufttemperatur erhöht sich jährlich mit dem zunehmenden Antrieb durch Treibhausgase. Der „Gesamtantrieb“ ist der Antrieb in W/m² erzeugt durch CO2, Stickstoffoxide und Methan in jedem der „i“-Projektionsjahre. Der Antrieb nimmt jährlich zu mit dem Niveau der Treibhausgase. Die Gleichung ist die Standard-Fortpflanzung systematischer Fehler (eine amüsante Lektion hierzu gibt es hier (197 kb pdf)). Und jetzt, die Untergangs-Vorhersage:

Die Abbildung erklärt sich selbst. Die Linien A, B und C in Teil „a“ sind die Projektionen der künftigen Temperatur, wie sie Jim Hansen 1988 präsentiert hatte. Teil „b“ zeigt die gleichen Linien, nur diesmal mit den Fehlerbalken aus dem mittleren systematischen Wolkenfehler von 12,4% aus dem CMIP5. Die Unsicherheit nimmt mit jedem jährlichen Schritt zu. Es kann hier mit Sicherheit angenommen werden, dass Jim Hansens GISS-Modell E von 1988 nicht die CMIP5-Standards aufwies. Daher sind die Ungenauigkeiten aus dem CMIP5-Modell die wirkliche minimale Abschätzung der Fehlerbalken um Jim Hansens Temperaturprojektionen von 1988.

Die große Unsicherheit bis zum Jahr 2020, etwa ±25°C, hat die drei Szenarien so komprimiert, dass sie alle entlang der Grundlinie zu laufen scheinen. Die Unsicherheit von etwa ±25°C bedeutet nicht, dass ich annehme, dass das Modell eine Erwärmung oder Abkühlung um 25°C zwischen den Jahren 1958 und 2020 projiziert. Stattdessen repräsentiert die Unsicherheit die Pixelgröße, die durch ein CMIP5-GCM noch aufgelöst werden kann.

Jedes Jahr wird der Pixel größer. Das bedeutet, dass die Auflösung der GCMs schlechter wird. Nach nur wenigen Jahren ist das Ergebnis eines GCM so grob, dass nichts Wichtiges mehr daraus abgeleitet werden kann. Das ist die Bedeutung der endgültigen Fehlerbalken von ±25°C. Sie bedeuten, dass die CMIP5-GCMs in 62 Jahren keine Temperaturänderung kleiner als 25°C mehr auflösen können (im Mittel).

Dem Antriebsszenario von Jim Hansen zufolge erzeugt der ±3,4°C Watt/m²-Wolkenfehler schon nach einem Jahr einen Einzelschritt-Pixel in einer Größe von ±3,4°C. Kurz gesagt, GCMs auf dem Niveau von CMIP5 sind vollständig unfähig, irgendeine Änderung der globalen Temperatur zu zeigen, die sich zu irgendeiner Zeit aufgrund des vom Menschen erzeugten CO2 ereignen kann.

Genauso war die Jim Hansen-Version von 1988 des GISS-Modells E nicht in der Lage, irgendetwas über dass zukünftige Klima vorherzusagen. Die riesigen Unsicherheitsbalken machen seine Projektionen aus dem Jahr 1988 physikalisch bedeutungslos. Darüber zu befinden, welcher der Trends die globale Anomalie am besten zeigt, ist wie eine Diskussion um Kaisers Bart. Kein Argument hat irgendeine faktische Aussagekraft.

Ähnliche physikalische Unsicherheiten sollten jede GCM-Ensemble-Projektion der globalen Temperatur umgeben. Allerdings ist die Wahrscheinlichkeit, diese im AR5 (oder in irgendeinem begutachteten Klimajournal) zu sehen, verschwindend gering.

Nichtsdestotrotz sind die CMIP5-Klimamodelle nicht in der Lage, die globale Temperatur auch nur ein Jahr im Voraus vorherzusagen. Ihre Projektionen haben keine physikalische Bedeutung und sind komplett unzuverlässig.

Wie aus der Überschrift zu diesem Artikel folgt: es gibt keinen Grund anzunehmen, dass irgendeine – ich wiederhole: irgendeine – zukünftige Klimaprojektion auf dem Niveau von CMIP5 zu finden sein wird.

Klimaprojektionen, die im IPCC-AR5 auftauchen könnten, werden völlig frei von jeder physikalischen Glaubwürdigkeit sein. Dazu beitragende Studien, die sich auf CO2 konzentrieren, sind notwendigerweise bedeutungslos. Dieses Scheitern steht im Zentrum von AGW Climate Promotions, Inc.

Zusammengefasst: jeder, der behauptet, dass das vom Menschen erzeugte CO2 dazu geführt hat, dass sich das Klima seit 1900 (oder 1950, oder 1976) erwärmt hat, setzt implizit die physikalische Verlässlichkeit von Klimamodellen voraus. Jeder, der die physikalische Verlässlichkeit von Klimamodellen ernsthaft voraussetzt, weiß buchstäblich nicht, wovon er redet. Jüngste Verkündigungen über die menschliche Schuld müssen vor diesem Hintergrund gesehen werden.

Das Urteil gegen den IPCC ist identisch: Sie wissen nicht, wovon sie reden. Glaubt irgendjemand, dass sie das davon abhalten wird, weiter zu reden?

Pat Frank PhD. San Diego.

Frank ist promovierter Chemiker,  spezialisiert in der Fehleranalyse spektroskopischer Messungen und arbeitet an der Stanford University

Andere Veröffentlichungen von Pat Frank bei EIKE z.B. hier, hierhier und hier

References:

1. Jiang, J.H., et al., Evaluation of cloud and water vapor simulations in CMIP5 climate models using NASA “A-Train” satellite observations. J. Geophys. Res., 2012. 117, D14105.

2. Covey, C., et al., An overview of results from the Coupled Model Intercomparison Project. Global Planet. Change, 2003. 37, 103-133.

3. Stephens, G.L., Cloud Feedbacks in the Climate System: A Critical Review. J. Climate, 2005. 18, 237-273.

4. AchutaRao, K., et al., Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations, D. Bader, Editor. 2004, Lawrence Livermore National Laboratory: Livermore.

5. Gates, W.L., et al., An Overview of the Results of the Atmospheric Model Intercomparison Project (AMIP I). Bull. Amer. Met. Soc., 1999. 80(1), 29-55.

6. Saitoh, T.S. and S. Wakashima, An efficient time-space numerical solver for global warming, in Energy Conversion Engineering Conference and Exhibit (IECEC) 35th Intersociety. 2000, IECEC: Las Vegas. p. 1026-1031.

Climate Model Abbreviations

BCC: Beijing Climate Center, China.

CCCMA: Canadian Centre for Climate Modeling and Analysis, Canada.

CNRM: Centre National de Recherches Météorologiques, France.

CSIRO: Commonwealth Scientific and Industrial Research Organization, Queensland Australia.

GFDL: Geophysical Fluid Dynamics Laboratory, USA.

GISS: Goddard Institute for Space Studies, USA.

INM: Institute for Numerical Mathematics, Russia.

IPSL: Institut Pierre Simon Laplace, France.

MIROC: U. Tokyo/Nat. Ins. Env. Std./Japan Agency for Marine-Earth Sci.&Tech., Japan.

NCAR: National Center for Atmospheric Research, USA.

NCC: Norwegian Climate Centre, Norway.

UKMO: Met Office Hadley Centre, UK.

Link: http://wattsupwiththat.com/2012/08/23/ar5-climate-forecasts-what-to-believe/

Übersetzt von Chris Frey EIKE




Schwächelnde Sonne: Wann wird die Abkühlung anfangen?

Wann also wird es kälter? Wie Nir Shaviv und andere angemerkt haben, sind der größte Kaloriemeter auf dem Planeten die Ozeane. Meine Arbeit zur Reaktion des Meeresspiegels auf die Sonnenaktivität (http://wattsupwiththat.com/2012/02/03/quantifying-sea-level-fall/) hat ergeben, dass der Übergang von einem Anstieg zu einem Absinken des Meeresspiegels bei einer Sonnenflecken-Amplitude bei 40 erfolgt:

Wie die folgende Graphik vom SIDC zeigt, beträgt die gegenwärtige Solaramplitude etwa 60 auf dem Weg zum solaren Maximum, das im Mai 2013 erwartet wird:

Die beiden restlichen Variablen in unserer Forschungsreise sind die Abschätzung des Zeitpunktes, an dem die Sonnenfleckenzahl unter 40 sinkt und die Länge des Sonnenzyklus’ 24. Bislang verläuft der Zyklus 24 fast exakt genauso wie der Sonnenzyklus 5, die erste Hälfte des Dalton-Minimums:

Der Neigungswinkel der gegenwärtigen heliosphärischen Kurve [The heliospheric current sheet tilt angle] hat ein Niveau erreicht, bei dem es zum solaren Maximum kommt. Normalerweise verharrt es ein Jahr lang auf diesem Niveau, bevor die Kurve wieder fällt:

Parallel dazu zeigt die die Stärke des solaren Polarfeldes (vom Wilcox Solar Observatory), dass es noch bis zu einem Jahr dauern könnte, bis das solare Maximum erreicht ist:

Obwohl das solare Maximum der aus den beiden o. g. Parametern abgeleiteten Vorhersage noch ein wenig in der Zukunft liegt, dürfte die Sonnenflecken-Amplitude des Sonnenzyklus‘ 24, sofern sie weiter dem Verlauf des Sonnenzyklus‘ 5 gleicht, ab Mitte 2013 unter 40 fallen. Das Green Corona Emissions Diagramme von Altrock (http://wattsupwiththat.com/2012/01/08/solar-cycle-24-length-and-its-consequences/) legt nahe, dass der Zyklus 24 17 Jahre lang dauern wird und 2026 zu Ende geht. Das bedeutet zwölfeinhalb Jahre Abkühlung ab Mitte 2013.

Aus all dem folgt, dass die Abnahme ab Mitte 2013 im Mittel etwa 1,2°C während der dann verbleibenden zwölfeinhalb Jahre betragen wird, um der von Solheim vorhergesagten Temperaturabnahme von 0,9°C während des gesamten Zyklus 24 Rechnung zu tragen. Zweifellos wird die Abkühlung nachwirken, so dass für den Zyklus 25 eine weitere Abkühlung relativ zum Zyklus 24 wahrscheinlich ist.

David Archibald

Link: http://wattsupwiththat.com/2012/08/13/when-will-it-start-cooling/

Übersetzt von Chris Frey EIKE

Ergänzung:

In der Sendung vom 20.8.12 versucht 3SAT NANO, ziemlich bemüht, den Einfluss der Sonne auf das Klima zu widerlegen. Schön einfach dargestellt, damit auch der nur geisteswissenschaftlich  gebildete normale ZEIT-Leser es versteht:

 Urteilen Sie selbst.

Mit Dank an R. Hoffmann

Weiterführende Links zum Thema schwächelnde Sonne : Hier auf "Die kalte Sonne"




Green Economy – Nachhaltiges Wirtschaften führt zu Planwirtschaft und Umverteilung!

«Die Zukunft der Menschheit ist zu kostbar, um sie dem fortwährenden Nationalstaaten-Mikado preiszugeben. Nun sind Pioniere aus allen Bereichen der Weltgesellschaft gefragt.»

Das erklärte Professor Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der deutschen Bundesregierung Globale Umweltveränderungen (WBGU), nach dem Rio+20-Palaver mit bis zu 50 000 Teilnehmern, das mit einer vagen, mit hohlen Schlagworten gespickten Abschlusserklärung endete. Trotz der Führungsschwäche der Nationalstaaten sei aber die «Transformation zur Nachhaltigkeit» aufgrund von Allianzen zwischen «Pionieren des Wandels»  bereits in vollem Gang.

Doppelte Profiteure

Zu diesen Pionieren zählt der WBGU wohl auch jene internationalen Rohstoff- und Nahrungsmittelkonzerne, die damit begonnen haben, ganze Länder in Soja-, Mais-, Raps- oder Ölpalmen-Monokulturen zu verwandeln, um sich für die Produktion von Bio-Treibstoffen von der International Sustainability and Carbon Certification (ISCC) CO2-Emissions-Gutschriften im Rahmen des Clean Development Mechanism (CDM) des Kyoto-Protokolls über den Klimaschutz bescheinigen zu lassen. Auf diese Weise können die Konzerne an der vorgeblichen Rettung der Welt gleich zweimal verdienen.

Sustainability, im Deutschen ungenau mit Nachhaltigkeit übersetzt, ist zu einem Zauberwort geworden, das heute kaum noch jemand kritisch zu hinterfragen wagt, weil es scheinbar etwas Selbstverständliches – die Bevorzugung seriöser Geschäfte gegenüber dem auf Täuschung beruhenden schnellen Reibach – bezeichnet. In der Praxis gilt aber die Verminderung der Produktion des zum «Klimakiller« erklärten Pflanzennährstoffs CO2 mehr und mehr als wichtigster, wenn nicht alleiniger Indikator nachhaltigen Wirtschaftens.

Dabei nehmen dessen Protagonisten offensichtlich in Kauf, dass die von ihnen angeheizte Konkurrenz zwischen Tank und Teller die Zahl der Hungernden wieder steigen lässt. Sie nehmen auch in Kauf, dass die von ihnen geförderten angeblich CO2-neutralen Monokulturen dem in der Rio+20-Erklärung wiederholt beschworenen Erhalt der Biodiversität fundamental widersprechen. Somit führt die mit dem Klimaschutz begründete Politik gerade die Zustände herbei, vor denen sie gewarnt hat.

Kein geschlossenes System

Eine solche sich selbst erfüllende Prophezeiung ist das Kennzeichen aller Politikansätze, die sich direkt oder indirekt auf Thomas Robert Malthus (1766 bis 1834) berufen. Mit seiner Behauptung, es gehe gar nicht anders, als dass die Nahrungsmittelproduktion mit Naturnotwendigkeit hinter der Bevölkerungsentwicklung zurückbleibe, wurde Malthus zum Urheber einer ökonomischen Denkrichtung, die sich die Welt nur als geschlossenes System vorstellen kann. In einer solchen Welt ist kein Platz für das Wechselspiel von Angebot und Nachfrage, für freien Austausch zu beiderseitigem Vorteil und Innovationen. Möglich sind nur Nullsummenspiele und die planwirtschaftliche Rationierung eines scheinbar ein für allemal gegebenen Ressourcenvorrats.

Die Hungersnöte, vor denen Malthus als Vertreter des gesellschaftlich absteigenden Landadels warnte, wurden erst durch die Einführung hoher Getreidezölle im Interesse dieser Schicht durch das berüchtigte Corn Law und die dadurch verursachte Explosion des Brotpreises heraufbeschworen. Nach dem Fall des von den Manchester-Liberalen um Richard Cobden und John Bright bekämpften Corn Law im Jahr 1848 und dem damit verbundenen vorläufigen Sieg der Idee einer offenen Welt des Freihandels gab es in Europa zu Friedenszeiten keine Hungersnot mehr.

Lange Reihe von Warnern

Einer der bekanntesten Verfechter des Malthusianismus und der damit begründeten «Vernichtung lebensunwerten Lebens» im 20. Jahrhundert war John Maynard Keynes, der bis kurz vor seinem Tode der britischen Gesellschaft für Eugenik vorstand. In Schweden hat das Ökonomen-Ehepaar Alva und Gunnar Myrdahl einen ähnlichen Ansatz vertreten. Unter Berufung darauf wurden in Schweden bis zum Jahr 1976 über 60 000 «hochgradig lebensuntaugliche Individuen» sterilisiert, oft gegen ihren Willen. In Amerika forderten Paul und Anne Ehrlich in ihrem 1968 erschienen Bestseller «Die Bevölkerungsbombe»  die Reduktion der Weltbevölkerung auf anderthalb Milliarden Menschen. Der im Jahr 1972 erschienene Bericht des Club of Rome «Die Grenzen des Wachstums» war lediglich eine Fortschreibung dieser Weltsicht via Computersimulationen. Bekanntlich haben chinesische Machthaber damit ihre strenge Ein-Kind-Politik mit Hilfe von Zwangssterilisierungen und Kindestötungen gerechtfertigt. Die dadurch herbeigeführte, ungünstige Bevölkerungsstruktur wird wohl das chinesische Wirtschaftswunder bald abwürgen.

Umverteilungsmaschinerie

Wie eingangs angedeutet, führen die Gründe der «Klimapolitik» zu einer sich möglicherweise selbst erfüllenden malthusianistische Prophezeiung. Der Ökonom Ottmar Edenhofer, Co-Vorsitzender des Weltklimarates IPCC, hat deutlich gesagt, worum es beim Klimaschutz im Kern geht: Um den Anstieg der Durchschnittstemperatur der Erde auf zwei Grad Celsius zu begrenzen, dürften die Menschen bis zum Ende des 21. Jahrhunderts höchstens noch 750 Gigatonnen CO2 freisetzen. Eine Welt-Kohlenstoffbank müsse den Einsatz kohlenstoffhaltiger Rohstoffe dementsprechend rationieren. Die in den vergangenen Jahren entdeckten riesigen «unkonventionellen» Erdöl- und gasvorräte sollen deshalb unter der Erde bleiben. In einem am 14. November 2010 in dieser Zeitung veröffentlichten Interview erklärte Edenhofer: «Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist.» 

Es ist äusserst schwierig, die Stichhaltigkeit der Hypothese einer Aufheizung der irdischen Atmosphäre durch CO2 und andere Treibhausgase durch naturwissenschaftliche Experimente zu überprüfen. Wir sollen die Geschichte von der menschlich verursachten Erderwärmung einfach glauben. Aufgrund historischer Erfahrungen kann es jedoch als sicher gelten, dass der damit begründete Versuch der Errichtung einer weltweiten Planwirtschaft erst den Mangel und die Armut schaffen wird, die zu bekämpfen er vorgibt.

Edgar L. Gärtner; EIKE ist Hydrobiologe und Fachjournalist für Energie und Chemie, Frankfurt am Main. Zuerst erschienen in der NZZ unter "Green Economy – nur aufgewärmter Malhusianismus" am 23.8.2012 

Einen entsprechenden Beitrag zu den Möglichkeiten und Segnungen der  "Green Economy" hat auch der von Frau v.d. Leyen als "brillianter Experte" (Bei Jauch am 26.8.12) eingestufte Bundesumweltminister Peter Altmeier verfasst. Unter wenigstns einem "Paradigmenwechsel" fängt dieser Experte gar nicht erst an. Mit Dank an Leser Heinzow




NOAA zeigt 36% mehr Eis als während des Minimums 2007

Die türkis gefärbten Flächen im Bild rechts deuten auf Eis im Jahr 2012 hin, dass 2007 nicht vorhanden war. Die violetten Flächen bedeuten das Gegenteil.

http://www.natice.noaa.gov/pub/ims/ims_gif/DATA/cursnow_alaska.gif

http://www.natice.noaa.gov/pub/ims/ims_gif/ARCHIVE/AK/2007/ims2007265_alaska.gif

Passive Mikrowellen-Messungen können große Gebiete mit Eisbedeckung nicht erkennen, weil ein früher Wintersturm das Eis in Stücke gebrochen hat, was die Satelliten nicht detektieren können. Die Alarmisten geraten in Jubel-Hysterie – basierend auf Müll-Daten.

Link: http://stevengoddard.wordpress.com/2012/08/25/noaa-showing-35-more-ice-than-the-2007-minimum/

Übersetzt von Chris Frey EIKE