Klimavorhersagen im AR5: Was soll man nun glauben?

Foto rechts: MIT’s “wheel of climate” forecaster – image courtesy Donna Coveney/MIT

Ich wollte auch nachschauen, wie sich die neuen GCMs im Vergleich zu den CMIP3-Modellen geschlagen haben, die im Jahr 2003 beschrieben worden sind {2}. Die CMIP3 wurden im AR4 des IPCC verwendet. Jene Modelle erzeugten einen geschätzten Fehler von 10,1% bei der Bewölkung, was gleichbedeutend ist mit einer Ungewissheit der Wolken-Rückkopplung von ± 2,8 Watt pro m². {3} Diese Ungewissheit ist äquivalent mit ± 100% des exzessiven Antriebs durch alle von den Menschen seit 1900 in die Atmosphäre emittierten Treibhausgase. Die Ungewissheit hinsichtlich der Wolken ist für sich allein genauso groß wie die gesamte Auswirkung, die das IPCC festzustellen versucht.

Wenn wir wissen wollen, wie zuverlässig Modellprojektionen sind, die energetische Ungewissheit, d. h. wegen des Wolkenfehlers, muss dieser in die GCM-Berechnungen des zukünftigen Klimas Eingang finden. Danach sollte die Ungewissheit als Fehlerbalken dargestellt werden, die die zukünftige Lufttemperatur festlegen. Allerdings scheint die Einbeziehung einer echten physikalischen Fehlergrenze niemals zu erfolgen.

Die Klimamodellierer veröffentlichen Projektionen der Temperaturzukunft völlig ohne jede Angabe der Fehlergrenzen. Hier findet man ein Standardbeispiel, die zahlreiche GCM-Projektionen der zukünftigen Temperatur in der Arktis zeigen. Man findet keinen einzigen Fehlerbalken.

Das IPCC macht genau das Gleiche, dargestellt hier dank einer unkritischen US EPA. Die schattierten Regionen in der IPCC-SRES-Graphik beziehen sich auf die numerische Variabilität individueller GCM-Modellläufe. Sie haben nichts zu tun mit physikalischer Ungewissheit oder mit der Zuverlässigkeit der Projektionen.

Die Abbildung S1 beim Auxiliary Material {1} [etwa: Hilfsmaterial] bei Jiang et al. fasst zusammen, wie genau die CMIP5-GCMs die globale Bewölkung in der Vergangenheit abbilden konnten. Das sieht so aus:

Jiang et al. sagten dazu Folgendes: „Abbildung S1 zeigt das vieljährige Mittel der TCFs [TCF = Total Cloud Fraction, etwa: der gesamte Bewölkungsanteil] global, in den  Tropen und in Mittleren Breiten aus den CMIP3 und CMIP5-Modellen sowie von den MODIS und ISCCP-Beobachtungen. Die Unterschiede zwischen MODIS und ISCCP liegen innerhalb von 3%, während die Bandbreite der Modelle bis zu 15% beträgt“.

Der Vergleich zwischen den CMIP3-Modellergebnissen mit den Ergebnissen des neuen CMIP5 lässt einen einfachen Blick auf den Fortschritt dieser Modellierung während der vergangenen 9 Jahre erkennen. Ebenso lässt sich der offizielle CMIP3-Wolkenfehler mit dem Wolkenfehler von 10% vergleichen, den ich schon früher in den Ergebnissen äquivalenter GCMs abgeschätzt habe.

Zunächst folgen hier die Tabellen der Wolkenprojektionen von CMIP3 und CMIP5 mitsamt den mit ihnen verbundenen Fehlern. Die beobachtete Bewölkung wurde aus dem Mittel der Beobachtungen von ISCCP und MODIS AQUA-Satelliten gebildet (die letzten beiden Balkenanordnungen in Abbildung S1 bei Jiang). Es ergab sich eine Wolkenbedeckung von 67,7%. Die GCM-Abkürzungen folgen den Referenzen unten.

Tabelle 1: CMIP3 GCM Globale mittlere Bewölkungsmenge und Fehlergrenzen

Model Source

CMIP3 GCM

Global Average Cloudiness Fraction

Fractional Global Cloudiness Error

NCC

bcm2

67.7

0.00

CCCMA

cgcm3.1

60.7

-0.10

CNRM

cm3

73.8

0.09

CSIRO

mk3

65.8

-0.03

GFDL

cm2

66.3

-0.02

GISS

e-h

57.9

-0.14

GISS

e-r

59.8

-0.12

INM

cm3

67.3

-0.01

IPSL

cm4

62.6

-0.08

MIROC

miroc3.2

54.2

-0.20

NCAR

ccsm3

55.6

-0.18

UKMO

hadgem1

54.2

-0.20

Avg. 62.1

R.M.S. Avg. ±12.1%

Table 2: CMIP5 GCM Globale mittlere Bewölkungsmenge und Fehlergrenzen

Model Source

CMIP5 GCM

Global Average Cloudiness Fraction

Fractional Global Cloudiness Error

NCC

noresm

54.2

-0.20

CCCMA

canesm2

61.6

-0.09

CNRM

cm5

57.9

-0.14

CSIRO

mk3.6

69.1

0.02

GFDL

cm3

71.9

0.06

GISS

e2-h

61.2

-0.10

GISS

e2-r

61.6

-0.09

INM

cm4

64.0

-0.06

IPSL

cm5a

57.9

-0.14

MIROC

miroc5

57.0

-0.16

NCAR

cam5

63.5

-0.06

UKMO

hadgem2-a

54.2

-0.20

Avg. 61.2

R.M.S. Avg. ±12.4%

Diese Ergebnisse zeigen, dass einige Modelle zwischen 2003 und 2012 verbessert worden sind, andere nicht, und einige wurden offenbar ungenauer. Die Fehleranteile sind eindimensionale Zahlen, die aus den Fehlern in drei Dimensionen konzentriert worden sind. Die Fehleranteile bedeuten nicht, dass ein gegebenes GCM einen konstanten Bewölkungsanteil über oder unter der beobachteten Bewölkungsmenge vorhersagt. Die GCM-Bewölkungsvorhersagen schwanken rund um die beobachtete Menge in allen drei Dimensionen; die hier mehr, dort weniger Bewölkung vorhersagen {4,5}. Die GCM-Fehleranteile sind die positiven und negativen Wolkenfehler integriert über den gesamten Globus, gepresst in einzelne Zahlen. Der mittlere Fehler über alle GCMs wird aus der Wurzel der Summe der quadrierten Fehler der einzelnen GCM-Fehleranteile ermittelt. (root- mean-square = rms)

Die CMIP5-Wolkenbedeckung wurde über 25 Modelljahre gemittelt (1980 bis 2004), während CMIP3 das Mittel aus 20 Modelljahren repräsentiert (1980 bis 1999). Die mittlere Bewölkungsmenge als Mittel der GCMs wurde aus den „monatlichen Mitteln der Gitterquadrate“ [“monthly mean grid-box averages“] gebildet. Also enthielt ein 20-jähriges globales Mittel 12 x 20 monatliche Realisierungen der globalen Bewölkung, was die zufälligen Fehler [random calculational error] der GCMs um mindestens den Faktor 15 reduziert. 

Man kann daher sicher vermuten, dass die restlichen, in den Tabellen 1 und 2 gezeigten Fehler systematische GCM-Fehler hinsichtlich der Wolkenmenge repräsentieren, ähnlich dem schon früher gefundenen Bewölkungsfehler. Der mittlere systematische Fehler des Mittels der GCMs hinsichtlich der Bewölkung wurde zwischen 2003 und 2012 nicht bestimmt. Die CMIP3-Modelle ergaben im Mittel einen Fehler von 12,1%, was sich nicht signifikant von meiner Schätzung von 10,1% unterscheidet für GCMs ähnlicher Güte.

Wir können jetzt dazu übergehen, den GCM-Bewölkungsfehler in eine globale Lufttemperatur-Projektion einfließen zu lassen, um zu sehen, wie stark die Unsicherheit über die GCM-Projektionszeit wächst. Typischerweise berechnen die GCMs das zukünftige Klima stufenweise, von Monat für Monat zu Jahr für Jahr. Bei jeder Stufe werden die in der vorangehenden Periode berechneten Klimavariablen auf die nächstfolgende Periode extrapoliert. Jeder in diesen berechneten Variablen übrig gebliebene Fehler muss sich mit diesen Werten fortpflanzen. Wenn die Bewölkung durch Berechnung von Jahr zu Jahr in einer Klimaprojektion extrapoliert wird, repräsentiert der mittlere Wolkenfehler von 12,4% im CMIP5 eine Ungewissheit von ± 3,4 Watt pro m² bei der Klimaenergie {3}. Diese energetische Unsicherheit von ± 3,4 Watt pro m² muss in jede Berechnung des zukünftigen Klimas eingehen.

Klimamodelle repräsentieren begrenzte Systeme. Begrenzte Variable werden innerhalb gewisser Grenzen  gehalten, die durch die Physik des Systems festgelegt werden. Allerdings ist die systematische Unsicherheit nicht begrenzt. In einer stufenweisen Berechnung muss jeder systematische Fehler oder jede systematische Unsicherheit bei den Input-Variablen als ±sqrt(sum(per-step error)²) in die Output-Variablen einfließen. Die Unsicherheit steigt mit jeder neuen Stufe. Diese Bedingung wird in der nächsten Darstellung zusammengefasst.

Die linke Formel illustriert die Art und Weise, mit der ein GCM stufenweise das künftige Klima projiziert {6}. Die weißen Rechtecke repräsentieren ein Klima, das sich während einer Serie von Zeitschritten weiter entwickelt. Jedes voran gegangene Klima schließt die Variablen mit ein, die sich nach Berechnung bis zum Klima der nächsten Stufe weiter entwickeln. Fehler in den Ausgangsbedingungen, Unsicherheiten in den parametrisierten Quantitäten und die Grenzen der Theorie führen allesamt zu Fehlern in projizierten Klimaten. Die Fehler in jedem voran gehenden Schritt der sich entwickelnden Klimaberechnung werden in die nächste Stufe mitgenommen.

Diese Fortpflanzung erzeugt die Zunahme des Fehlers, dargestellt in der rechten Formel, illustriert anhand der Temperatur. Die ursprünglichen Bedingungen führen zur ersten Temperaturangabe. Aber Fehler in der Berechnung erzeugen hohe und niedrige Unsicherheitsgrenzen (e_T1, etc.) bei der ersten projizierten Temperatur. Der nächste Rechenschritt erzeugt seine eigenen Fehler, die sich addieren und die hohen und niedrigen Unsicherheitsgrenzen beim nächsten Temperaturwert ausdehnen.

Wenn der Fehler systematisch ist, erscheinen ursprüngliche Unsicherheiten nicht als statistischer Fehler. Stattdessen pflanzt sich die Unsicherheit fort und erzeugt eine immer größer werdende Streuung von Unsicherheit um Klimaberechnungen nach Zeitstufen. Die Figur rechts außen fasst den Weg zusammen, auf dem der systematische Fehler als stufenweise Berechnung der Projektion mit der Zeit zunimmt.

Wenn die Unsicherheit wegen des Wachstums des systematischen Fehlers größer wird als die physikalischen Grenzen, hat die berechnete Variable keinerlei physikalische Bedeutung mehr. In der obigen Darstellung wäre die projizierte Temperatur nicht mehr bedeuten als statistisches Raten.

Hat man dies im Hinterkopf, kann sich der mittlere Fehler im CMIP5 hinsichtlich der globalen Bewölkung in eine zeitliche Temperaturprojektion hinein fortpflanzen. Dies wird die mittlere Unsicherheit der projizierten zukünftigen Temperatur infolge der Fehler zeigen, die die GCMs als Folge der Wolken-Rückkopplung machen.

Hier kommt nun der systematische Wolkenfehler im CMIP5 von 12,4% ins Spiel, der sich in jedermanns bevorzugte Temperaturprojektion fortpflanzt: Jim Hansens berühmtes Untergangsbild; das gleiche, das er in seiner Anhörung vor dem Kongress 1988 präsentierte. Die Fehlerbalken wurden berechnet mit Hilfe der Erkenntnisse meiner hoch aufgelösten GCM-Temperaturprojektions-Nachbildung, wie schon vorher detailliert beschrieben (892 kB pdf download).

Die GCM-Nachbildung zeigte, dass innerhalb der GCMs die globale Lufttemperatur lediglich eine lineare Funktion der Treibhausgase [net GHG] W/m² ist. Die Unsicherheit bei der berechneten Lufttemperatur ist dann nur eine lineare Funktion der Unsicherheit in W/m². Der mittlere GCM-Wolkenfehler pflanzte sich fort als:

„Lufttemperatur“ ist die Lufttemperatur an der Erdoberfläche in Grad Celsius. Die Lufttemperatur erhöht sich jährlich mit dem zunehmenden Antrieb durch Treibhausgase. Der „Gesamtantrieb“ ist der Antrieb in W/m² erzeugt durch CO2, Stickstoffoxide und Methan in jedem der „i“-Projektionsjahre. Der Antrieb nimmt jährlich zu mit dem Niveau der Treibhausgase. Die Gleichung ist die Standard-Fortpflanzung systematischer Fehler (eine amüsante Lektion hierzu gibt es hier (197 kb pdf)). Und jetzt, die Untergangs-Vorhersage:

Die Abbildung erklärt sich selbst. Die Linien A, B und C in Teil „a“ sind die Projektionen der künftigen Temperatur, wie sie Jim Hansen 1988 präsentiert hatte. Teil „b“ zeigt die gleichen Linien, nur diesmal mit den Fehlerbalken aus dem mittleren systematischen Wolkenfehler von 12,4% aus dem CMIP5. Die Unsicherheit nimmt mit jedem jährlichen Schritt zu. Es kann hier mit Sicherheit angenommen werden, dass Jim Hansens GISS-Modell E von 1988 nicht die CMIP5-Standards aufwies. Daher sind die Ungenauigkeiten aus dem CMIP5-Modell die wirkliche minimale Abschätzung der Fehlerbalken um Jim Hansens Temperaturprojektionen von 1988.

Die große Unsicherheit bis zum Jahr 2020, etwa ±25°C, hat die drei Szenarien so komprimiert, dass sie alle entlang der Grundlinie zu laufen scheinen. Die Unsicherheit von etwa ±25°C bedeutet nicht, dass ich annehme, dass das Modell eine Erwärmung oder Abkühlung um 25°C zwischen den Jahren 1958 und 2020 projiziert. Stattdessen repräsentiert die Unsicherheit die Pixelgröße, die durch ein CMIP5-GCM noch aufgelöst werden kann.

Jedes Jahr wird der Pixel größer. Das bedeutet, dass die Auflösung der GCMs schlechter wird. Nach nur wenigen Jahren ist das Ergebnis eines GCM so grob, dass nichts Wichtiges mehr daraus abgeleitet werden kann. Das ist die Bedeutung der endgültigen Fehlerbalken von ±25°C. Sie bedeuten, dass die CMIP5-GCMs in 62 Jahren keine Temperaturänderung kleiner als 25°C mehr auflösen können (im Mittel).

Dem Antriebsszenario von Jim Hansen zufolge erzeugt der ±3,4°C Watt/m²-Wolkenfehler schon nach einem Jahr einen Einzelschritt-Pixel in einer Größe von ±3,4°C. Kurz gesagt, GCMs auf dem Niveau von CMIP5 sind vollständig unfähig, irgendeine Änderung der globalen Temperatur zu zeigen, die sich zu irgendeiner Zeit aufgrund des vom Menschen erzeugten CO2 ereignen kann.

Genauso war die Jim Hansen-Version von 1988 des GISS-Modells E nicht in der Lage, irgendetwas über dass zukünftige Klima vorherzusagen. Die riesigen Unsicherheitsbalken machen seine Projektionen aus dem Jahr 1988 physikalisch bedeutungslos. Darüber zu befinden, welcher der Trends die globale Anomalie am besten zeigt, ist wie eine Diskussion um Kaisers Bart. Kein Argument hat irgendeine faktische Aussagekraft.

Ähnliche physikalische Unsicherheiten sollten jede GCM-Ensemble-Projektion der globalen Temperatur umgeben. Allerdings ist die Wahrscheinlichkeit, diese im AR5 (oder in irgendeinem begutachteten Klimajournal) zu sehen, verschwindend gering.

Nichtsdestotrotz sind die CMIP5-Klimamodelle nicht in der Lage, die globale Temperatur auch nur ein Jahr im Voraus vorherzusagen. Ihre Projektionen haben keine physikalische Bedeutung und sind komplett unzuverlässig.

Wie aus der Überschrift zu diesem Artikel folgt: es gibt keinen Grund anzunehmen, dass irgendeine – ich wiederhole: irgendeine – zukünftige Klimaprojektion auf dem Niveau von CMIP5 zu finden sein wird.

Klimaprojektionen, die im IPCC-AR5 auftauchen könnten, werden völlig frei von jeder physikalischen Glaubwürdigkeit sein. Dazu beitragende Studien, die sich auf CO2 konzentrieren, sind notwendigerweise bedeutungslos. Dieses Scheitern steht im Zentrum von AGW Climate Promotions, Inc.

Zusammengefasst: jeder, der behauptet, dass das vom Menschen erzeugte CO2 dazu geführt hat, dass sich das Klima seit 1900 (oder 1950, oder 1976) erwärmt hat, setzt implizit die physikalische Verlässlichkeit von Klimamodellen voraus. Jeder, der die physikalische Verlässlichkeit von Klimamodellen ernsthaft voraussetzt, weiß buchstäblich nicht, wovon er redet. Jüngste Verkündigungen über die menschliche Schuld müssen vor diesem Hintergrund gesehen werden.

Das Urteil gegen den IPCC ist identisch: Sie wissen nicht, wovon sie reden. Glaubt irgendjemand, dass sie das davon abhalten wird, weiter zu reden?

Pat Frank PhD. San Diego.

Frank ist promovierter Chemiker,  spezialisiert in der Fehleranalyse spektroskopischer Messungen und arbeitet an der Stanford University

Andere Veröffentlichungen von Pat Frank bei EIKE z.B. hier, hierhier und hier

References:

1. Jiang, J.H., et al., Evaluation of cloud and water vapor simulations in CMIP5 climate models using NASA “A-Train” satellite observations. J. Geophys. Res., 2012. 117, D14105.

2. Covey, C., et al., An overview of results from the Coupled Model Intercomparison Project. Global Planet. Change, 2003. 37, 103-133.

3. Stephens, G.L., Cloud Feedbacks in the Climate System: A Critical Review. J. Climate, 2005. 18, 237-273.

4. AchutaRao, K., et al., Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations, D. Bader, Editor. 2004, Lawrence Livermore National Laboratory: Livermore.

5. Gates, W.L., et al., An Overview of the Results of the Atmospheric Model Intercomparison Project (AMIP I). Bull. Amer. Met. Soc., 1999. 80(1), 29-55.

6. Saitoh, T.S. and S. Wakashima, An efficient time-space numerical solver for global warming, in Energy Conversion Engineering Conference and Exhibit (IECEC) 35th Intersociety. 2000, IECEC: Las Vegas. p. 1026-1031.

Climate Model Abbreviations

BCC: Beijing Climate Center, China.

CCCMA: Canadian Centre for Climate Modeling and Analysis, Canada.

CNRM: Centre National de Recherches Météorologiques, France.

CSIRO: Commonwealth Scientific and Industrial Research Organization, Queensland Australia.

GFDL: Geophysical Fluid Dynamics Laboratory, USA.

GISS: Goddard Institute for Space Studies, USA.

INM: Institute for Numerical Mathematics, Russia.

IPSL: Institut Pierre Simon Laplace, France.

MIROC: U. Tokyo/Nat. Ins. Env. Std./Japan Agency for Marine-Earth Sci.&Tech., Japan.

NCAR: National Center for Atmospheric Research, USA.

NCC: Norwegian Climate Centre, Norway.

UKMO: Met Office Hadley Centre, UK.

Link: http://wattsupwiththat.com/2012/08/23/ar5-climate-forecasts-what-to-believe/

Übersetzt von Chris Frey EIKE




Schwächelnde Sonne: Wann wird die Abkühlung anfangen?

Wann also wird es kälter? Wie Nir Shaviv und andere angemerkt haben, sind der größte Kaloriemeter auf dem Planeten die Ozeane. Meine Arbeit zur Reaktion des Meeresspiegels auf die Sonnenaktivität (http://wattsupwiththat.com/2012/02/03/quantifying-sea-level-fall/) hat ergeben, dass der Übergang von einem Anstieg zu einem Absinken des Meeresspiegels bei einer Sonnenflecken-Amplitude bei 40 erfolgt:

Wie die folgende Graphik vom SIDC zeigt, beträgt die gegenwärtige Solaramplitude etwa 60 auf dem Weg zum solaren Maximum, das im Mai 2013 erwartet wird:

Die beiden restlichen Variablen in unserer Forschungsreise sind die Abschätzung des Zeitpunktes, an dem die Sonnenfleckenzahl unter 40 sinkt und die Länge des Sonnenzyklus’ 24. Bislang verläuft der Zyklus 24 fast exakt genauso wie der Sonnenzyklus 5, die erste Hälfte des Dalton-Minimums:

Der Neigungswinkel der gegenwärtigen heliosphärischen Kurve [The heliospheric current sheet tilt angle] hat ein Niveau erreicht, bei dem es zum solaren Maximum kommt. Normalerweise verharrt es ein Jahr lang auf diesem Niveau, bevor die Kurve wieder fällt:

Parallel dazu zeigt die die Stärke des solaren Polarfeldes (vom Wilcox Solar Observatory), dass es noch bis zu einem Jahr dauern könnte, bis das solare Maximum erreicht ist:

Obwohl das solare Maximum der aus den beiden o. g. Parametern abgeleiteten Vorhersage noch ein wenig in der Zukunft liegt, dürfte die Sonnenflecken-Amplitude des Sonnenzyklus‘ 24, sofern sie weiter dem Verlauf des Sonnenzyklus‘ 5 gleicht, ab Mitte 2013 unter 40 fallen. Das Green Corona Emissions Diagramme von Altrock (http://wattsupwiththat.com/2012/01/08/solar-cycle-24-length-and-its-consequences/) legt nahe, dass der Zyklus 24 17 Jahre lang dauern wird und 2026 zu Ende geht. Das bedeutet zwölfeinhalb Jahre Abkühlung ab Mitte 2013.

Aus all dem folgt, dass die Abnahme ab Mitte 2013 im Mittel etwa 1,2°C während der dann verbleibenden zwölfeinhalb Jahre betragen wird, um der von Solheim vorhergesagten Temperaturabnahme von 0,9°C während des gesamten Zyklus 24 Rechnung zu tragen. Zweifellos wird die Abkühlung nachwirken, so dass für den Zyklus 25 eine weitere Abkühlung relativ zum Zyklus 24 wahrscheinlich ist.

David Archibald

Link: http://wattsupwiththat.com/2012/08/13/when-will-it-start-cooling/

Übersetzt von Chris Frey EIKE

Ergänzung:

In der Sendung vom 20.8.12 versucht 3SAT NANO, ziemlich bemüht, den Einfluss der Sonne auf das Klima zu widerlegen. Schön einfach dargestellt, damit auch der nur geisteswissenschaftlich  gebildete normale ZEIT-Leser es versteht:

 Urteilen Sie selbst.

Mit Dank an R. Hoffmann

Weiterführende Links zum Thema schwächelnde Sonne : Hier auf "Die kalte Sonne"




Green Economy – Nachhaltiges Wirtschaften führt zu Planwirtschaft und Umverteilung!

«Die Zukunft der Menschheit ist zu kostbar, um sie dem fortwährenden Nationalstaaten-Mikado preiszugeben. Nun sind Pioniere aus allen Bereichen der Weltgesellschaft gefragt.»

Das erklärte Professor Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der deutschen Bundesregierung Globale Umweltveränderungen (WBGU), nach dem Rio+20-Palaver mit bis zu 50 000 Teilnehmern, das mit einer vagen, mit hohlen Schlagworten gespickten Abschlusserklärung endete. Trotz der Führungsschwäche der Nationalstaaten sei aber die «Transformation zur Nachhaltigkeit» aufgrund von Allianzen zwischen «Pionieren des Wandels»  bereits in vollem Gang.

Doppelte Profiteure

Zu diesen Pionieren zählt der WBGU wohl auch jene internationalen Rohstoff- und Nahrungsmittelkonzerne, die damit begonnen haben, ganze Länder in Soja-, Mais-, Raps- oder Ölpalmen-Monokulturen zu verwandeln, um sich für die Produktion von Bio-Treibstoffen von der International Sustainability and Carbon Certification (ISCC) CO2-Emissions-Gutschriften im Rahmen des Clean Development Mechanism (CDM) des Kyoto-Protokolls über den Klimaschutz bescheinigen zu lassen. Auf diese Weise können die Konzerne an der vorgeblichen Rettung der Welt gleich zweimal verdienen.

Sustainability, im Deutschen ungenau mit Nachhaltigkeit übersetzt, ist zu einem Zauberwort geworden, das heute kaum noch jemand kritisch zu hinterfragen wagt, weil es scheinbar etwas Selbstverständliches – die Bevorzugung seriöser Geschäfte gegenüber dem auf Täuschung beruhenden schnellen Reibach – bezeichnet. In der Praxis gilt aber die Verminderung der Produktion des zum «Klimakiller« erklärten Pflanzennährstoffs CO2 mehr und mehr als wichtigster, wenn nicht alleiniger Indikator nachhaltigen Wirtschaftens.

Dabei nehmen dessen Protagonisten offensichtlich in Kauf, dass die von ihnen angeheizte Konkurrenz zwischen Tank und Teller die Zahl der Hungernden wieder steigen lässt. Sie nehmen auch in Kauf, dass die von ihnen geförderten angeblich CO2-neutralen Monokulturen dem in der Rio+20-Erklärung wiederholt beschworenen Erhalt der Biodiversität fundamental widersprechen. Somit führt die mit dem Klimaschutz begründete Politik gerade die Zustände herbei, vor denen sie gewarnt hat.

Kein geschlossenes System

Eine solche sich selbst erfüllende Prophezeiung ist das Kennzeichen aller Politikansätze, die sich direkt oder indirekt auf Thomas Robert Malthus (1766 bis 1834) berufen. Mit seiner Behauptung, es gehe gar nicht anders, als dass die Nahrungsmittelproduktion mit Naturnotwendigkeit hinter der Bevölkerungsentwicklung zurückbleibe, wurde Malthus zum Urheber einer ökonomischen Denkrichtung, die sich die Welt nur als geschlossenes System vorstellen kann. In einer solchen Welt ist kein Platz für das Wechselspiel von Angebot und Nachfrage, für freien Austausch zu beiderseitigem Vorteil und Innovationen. Möglich sind nur Nullsummenspiele und die planwirtschaftliche Rationierung eines scheinbar ein für allemal gegebenen Ressourcenvorrats.

Die Hungersnöte, vor denen Malthus als Vertreter des gesellschaftlich absteigenden Landadels warnte, wurden erst durch die Einführung hoher Getreidezölle im Interesse dieser Schicht durch das berüchtigte Corn Law und die dadurch verursachte Explosion des Brotpreises heraufbeschworen. Nach dem Fall des von den Manchester-Liberalen um Richard Cobden und John Bright bekämpften Corn Law im Jahr 1848 und dem damit verbundenen vorläufigen Sieg der Idee einer offenen Welt des Freihandels gab es in Europa zu Friedenszeiten keine Hungersnot mehr.

Lange Reihe von Warnern

Einer der bekanntesten Verfechter des Malthusianismus und der damit begründeten «Vernichtung lebensunwerten Lebens» im 20. Jahrhundert war John Maynard Keynes, der bis kurz vor seinem Tode der britischen Gesellschaft für Eugenik vorstand. In Schweden hat das Ökonomen-Ehepaar Alva und Gunnar Myrdahl einen ähnlichen Ansatz vertreten. Unter Berufung darauf wurden in Schweden bis zum Jahr 1976 über 60 000 «hochgradig lebensuntaugliche Individuen» sterilisiert, oft gegen ihren Willen. In Amerika forderten Paul und Anne Ehrlich in ihrem 1968 erschienen Bestseller «Die Bevölkerungsbombe»  die Reduktion der Weltbevölkerung auf anderthalb Milliarden Menschen. Der im Jahr 1972 erschienene Bericht des Club of Rome «Die Grenzen des Wachstums» war lediglich eine Fortschreibung dieser Weltsicht via Computersimulationen. Bekanntlich haben chinesische Machthaber damit ihre strenge Ein-Kind-Politik mit Hilfe von Zwangssterilisierungen und Kindestötungen gerechtfertigt. Die dadurch herbeigeführte, ungünstige Bevölkerungsstruktur wird wohl das chinesische Wirtschaftswunder bald abwürgen.

Umverteilungsmaschinerie

Wie eingangs angedeutet, führen die Gründe der «Klimapolitik» zu einer sich möglicherweise selbst erfüllenden malthusianistische Prophezeiung. Der Ökonom Ottmar Edenhofer, Co-Vorsitzender des Weltklimarates IPCC, hat deutlich gesagt, worum es beim Klimaschutz im Kern geht: Um den Anstieg der Durchschnittstemperatur der Erde auf zwei Grad Celsius zu begrenzen, dürften die Menschen bis zum Ende des 21. Jahrhunderts höchstens noch 750 Gigatonnen CO2 freisetzen. Eine Welt-Kohlenstoffbank müsse den Einsatz kohlenstoffhaltiger Rohstoffe dementsprechend rationieren. Die in den vergangenen Jahren entdeckten riesigen «unkonventionellen» Erdöl- und gasvorräte sollen deshalb unter der Erde bleiben. In einem am 14. November 2010 in dieser Zeitung veröffentlichten Interview erklärte Edenhofer: «Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist.» 

Es ist äusserst schwierig, die Stichhaltigkeit der Hypothese einer Aufheizung der irdischen Atmosphäre durch CO2 und andere Treibhausgase durch naturwissenschaftliche Experimente zu überprüfen. Wir sollen die Geschichte von der menschlich verursachten Erderwärmung einfach glauben. Aufgrund historischer Erfahrungen kann es jedoch als sicher gelten, dass der damit begründete Versuch der Errichtung einer weltweiten Planwirtschaft erst den Mangel und die Armut schaffen wird, die zu bekämpfen er vorgibt.

Edgar L. Gärtner; EIKE ist Hydrobiologe und Fachjournalist für Energie und Chemie, Frankfurt am Main. Zuerst erschienen in der NZZ unter "Green Economy – nur aufgewärmter Malhusianismus" am 23.8.2012 

Einen entsprechenden Beitrag zu den Möglichkeiten und Segnungen der  "Green Economy" hat auch der von Frau v.d. Leyen als "brillianter Experte" (Bei Jauch am 26.8.12) eingestufte Bundesumweltminister Peter Altmeier verfasst. Unter wenigstns einem "Paradigmenwechsel" fängt dieser Experte gar nicht erst an. Mit Dank an Leser Heinzow




NOAA zeigt 36% mehr Eis als während des Minimums 2007

Die türkis gefärbten Flächen im Bild rechts deuten auf Eis im Jahr 2012 hin, dass 2007 nicht vorhanden war. Die violetten Flächen bedeuten das Gegenteil.

http://www.natice.noaa.gov/pub/ims/ims_gif/DATA/cursnow_alaska.gif

http://www.natice.noaa.gov/pub/ims/ims_gif/ARCHIVE/AK/2007/ims2007265_alaska.gif

Passive Mikrowellen-Messungen können große Gebiete mit Eisbedeckung nicht erkennen, weil ein früher Wintersturm das Eis in Stücke gebrochen hat, was die Satelliten nicht detektieren können. Die Alarmisten geraten in Jubel-Hysterie – basierend auf Müll-Daten.

Link: http://stevengoddard.wordpress.com/2012/08/25/noaa-showing-35-more-ice-than-the-2007-minimum/

Übersetzt von Chris Frey EIKE 




Ein typischer Briefwechsel mit Medienvertretern!

… Es sind die zur Staatsdoktrin erhobenen Märchen von der drohenden Klimakatastrophe und der baldigen Endlichkeit fossiler Energien. Verstärkt durch die gemeinsame Überzeugung „Atomkraft“ sei hochgefährlich und gehöre zu Recht abgeschafft.

Von entsprechender Qualität sind dann auch die Berichte. Zu einem dieser Berichte in einer großen Regionalzeitung nahm EIKE Energieexperte Dr. Dietmar Ufer schriftlich Stellung. Die höfliche Antwort des Redakteurs war typisch, die Entgegnung von Ufer darauf ebenso. Deswegen zeigen wir Ihnen heute beide. Zur Nachahmung empfohlen..

Mail des Fach-Redakteurs einer großen Regionalzeitung an Dr. Dietmar Ufer:

Betreff: Leitartikel zur Ökostromförderung

Sehr geehrter Herr Dr. Ufer,
Vielen Dank für Ihre Mail. Ich habe Ihre Anregungen mit Neugierde gelesen, auch wenn ich in einigen zentralen Punkten nicht mit Ihnen übereinstimme.
Es ist meines Erachtens müßig über die Klimaerwärmung zu streiten. Beide Seiten finden seit Jahren Argumente für Ihre Thesen. Ich hänge der Meinung an, dass ein Zusammenhang zwischen dem Ausstoß von Kohlenstoffdioxid und Klimaerwärmung besteht.
Zu Ihrem Kernargument: Sie haben Recht, die EEG-Umlage hat die Produzenten erneuerbarer Energie seit knapp einem Jahrzehnt finanziert – auf Kosten der Allgemeinheit. Dies ist meines Erachtens in erster Linie kein Grund, die Energiewende zu verteufeln. Die Umweltschäden, die durch den Ausstoß der Schwerindustrie, durch die Verschmutzung der Gewässer durch das industrielle Abwasser entstanden sind, wurden auch in den seltensten Fällen den Verursachern in Rechnung gestellt. Vielmehr zahlte für die Bekämpfung der Umweltschäden die Allgemeinheit, sprich: der Steuerzahler.
Ich gebe Ihnen aber Recht, dass das System der EE-Förderung überdacht werden sollte. Dies habe ich in meinem Leitartikel auch zum Ausdruck gebracht. Und ja: Ich halte die EEG-Umlage generell für überdenkenswert. Ob die Politik einen Verzicht auf diese Subvention durchsetzen würde, kann ich Ihnen nicht nicht sagen. Es spielt auch keine Rolle.
Sie schreiben, dass auch nach einem Ende der EEG-Umlage Strom teurer sein würde, als bisher. Auch da stimme ich Ihnen zu. Allerdings halte ich dies aufgrund der politischen Entscheidung, auf die Atomenergie zu verzichten, für vertretbar. Dieser Verzicht wird auf längere Sicht mit steigenden Strompreisen einhergehen. Ich sehe allerdings nicht, dass eine Deindustrialisierung Deutschlands naht. Die energieintensiven Unternehmen sind bisher alle von der EEG-Umlage  ausgenommen. Sie können den Strom an der Leipziger Strombörse zudem direkt kaufen und so viel günstigere Konditionen erhalten, als Sie und ich es als Privatkunde je können werden.
Es wäre in meinen Augen naiv und nicht zukunftsweisend, wenn Deutschland seine Wirtschaft auch noch in Jahrzehnten von fossilen Energieträgern abhängig machen würde. Denn diese Ressourcen sind zum einen endlich, zum anderen wird es hier auch in den nächsten Jahren aufgrund der Verknappung auf den Weltmärkten zu einem Preisanstieg kommen.
Sie sehen, Herr Dr. Ufer, wir betrachten die Energiewende aus zwei unterschiedlichen Blickwinkeln. Dennoch teile ich Ihre Skepsis gegenüber dem bisherigen Fördersystem.

Mit freundlichen Grüßen

XXXXXXXXXXX

Antwort von Dr. Ufer

Sehr geehrter Herr XXXXXXXXXXX,

aus meinem langen Schweigen können Sie entnehmen, dass ich einige Zeit brauchte, um Ihre Antwort zu „verdauen“. Ich musste nämlich leider feststellen, dass Sie den von der Politik in die Welt gesetzten Unwahrheiten voll verfallen sind. Die hatte ich in meinem Schreiben an Sie als drei Phobien zusammenfassend dargestellt: Die Klima-Phobie, die Energiemangel-Phobie und die Nuklear-Phobie. Allen drei Ängsten sind Sie „verfallen“! Und leider sind Sie keiner der von mir geäußerten Überlegungen ernsthaft nachgegangen.

Als Vertreter der „schreibenden Zunft“, der über energiewirtschaftliche Themen berichtet, sind Sie in erheblichem Maße meinungsbildend. In der Öffentlichkeit werden Ihre Ausführungen von den in ihrer Mehrzahl nur wenig sachkundigen Lesern als „Wahrheiten“ aufgenommen. Und wenn Journalisten auch noch als wenig sachkundig auftreten, müssen wir uns nicht wundern, wenn immer mehr Bürger irgendwelchen grüngefärbten Illusionen anhängen.

Diese Überlegung war letzten Endes ausschlaggebend für mich, Ihnen auf Ihre Mail zu antworten. Ich habe allerdings nur wenig Hoffnung, dass sich das in Ihren Beiträgen in der Leipziger Volkszeitung und anderen Zeitungen niederschlagen wird – hoffe es aber trotzdem! Daher versuche ich, Ihnen noch einmal einige Grundwahrheiten verständlich zu machen.

Natürlich weiß ich, dass Sie als Journalist über viele ganz verschiedene Themen schreiben müssen und mit Sicherheit kein Spezialist auf allen Gebieten sein können. Es wäre aber gut – für Sie und Ihre Leser – wenn Sie sich bei besonders brisanten Themen (und dazu gehört die Energiepolitik!) – auch um Fachinformationen bemühen würden. Ein Buch, nämlich das von Günther Keil, hatte ich Ihnen empfohlen; gern bin ich bereit, Ihnen weitere Informationen zukommen zu lassen. Schon jetzt möchte ich Ihnen die regelmäßige Lektüre der Internet-Seite des „Europäischen Instituts für Klima und Energie – EIKE“ ans Herz legen: www.eike-klima-energie.eu

Gestatten Sie mir nachfolgend einige Anmerkungen zu Ihren Aussagen:

Erstens:

Sie schreiben: „Es ist meines Erachtens müßig, über die Klimaerwärmung zu streiten. Beide Seiten finden seit Jahren Argumente für Ihre Thesen. Ich hänge der Meinung an, dass ein Zusammenhang zwischen dem Ausstoß von Kohlenstoffdioxid und Klimaerwärmung besteht.“

Vorerst: Er gibt keinen Streit um die „Klimaerwärmung“ oder den „Klimawandel“, sondern einen Streit darüber, wer oder was dafür verantwortlich ist! Sie können als Privatmann allen möglichen Meinungen anhängen, als verantwortungsbewusster Journalist sollten Sie allerdings nur das zu Papier bringen, was sachlich gesichert ist – auch dann, wenn es Ihnen nicht gefällt. Dazu gehört die Tatsache, dass keinerlei messbarer Zusammenhang zwischen dem Ausstoß von Kohlendioxid und der Klimaerwärmung nachgewiesen werden kann. Einen solchen Zusammenhang gibt es nur in den Rechnern der Klima-Prognostiker. So sollten Sie beispielsweise wissen, dass die Emission dieses Gases infolge Nutzung fossiler Brennstoffe seit Jahrzehnten steigt, seit mehr als zehn Jahren die globale Durchschnittstemperatur jedoch stagniert und sogar fällt. Ich weiß: Ihnen gefällt das nicht, auch unseren Politikern und so manchem „Klimaforscher“ gefällt das nicht. Und das ist der Grund dafür, dass in den deutschen Medien (und nur hier!) darüber der Mantel des Schweigens gebreitet wird! – Wenn Sie also über einen CO2-/Klima-Zusammenhang schreiben wollen/sollen, dann bringen Sie wenigstens die dazugehörenden Fakten mit ins Spiel!

Zweitens:

Sie schreiben: „Die Umweltschäden, die durch den Ausstoß der Schwerindustrie, durch die Verschmutzung der Gewässer durch das industrielle Abwasser entstanden sind, wurden auch in den seltensten Fällen den Verursachern in Rechnung gestellt. Vielmehr zahlte für die Bekämpfung der Umweltschäden die Allgemeinheit, sprich: der Steuerzahler.“

Das ist – zum Teil – richtig. Aber die industriell ausgelösten Umweltschäden wurden erkannt und es wird alles getan, um sie zu verhindern und die Folgen zu beseitigen. Bestes Beispiel hierfür sind die Braunkohlenkraftwerke in der DDR, die fast ausnahmslos durch moderne, saubere (!) Anlagen (Lippendorf, Boxberg, Jänschwalde, Schkopau etc.) ersetzt wurden. Es kann aber wohl nicht richtig sein, angesichts der leider immer noch vorhandenen Umweltschäden neue Schäden zu verursachen und das noch als „modern“ oder „nachhaltig“ oder ähnliches zu bezeichnen. Die Umweltzerstörungen der Vergangenheit reichen – wir brauchen keine neuen!

Drittens:

Sie halten die langanhaltende rapide Verteuerung der elektrischen Energie „aufgrund der politischen Entscheidung, auf die Atomenergie zu verzichten, für vertretbar.“

Es handelte sich hier um eine Entscheidung, die von Menschen getroffen wurde, die in ihrer weit überwiegenden Mehrheit keine Fachleute der Energiewirtschaft, der Energietechnik oder gar der Kerntechnik sind. Sie haben sich den Vorgaben einiger Ideologen gebeugt, ohne die Folgen ihrer Fehlentscheidung überhaupt übersehen zu können. Sie waren sich nicht bewusst, welchen wirtschaftlichen und ökologischen Schaden sie damit auslösen!
Die Bundeskanzlerin hat sich diese verhängnisvolle Entscheidung schließlich noch durch eine eigens dafür eingesetzte „Ethikkommission“, in der zwar zwei Bischöfe, aber kein einziger Energie- oder gar Kernenergie-Fachmann Sitz und Stimme hatten, „absegnen“ lassen. Seitdem glauben „die“ Deutschen, dass Kernenergie etwas „Böses“ ist…

Auch der Kerntechnik sollte man zugestehen, dass sie sich – so wie andere Techniken auch – ständig weiterentwickelt, was zu größerer Zuverlässigkeit/Sicherheit, Wirtschaftlichkeit und Umweltverträglichkeit führt. Wenn man der Meinung sein sollte, dass die gegenwärtig in Betrieb befindlichen (und bis vor kurzem betriebenen Kernkraftwerke) unsicher sind (wofür es keinerlei ernstzunehmende Hinweise gibt), dann sollte doch die Politik fordern, diese Anlagen durch neue, bessere zu ersetzen – so wie es beispielsweise in der Kraftfahrzeugtechnik laufend geschieht. Nein – die deutschen, völlig fachfremden, zumeist nicht einmal mit elementarsten naturwissenschaftlichen Zusammenhängen „belasteten“ Bundesminister und Abgeordneten des Bundestages beschließen das Verbot einer Technik, die weltweit gepflegt und ausgebaut wird! Es handelt sich hier um einen Skandal, über den unsere Nachbarn und Konkurrenten laut lachen!

Jetzt könnten Sie mir noch das „ungelöste Entsorgungsproblem des Atommülls“ entgegenhalten. Ich möchte Ihnen dazu keine wissenschaftliche Abhandlung bieten, sondern auf einschlägige Fachliteratur verweisen (Sie können auch googeln). Dort finden Sie unter dem Stichwort „Transmutation“ die Beschreibung von Verfahren, die letztlich die heißdiskutierte „Endlagerung“ der Produkte der Kernspaltung überflüssig machen werden. Aber auch hier ist es so wie bei der Klimadebatte: Bestimmte – politisch unliebsame – Fakten werden in den deutschen Medien konsequent totgeschwiegen – so tot, dass nicht einmal Politiker und Journalisten davon erfahren!

Viertens:

Sie sehen nicht, „dass eine Deindustrialisierung Deutschlands naht. Die energieintensiven Unternehmen sind bisher alle von der EEG-Umlage  ausgenommen. Sie können den Strom an der Leipziger Strombörse zudem direkt kaufen und so viel günstigere Konditionen erhalten, als Sie und ich es als Privatkunde je können werden.“

Wenn Sie die Deindustrialisierung nicht sehen, dann ist das kein Beweis für die Nichtexistenz dieses Phänomens. Fachleute sehen das anders:

Schon 2010 mahnte der damalige BASF-Chef Jürgen Hambrecht: „Eine verfehlte Energiepolitik führt zu einer schleichenden Deindustrialisierung in Deutschland.“ (FAZ 27. August 2010)

Führende Hersteller und Verarbeiter von Aluminium, Kupfer und Zink (Aurubis, Hydro, Trimet, Voerdal und Xstrata Zinc) warnten in einem Brief an den Chef des Bundeskanzleramtes, Ronald Pofalla, schon im Frühjahr 2011 vor einer klimapolitisch bedingten Deindustrialisierung in Deutschland. (FAZ 8. Mai 2011)

Wolfgang Eder, Präsident von Eurofer (Wirtschaftsverband der europäischen Eisen- und Stahlindustrie), Brüssel, und Vorstandsvorsitzender von Voestalpine, Linz (A) erklärte: „In letzter Konsequenz führt die europäische Klimapolitik zu einer Deindustrialisierung Europas.“ Selbst die besten Stahlunternehmen Europas seien physikalisch-technisch nicht in der Lage, die von der EU vorgegebenen Benchmarks beim Emissionsrechtehandel zu erfüllen. (VDI nachrichten, 1. Juli 2011, Nr. 26/27)

Der SPIEGEL schrieb im Februar 2012: „Vor knapp zwei Wochen hat ThyssenKrupp, Deutschlands größter Stahlkonzern, sein Krefelder Edelstahlwerk an den finnischen Konkurrenten Outukumpu verkauft. Der will die Produktion bis Ende nächsten Jahres dichtmachen. Über 400 Beschäftigte brauchen neue Jobs. Der wirtschaftliche Verlust für die gebeutelte Stadt am Niederrhein ist groß. Verantwortlich für das Ende ist nicht Billigkonkurrenz aus Fernost oder Missmanagement in der Essener Thyssen-Krupp-Zentrale, sondern die verfehlte Politik der Bundesregierung. … Seit die schwarz-gelbe Koalition beschlossen hat, im Hauruck-Vorfahren aus der Atomkraft auszusteigen, haben sich die Bedingungen für stromfressende Industrien erheblich verschlechtert. Die Energiepreise steigen, das Risiko von Stromausfällen wächst. Doch der dringend benötigte Ausbau bei den Stromnetzen, Ersatzkraftwerken und erneuerbaren Energien kommt kaum voran. Ausgerechnet Union und FDP trieben die Deindustrialisierung voran und seien dafür verantwortlich, dass in Deutschland der Ofen ausgeht, lautet der Vorwurf einer wachsenden Zahl von Wirtschaftsexperten, Managern und Gewerkschaftern. Die Energieversorgung sei jetzt ‚das Top-Risiko für den Wirtschaftsstandort Deutschland’. sagt Hans Heinrich Driftmann. Präsident des Industrie- und Handelskammertages (DIHK). ‚Man muss sich in Deutschland Sorgen um den Strompreis machen’, warnt EU-Energiekommissar Günther Oettinger. Und Bernd Kalwa, Gesamtbetriebsrat bei ThyssenKrupp, schimpft: ‚Allein in unserem Konzern sind 5000 Arbeitsplätze in Gefahr, weil in Düsseldorf und Berlin eine unverantwortliche Energiepolitik betrieben wird.’“ (DER SPIEGEL, Nr. 8/2012, 20. Februar 2012)

Sie können dort auch Zahlen über die Industrie-Strompreise in Europa finden: Deutschland liegt mit 16,7 Cent/kWh nach Dänemark und Italien an dritthöchster Stelle! Frankreich liegt bei 10,1 Cent/kWh.

EU-Energiekommissar Oettinger erklärte beim „Ostdeutschen Energieforum“ vor wenigen Wochen in Leipzig, dass ohne einheitliche nationale Strategie für die Energiewende Deutschland zum Wackelkandidaten in der europäischen Industrielandschaft werde. Schon jetzt sei Energie bis zu 30 Prozent teurer als anderswo in Europa. Dazu kämen in Zukunft die gigantischen Kosten für den Umbau der Energiewirtschaft. Oettinger mutmaßt deshalb eine baldige Deindustrialisierung.“Die Energiewende wird als Megathema darüber entscheiden, ob der Industriestandort Deutschland so wichtig bleibt, wie er jetzt ist.“ (LVZ 12. Mai 2012)

Sehen Sie sich schließlich noch den PowerPoint-Vortrag von Prof. Dr.-Ing. Dieter Ameling, Präsident der Wirtschaftsvereinigung Stahl a. D., Vorsitzender Stahlinstitut VDEh a. D.,an, der am 30. November 2011 an der HTWK Leipzig zum Thema „Das Energiekonzept der Bundesregierung führt zur De-Industrialisierung“ sprach:
http://wwwm.htwk-leipzig.de/~m6bast/rvlfukushima/111130RVLfukushimaAmelingWirtschaft.pdf

Reicht Ihnen das? Im Gegensatz zu Ihrem Glauben, dass sich die Deindustrialisierung angeblich nicht nahe, besagen die harten Fakten: Sie ist schon im vollen Gange!

Sie haben wohl inzwischen auch bemerkt, dass es nicht allein um die EEG-Umlage geht, von der „energieintensiven Unternehmen … ausgenommen“ sind. Sie sollten vielmehr beachten: Auch die Strompreis-Erhöhungen für die privaten Haushalte führen zu sinkender Kaufkraft, was durchaus nicht förderlich für die deutsche Wirtschaft sein dürfte, sondern eher ein Baustein für die weitere Deindustrialisierung!

Fünftens:

In Ihren Augen „wäre (es) naiv und nicht zukunftsweisend, wenn Deutschland seine Wirtschaft auch noch in Jahrzehnten von fossilen Energieträgern abhängig machen würde. Denn diese Ressourcen sind zum einen endlich, zum anderen wird es hier auch in den nächsten Jahren aufgrund der Verknappung auf den Weltmärkten zu einem Preisanstieg kommen.“

Lassen wir das Wörtchen „naiv“ beiseite und wenden uns dem Begriff „zukunftsweisend“ zu, oft liest man dafür auch „nachhaltig“ oder „sustainable“. Leider sind diese Worte – ganz speziell in der Wirtschaftspolitik – zu leeren Floskeln verkommen, in die so mancher gerade das hineininterpretiert, was er ansonsten sachlich nicht erklären kann!

Meinen Sie tatsächlich, dass man die Energieversorgung eines hochentwickelten Industrielandes mit volatilen Energiequellen wie Sonne und Wind oder mit Weizen, Raps und Mais „zukunftsweisend“ bewerkstelligen kann? Unsere Vorfahren wussten schon sehr genau, warum sie sich von diesen Energieressourcen verabschiedeten und sich den hochkonzentrierten und preiswerten fossilen und schließlich nuklearen Energiequellen zuwandten! Und warum sollten wir das heute nicht mehr tun? Was ist schlimm daran, dass wir von fossilen Energieträgern „abhängig“ sind? Schließlich sind wir auch von Getreide, Eisenerz, Baumwolle, Wasser oder Luft „abhängig“!

Natürlich sind fossile Energieressourcen endlich. Aber sie waren es schon immer! – Hätten wir da vielleicht gar nicht erst anfangen sollen, sie auszubeuten? Und für wen sollten wir sie denn bewahren?

Bitte nehmen Sie (erneut) zur Kenntnis: Fossile Energieträger reichen noch für Hunderte von Jahren – speziell bei Kohle spricht man von tausend Jahren! Kernspaltstoffe (Uran und Thorium) sind für mindestens die gleichen Zeiträume verfügbar, insbesondere dann, wenn man die Technologie der „Schnellen Brutreaktoren“ nutzt. Unsere Nachkommen werden ganz sicher über eine wirtschaftlich nutzbare Kernfusionstechnologie verfügen! Und wissen Sie, was unseren Enkeln und Urenkeln noch einfallen wird, um ihre Energieversorgung wirtschaftlich, zuverlässig und umweltfreundlich zu gestalten? Ganz bestimmt werden sie sich nicht von den Unwägbarkeiten des Sonnenscheins und der Windgeschwindigkeit abhängig machen wollen – das tun nur deutsche Energiepolitiker der Gegenwart!

Sind Sie sich eigentlich darüber im Klaren, dass die Weltmarktpreise für Kohle, Öl und Gas noch nie infolge Ressourcen-Verknappung gestiegen sind? Und nun soll das Ihrer Meinung nach – sogar in den nächsten Jahren – passieren?

Sechstens:

Entgegen Ihrer Meinung „verteufele“ ich die „Energiewende“ nicht. Ich hege auch keine „Skepsis gegenüber dem bisherigen Fördersystem“ für alternative Energien.

Meine Auffassung dazu ist: Ich lehne die „Energiewende“ aus sachlich-rationalen Gründen komplett ab. Sie ist unbezahlbar, technisch nicht beherrschbar und umweltschädlich. Es gibt keinen einzigen vernünftigen Grund, dieses volks- und energiewirtschaftlich verhängnisvolle „Programm“ umsetzen zu wollen! Daher möchte ich auch nicht am „bisherigen Fördersystem“ korrigierend eingreifen – ich lehne das EEG genauso  ab und möchte es durch die bewährten marktwirtschaftlichen Regeln beim Handel mit Energieträgern ersetzen. Das schließt auch die Aufhebung des Bestandschutzes bei der Entgeltzahlung aus vorhandenen Anlagen ein!

Sehr geehrter Herr XXXXXXX, entschuldigen Sie die Länge meines Antwortschreibens! Ich hielt es für zweckdienlich, etwas ausführlicher zu schreiben, weil ich Sie damit anregen möchte, über bestimmte Thesen gründlicher nachzudenken. Ich werde – natürlich! – auch künftig verfolgen, ob Sie weiterhin dem Mainstream folgen oder ob Sie den Mut aufbringen werden, auch politisch ungewünschte Wahrheiten über die Energiepolitik zu verbreiten. Sie sollte in Ihrer Arbeit nicht von irgendwelchen Glaubensdogmen ausgehen, sondern technisch-naturwissenschaftliche, wirtschaftliche und ökologische Fakten nüchtern bewerten und die sich daraus  ergebenden Schlussfolgerungen aufschreiben. Pseudoreligiöse Meinungsäußerungen in der Energiepolitik haben wir schon zuhauf!

Ich wünsche Ihnen viel Erfolg bei Ihrer Arbeit

und verbleibe mit freundlichen Grüßen

Dr. Dietmar Ufer

Leipzig

Aus Datenschutzgründen wurde der Name des Redakteurs unkenntlich gemacht.