„SchwarmStrom für die Energiewende“ Die Geschichte einer Öko-Utopie

Blockheizkraftwerke (BHKW)

Die Ökoideologie sieht die Zukunft der Energieversorgung im Ersatz der Großkraftwerke durch eine „dezentrale“ Stromerzeugung. Die „Erneuerbaren Energien“ sollen mit virtuellen Kraftwerken aus tausenden Kleinst-BHKW mit gleichzeitiger Strom- und Wärmeerzeugung kombiniert werden.

Das Schwarmstromkonzept ist „eine ideale Ergänzung zur Stromerzeugung aus erneuerbaren Energien“.

In der Realität gibt es aber einen massiven Systemkonflikt zwischen dem Ausbau der „Erneuerbaren Energien“ und dem Ausbau der Kraft-Wärme-Kopplung (KWK). Gerade die kleinen BHKW weisen zusätzlich die spezifisch höchsten Kosten auf und sind wenig effizient. Die behaupteten Energieeinsparungen treffen nicht zu.
Die Politik verfolgt mit dem in 2012 novellierten Kraft-Wärme-Kopplungsgesetz weiter das Ziel, den KWK-Anteil bis 2020 auf 25% der Stromerzeugung zu verdoppeln und hat die Subventionen erhöht. Im aktuellen Energiekonzept der Bundesregierung wurde das Ziel einer Primärenergiereduzierung bis 2020 um 20% und bis 2050 um 80% im Gebäudebereich gesetzt. Dies hat dann den gegenläufigen Effekt und bedeutet in der Konsequenz das Ende der KWK im Heizungssektor.
Subventioniert werden die BHKW mit dem KWK-Zuschlag, dem Wegfall von Energiesteuern, ggf. der Stromsteuer sowie einem Investitionszuschuss. Die gekoppelte Erzeugung von Kraft und Wärme ist Voraussetzung für den Erhalt der Subventionen und die bedingte Wirtschaftlichkeit für den Betreiber.
Im Kraftwerksbereich und bei industriellen Anlagen ist die KWK sicher meist sinnvoll. Hintergrund sind die bei Großanlagen weitaus günstigere Anlagen-, Betriebs- und Energieträgerkosten, die mögliche Flexibilität in der Strom- und Wärmerzeugung und der höhere elektrische Wirkungsgrade (z.B. 60 % GUD gegenüber 33 % Gasmotor).

„SchwarmStrom mit dem ZuhauseKraftwerk“

Das „ZuhauseKraftwerk“ besteht aus einem VW-Motor mit einer elektrischen Leistung von 19 kW und einer thermischen Leistung von 36 kW gekoppelt mit Pufferspeichern von meist 2.000 l Volumen (technisches Datenblatt und Beschreibung).
Bei den üblichen BHKW erfolgt die Auslegung auf die Wärmegrundlast, um hohe Benutzungsstunden (möglichst > 5.000 h/a) der teuren BHKW zu erzielen. Erforderlich ist dann ein Spitzenlastkessel.
Das „SchwarmStrom“-Konzept beinhaltet eine monovalentes und überdimensioniertes BHKW, welches mit etwa 1.500 Betriebsstunden wie ein Heizkessel betrieben wird.
Durch den Speicher kann die sonst zum Wärmebedarf synchrone Stromerzeugung zeitlich entkoppelt werden. Bei einer angenommenen Temperaturspreizung von 30 K ist der 2.000 l Speicher ohne Wärmeentnahme bereits nach rund 2 Stunden vollständig geladen.
Die übliche Stromvergütung eines Klein-BHKW liegt aktuell bei rund 10 bis 11 ct/kWh und setzt sich zusammen aus dem BaseloadPreis (KWK-Index), dem KWK-Zuschlag und dem Konstrukt der vermiedenen Netzentgelte.
Das Lichtblickkonzept basiert auf der möglichen Verlagerung der Stromerzeugung im Tagesverlauf. Die Anlagen werden zu einem virtuellen Kraftwerk gebündelt und zentral gesteuert. Der Strom kann dann am Spot- und Regelenergiemarkt vermarktet werden. Über die erhofften Mehrerlöse gegenüber dem BaseloadPreis soll die Wirtschaftlichkeit des aufwändigeren Anlagenkonzeptes erzielt werden.
In der Darstellung von Lichtblick findet man die Aussagen, dass der „SchwarmStrom die beste Ergänzung zur schwankenden Windenergie darstellt“ und das mit den geplanten 100.000 Anlagen „zwei mittlere Atomkraftwerke ersetzt werden“ können. Dies ist angesichts fehlender Langzeitwärmespeicher und der nur 1.500 Betriebsstunden realitätsfern.

Innovationspreis für Klima und Umwelt

Das ideologisch korrekte „SchwarmStrom“-Konzept wurde folgerichtig ausgezeichnet:

Bundesumweltministerium und BDI zeichnen ZuhauseKraftwerke mit Innovationspreis aus

(16.03.2011).

Das Ende der Geschichte

Bereits ein Jahr später kosteten die Probleme mit dem Projekt den Lichtblick-Preisempfänger Dr. Christian Friege seinen Posten.
Offensichtlich wurde auch die Entwicklung der Märkte falsch eingeschätzt. Die Erdgaspreise sind im Zeitraum um rund einen Cent/kWh gestiegen. Die möglichen Erlöse am Spotmarkt sind durch die volatile PV- und Windeinspeisung gefallen. Eine Teilnahme am Regelenergiemarkt scheidet bei den aktuellen Vergütungen eher aus.
Das „ZuhauseKraftwerk“ wurde ursprünglich von Lichtblick zu einem Rundum-Sorglos-Paket (Wärme-Contracting) mit 5.000 EUR Baukostenzuschuss und einem an den Gaspreisindex gekoppelten Wärmepreis angeboten.
Im September 2012 wurde von Lichtblick der Baukostenzuschuss auf mindestens 9.900 EUR angehoben und dann der Vertrieb vorübergehend ausgesetzt.
Im Oktober 2012 wurde von Lichtblick das Contracting-Modell aufgegeben. Nun kann der Interessent das „ZuhauseKraftwerk“ für nur 27.990 EUR netto zzgl. Installationskosten kaufen. Unter den benannten Bedingungen rechnet sich dies nur, wenn das BHKW in der Grundlast mit möglichst hohen Benutzungsstunden eingesetzt wird. Der ursprünglich vorgesehene monovalente Heizungsbetrieb wird vollkommen unwirtschaftlich.
Damit wurde in der Konsequenz auch der „SchwarmStrom“ beerdigt. Der erforderliche zeitlich variable Betrieb der Anlagen ist praktisch nicht mehr möglich.
Von den geplanten 100.000 „ZuhauseKraftwerken“ wurden bisher 600 Anlagen installiert.
Gastautor Michael Clemens, für EIKE; Oktober 2012
Quellen:
SPON: Energiewende Vorwärts in die Schwarmstrom-Revolution vom 01.10.2009
Bündnis 90/Grüne:  Energie 2050: sicher erneuerbar vom 10.09.2010
TU Berlin: KWK Studie vom März 2010
http://www.kwkg-novelle.de
Lichtblick: Technisches Datenblatt ZuhauseKraftwerk
BHKW Prinz:  ZuhauseKraftwerk
BHKW-Infozentrum: Grundlagen Planung
Lichtblick: Broschüre
http://www.eex.com/en/
IKU-Innovationspreis für die Lichtblick AG
FAZ: Oekostrom Lichtblick und VW fehlen Kraftwerkskunden vom 25.07.2012
BHKW-Infothek vom 01.10.2012
BHKW- Infothek vom 11.10.2012




Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 2

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der  Klimawissenschaft

 

4. Bleibt noch etwas für CO2 „übrig“?

 

Wir versetzen uns einmal in die Lage der CO2-Anhänger und gehen von der Annahme aus, dass die gesamte Erwärmung Erfurts auf den behaupteten CO2-TE zurückzuführen wäre und suchen nach Korrelationen beider Verläufe seit 1979.

Setzt man die Jahresmittelwerte der CO2- Konzentration, ermittelt am Mauna Loa- Observatorium, zu den Jahresmitteltemperaturen für Erfurt seit 1979 in Beziehung, so kommt immerhin ein mäßiger Zusammenhang heraus:

 

 Abbildung 15

Der positive Zusammenhang überrascht schon deshalb nicht, weil der Langzeittrend (30 Jahre) der Jahresmittelwerte beider Größen angestiegen ist. Handelt es sich also nur um eine „Schein- Korrelation“, oder steckt mehr dahinter? Hierzu ist es notwendig, die Korrelation auch auf kleinen Skalen zu betrachten, da die Lehre von der CO2-basierten Erwärmung eine unmittelbare Ursache-Wirkung-Beziehung fordert und diese postuliert, was z.B. in den Berechnungen nach Stefan & Boltzmann zum Ausdruck kommt. Bereits ein Blick auf den Temperaturverlauf  Erfurts für dieses Jahrhundert (wir zeigten ihn eingangs des 1. Teils), lassen Zweifel aufkommen, da seither die Temperaturen fallen, der CO2-Pegel aber beschleunigt ansteigt. So verwundert es nicht, dass unter Physikern die Klimasensitivität von CO2 oder sonstigen sog. Treibhausgase kontrovers diskutiert wird. Sogar ein kühlender C02-TE ist in der Diskussion. Bisher gibt es jedoch keinen wissenschaftlichen Versuchsbeweis zur Bestätigung dieses „CO2-Treibhauseffektes“, so dass deutliche Temperaturveränderungen (Erwärmungseffekte) durch CO2 nicht sehr wahrscheinlich sind.    

Viertes Ergebnis: Anhand der obigen Korrelationsbeziehung, wären seit 1979 höchstens 0,25K, Temperaturanstieg in Erfurt durch die Zunahme der CO2- Konzentration verursacht worden- das würde bei (prinzipiell unzulässiger, aber hier mal beispielhaft angewandter) linearer Projektion einem Temperaturanstieg von 0,8K  (weniger als 1K!) in 100 Jahren entsprechen. Selbst dieses Ergebnis, das von einem existenten C02-TE ausgeht, der in der Wissenschaft kontrovers debattiert und bisher dort nicht nachgewiesen werden konnte, ist weit entfernt von den Panikvoraussagen mancher Treibhausforscher, deren Vorhersagen um fast das 10-fache höher sind.                                                                                    

Anmerkung: Häufig wird in Veröffentlichungen die folgende Grafik (Abbildung 15) gezeigt, welche einen erheblichen Einfluss der „Treibhausgase“ auf den Anstieg der globalen Temperatur belegen soll:

 

Abbildung 16

Simulation (WALTER) der beobachteten global gemittelten

Jahresanomalien 1860–2008 (Referenzperiode 1961–1990) der bodennahen

Lufttemperatur (Beob., dünne Kurve) durch ein neuronales

Netz (NN2, vgl. Text; Sim., dicke Kurve), anthropogene Signale durch

Treibhausgase (GHG, gestrichelt), Sulfatpartikel (SU, punktiert) und

kombiniert (GHG+SU, grau) sowie Markierung einiger explosiver Vulkanausbrüche

(maximaler Temperatureffekt i.a. ca. 1 Jahr nach Ausbruch)

und El-Niño-Ereignisse

Der entscheidende Mangel bei dieser Darstellung: Zwei ganz wichtige „Verursacher“ des Temperaturanstiegs wurden erst gar nicht in die Untersuchungen mit einbezogen- erstens die Urbanisierungs- und Flächenhaften Wärmeinseleffekte und zweitens solare Effekte, die über die Schwankungen der „Solarkonstante“, oft als „TSI“ (Total Solar Irradiance – Der TSI ist im Grunde eine Mogelpackung, da er „Total“ suggeriert, die Messgeräte in den Satelliten aber nur einen Teil der Sonnenstrahlung erfassen und zwar zwischen 200nm – 2.000 nm Wellenlänge. Gerade die hochvariablen Energiebestandteile der solaren Strahlung, werden gar nicht erfasst!) bezeichnet, weit hinausgehen und beispielsweise unter dem „SVENSMARK- EFFEKT“ zusammengefasst werden. Daher ist der abgeschätzte „GHG- Effekt“ in obiger Grafik deutlich zu groß.

Um die Temperaturen und Wetterlagen in Deutschland und damit auch in Erfurt zu verstehen, muss man sich auf die andere Seite des Globus, in den Pazifik begeben. Die Welt ist ein „Dorf“, nicht nur in unserem Zusammenleben. Seit langem ist bekannt, dass die bekannten El Niño/La Niña-Ereignisse Einfluss auf die Großwetterlagen in Europa haben. Hier sind z.B. die Untersuchungen von Prof. Brönnimann (ETH Zürich, “Pazifik lies Europa erfrieren“) und des MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ genannt.

Weiter ist bekannt, wie die globale Mitteltemperatur im Gleichtakt zu El Niño/La Niña-Ereignissen schwankt (folgende Abbildung).

 

Abbildung 17 oben zeigt die globale Temperaturdatenreihe der letzten 30 Jahre. Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El- Niño- Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen. Zur CO2-Entwicklung besteht keine erkennbare Korrelation.

Ebenso ist bekannt, dass El Niño/La Niña-Ereignisse mit der Aktivität der Passatwinde und damit der Ausprägung der Hadley- Zellen zusammen hängen.

 

Abbildung 18 zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark gibt es eine These, wie die solare Aktivität die Bewölkung beeinflusst. Den Einfluss des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung wurde bereits gezeigt.

Wie Untersuchungen zeigen, hat sich die Hadley- Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus, des im Mittel 208-jährigen de Vries/Suess-Zyklus – dieser hatte in 2003 sein Maximum und damit die Sonne maximale Aktivität in den letzten 200 Jahren) um 5-8 Breitengrade ausgedehnt und sich dessen Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

Darüber hinaus fanden Xiao- Wei Quan et al. (“Change of the Tropical Hadley Cell Since 1950“) heraus, dass die Windgeschwindigkeiten in der Hadley- Zelle stark differieren. Werden deren Ergebnisse, mit den solaren Parametern in Verbindung gebracht, ergibt sich folgendes Bild.

 

Abbildung 19: Wie nicht anders zu erwarten, sind die El Niño- Ereignisse unmittelbar mit der Aktivität in der Hadley- Zelle gekoppelt. Die kleine Abbildung zeigt, wie die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen sind, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley- Zellen entspricht (kleine Abbildung, oben). Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley- Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, der solaren Aktivität unmittelbar zuzuordnen. Dazu wird der gezeigte Hadley- Zirkulationsindex verwendet. Dieser wird aus der gemittelten Windgeschwindigkeit der 200 hpa- Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle. Die Abbildung zeigt ganz deutlich, dass mit Eintreten eines El Niño-Ereignisses und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El-Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten. Der Grund hierfür ist ein fundamentales physikalisches Gesetz: Der Drehimpulserhaltungssatz.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Die Wettersysteme der Erde werden in je drei Hauptbänder (jeweils Nord- und Südhalbkugel) eingeteilt:

Hadley- Zelle, links und rechts vom Äquator. Dieser schließt sich die

Ferrel- Zelle an, in der wir leben und der

Polarzelle

Hadley- und Polarzelle sind mit einem ostwärts gerichteten Luftmassenstrom verbunden, wogegen in der Ferrelzelle die Westwinddrift vorherrscht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Verändert sich der Drehimpuls z.B. auf Grund einer Geschwindigkeitszunahme der Luftmassenströmungen in der Hadley- Zelle (siehe vorheriges Chart), so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley- Zelle erhöht, so sind (müssen über den Drehimpulserhaltungsssatz) durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrelzelle sind geringere Drehimpulse, was zu einem ruhigen, kalten Winter führt und somit die Untersuchungen von Prof. Brönnimann und des MPI-M erklären kann.

 

Zusammenfassung:

 

Die Ergebnisse zeigen, dass der Einfluss auf unser Wetter/Klima, bis in die heutigen Tage, in erster Linie durch unser Zentralgestirn, die Sonne bestimmt wird. Menschengemachte Einflüsse sind indes vorhanden und treten stark in Erscheinung. Dies sind jedoch nicht die Auswirkungen durch das Ausbringen sog. Treibhausgase wie CO2, sondern die Platzierung der Messstellen an ungeeigneten Orten, sprich, in vom Menschen stark veränderten Landschaften, wie Städten, Großflughäfen oder land- und forstwirtschaftlicher Nutzflächen, also Trockengebieten, die jeglichen Langzeitvergleich der Temperaturen unsinnig machen, sofern sie unberücksichtigt bleiben. Diese Faktoren werden in der wissenschaftlichen Literatur allgemein als Wärmeinseleffekt (WI) oder Urban Heat Island (UHI) bezeichnet. Der immer noch in den Medien hochgehaltene Stab einer THG-basierten Erwärmung ist nicht grundsätzlich auszuschließen. Sofern dieser Einfluss vorhanden ist (Ursache-Wirkung fehlt), ist er mit weniger als 3%-Anteil (weniger als 4 hundertstel °C) an der Gesamterwärmung von 1,3°C vernachlässigbar.

 

Ausblick

 

Entgegen den Vorhersagen der auf CO2 basierenden „Klimamodellen“ hat es weder in Erfurt, noch in Deutschland, noch global während der vergangenen 10 bis 15 Jahre einen weiteren Temperaturanstieg gegeben. Diese Stagnation dauert zwar noch nicht lange genug an, um daraus allein mit Sicherheit auf ein generelles Ende des „neuzeitlichen Klimaoptimums“ zu schließen, aber zusammen mit neuen Erkenntnissen über den dominanten Einfluss der Sonne auf das Klima (MALBERG, SVENSMARK, VAHRENHOLT/LÜNING und andere) bringt sie die Vertreter der Theorie einer durch vom Menschen verursachten „CO2- Klimaerwärmung“ zunehmend in Erklärungsnöte.

Schon warnen Experten (z.B.: NASA) vor einer neuen „Kleinen Eiszeit“, infolge der deutlich nachlassenden Sonnenaktivität. Es bleibt nur die Hoffnung, dass auch diese Abkühlungsszenarien zu pessimistisch und übertrieben sind, und die Erkenntnis, dass Klima, trotz neuester wissenschaftlicher Erkenntnisse, nicht über längere Zeiträume vorhergesagt werden kann. Was gesagt werden kann ist, dass Klimawandel ein stetiger Begleiter in der Evolutionsgeschichte ist und wir Menschen nur über die Urbanisierungs- und Flächenhaften Wärmeinseleffekte wesentliche, auf die besiedelten und genutzten Landflächen beschränkte Klimaeinflüsse erzeugen. Die Schreckensszenarien, die zuweilen zu hören sind, entbehren jeder wissenschaftlichen Grundlage.

 

Abbildung 20: Ein Paar, das nicht so recht zusammenpassen will: Während die CO2- Konzentration seit 1995 fast linear gestiegen ist (blaue Säulen in oberer Abbildung), verhält sich die „globale“ Temperatur (physikalisch gibt es keine „Globaltemperatur“, sondern, diese ist ein rein statistischer Wert) gänzlich anders (rote Säulen, aus MALBERG 2012). Inwieweit diese, wie Eisbohrkernuntersuchungen zeigen (Abbildung 21), nach einem Hauptsonnenzyklus (208-jährige de Vriess-Suess-Zyklus, hatte in 2002/2003 sein Aktivitätsmaximum) wieder deutlich fällt, wie NASA und viele andere Forscher es erwarten, muss abgewartet werden, da die inneren Abläufe der Sonne, die ihre Aktivität steuern, zu wenig bekannt sind.

 

Abbildung 21 zeigt die Kälteperioden der letzten 1.100 (ergänzt nach Quelle: United States Geological Survey, C14-Daten von Reimer et al. (2004)). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus. Nach jedem Hauptsonnenzyklus fallen die Temperaturen deutlich. Um die Jahrhundertwende im Jahr 2000 hatten gleich drei solare Sonnenzyklen ihr Maximum (deren Maxima fielen zusammen), welche jeweils zusätzlich stark ausgeprägt waren:

– Hauptsonnenzyklus (208-jährige de Vriess-Suess-Zyklus) in 2002/2003

– 36-jährige Brückner-Landscheidt-Zyklus in 2005 (Brückner hat ihn anhand von Klimauntersuchungen entdeckt und der Physiker Landscheidt den Nachweis erbracht, auf was er beruht)

– Magnetische Aktivität im 11-jährigen Schwabe-Zyklus in 2002

 

Verfasst und zusammengestellt (2012) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE

 

Literatur- und Quellenangaben

Wehry, W. (2009): Mehr Sonnenschein, weniger Nebel und höhere Temperatur- anthropogene Klima- Änderung? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 47/09 (Sonderbeilage 23/09) vom 09.07.2009

Malberg, H. (2010): Über scheinbare und tatsächliche Klimaerwärmung seit 1850. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 58/10 (Sonderbeilage 26/10) vom 28.09.2010

Malberg, H. (2012): Über sprunghafte Anstiege von CO2 und globaler Temperatur. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 09/12 (Sonderbeilage 05/12) vom 31.01.2012

Kämpfe, S. (2012): Zu trockener, warmer, sonniger Herbst 2011 in Thüringen – ungewöhnlich oder einfach nur schön? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte als Beilage 03/12 (Sonderbeilage 01/12) vom 04.01.2012 und in leicht geänderter Fassung bei www.eike-klima-energie.eu 27.12.2011

Kämpfe, S. (1998): Pflanzen als Klimazeiger- ein Beitrag zur Vegetationsgeografie in Thüringen-. Beilage Nr. 196/1998 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Koch, H. G. (1953): Wetterheimatkunde von Thüringen. Gustav Fischer Verlag Jena (nur analog vorliegend)

Berliner Wetterkarte e.V (2000 bis 2011): Beiträge zur Berliner Wetterkarte. Klimatologische Übersicht Europa, Monatsausgaben Januar 2000 bis Dezember 2011

Schönwiese, C.-D., Walter, A. (2009): Neue statistische Abschätzungen zur anthropogenen und natürlichen Steuerung des Globalklimas. Bericht in den Mitteilungen der DMG, 01/2009, S. 4-5

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012

Peter C. Werner, Friedrich-Wilhelm Gerstengarbe (2010): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-2009) NACH PAUL HESS UND HELMUT BREZOWSKY 7., VERBESSERTE UND ERGÄNZTE AUFLAGE. PIK Report No. 119

Deutscher Wetterdienst (2010, 2011): Großwetterlagen- Anzahl der Tage. www.dwd.de

Deutscher Wetterdienst (1991 bis 1999): Beilagen zur Wetterkarte des Deutschen Wetterdienstes. Klimatologische Werte für die Jahre und Monate 1991 bis 1999

Deutscher Wetterdienst (2000 bis 2006): WITTERUNGSREPORT und WITTERUNGSREPORT express. Monatshefte Januar 2000 bis Dezember 2006

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979

http://www.leif.org/research/cloud-cover.png

Meteorologischer Dienst der DDR, Hauptamt für Klimatologie in Potsdam (1979 bis 1990): Monatlicher Witterungsbericht für das Gebiet der Deutschen Demokratischen Republik. Beilage zum Täglichen Wetterbericht. Sonderhefte (Jahresberichte 1979 bis 1990)

Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008

Vahrenholt, F., Lüning, S.(2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012

Xiao-Wei Quan et al. “Change of the Tropical Hadley Cell Since 1950“

Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/

Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts”

Prof. Brönnimann , ETH Zürich, “Pazifik lies Europa erfrieren“

MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate

(http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702)

American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000

Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society

United States Geological Survey, C 14-Daten von Reimer et al. (2004)




Al Gore machts vor

Krieg der Liberalen gegen die Transparenz

von Chris Horner.
Zusammengestellt von Anthony Watts
Da kam also Al Gore, um Gutes zu tun, und am Ende tat ihm das wirklich gut, wie die Washington Post berichtete. So etwas ist in Washington nichts Besonderes, außer vielleicht hinsichtlich der Größenordnung: Gore war beim Ausscheiden aus seinem Amt [als Vizepräsident unter Bill Clintons Präsidentschaft] 2 Millionen Dollar schwer, jetzt sind es über 100 Millionen Dollar.
Klar, Gore hat „investiert“, direkt oder auch indirekt durch profitable Arrangements mit vielen Firmen, deren Finanzierung hauptsächlich mit Steuerzahlergeld erfolgte und ergänzt durch privates Geld, das ja gerne dorthin fließt, wo Politiker sich engagieren.– Ein „Halo-Effekt“, der darin besteht, dass einmal geöffnete Geldhähne nur schwer wieder geschlossen werden können, weil die Politiker fürchten, einen steuergeldfinanzierten Flop an der Backe zu haben.
Da werde ich an die Sache mit dem Personal erinnert, welches Präsident Obamas 90-Milliarden-Dollar-Programm für „Grüne Energie“ durchführt, eine Verschwendung von Steuergeldern, begründet mit der Verkaufsmasche: „Wenn wir den Bimbes nicht kriegen, können wir nicht überleben.“
Einer dieser wunderhübschen Zufälle zum Beispiel: Haben Sie gewusst, dass Obama Frau Cathy Zoi, Geschäftsführererin von Al Gores eigener Propagandatruppe für Grüne Energie, der Alliance for Climate Protection, zu seiner stellvertretenden Ministerin für Erneuerbare Energie gemacht hat? Mehr dazu schreibe ich in einem Kapitel meines neuen Buches: The Liberal War on Transparency: Confessions of a Freedom of Information “Criminal”  [Krieg der Liberalen gegen die Transparenz: Bekenntnisse eines Informationsfreiheits-„Kriminellen“].
(Grüne haben diese Maßnahme begrüßt als vergleichbar mit der Abwerbung von Van Jones)
Nachdem deutlich wurde, dass Cathy Zoi nicht für eine von Obama vorgesehene höhere Position durchsetzbar war, setzte sich Frau Zoi mit einem Gore-artigen Fonds ab, den macht sie zusammen mit einem gewissen Herrn Soros. Dank des „Informationsfreiheitsgesetzes“ (Freedom of Information Act) konnte ich einige E-Mails bekommen, die aus Frau Zois Amtszeit stammen. Ich habe noch Einiges über die Besprechungen zu ihren Anordnungen und Diensthandlungen erhalten. Mehr dazu im Buch.
Generell stellt sich die Sache so dar:
Als Beleg dafür, wie unterhaltsam und erhellend Transparenz in der Regierung sein kann, fiel mir eine E-Mail vom Leiter der externen politischen Beraterfirma von Solyndra in die Hände, einem engen Vertrauten von Frau Zoi. Es teilte ihr nur kurz mit, dass er „mit ihrem „Senior-Berater“ (einem  Politikwissenschaftler den Zwanzigern, noch nass hinter den Ohren) auf einen Drink an der Bar am Swimming Pool bei Caesars gestanden hätte“. Genau zu dieser Zeit drängte Präsident Obamas Polit-Team die Regierungsmitglieder, eine beispiellos verschwenderische Kreditbürgschaft für Solyndra zu geben, einer mit seinem Wahlkampf verbundenen Firma. Die Bürgschaft sollte bald den Bach hinunter gehen, was zu erwarten war.
Wie schön! Andere Emails zeigen, wie die Stellvertretende Ministerin Zoi mit noch einem anderen Mitarbeiter von Solyndras politischem Ableger scherzte, ganz so wie es enge Vertraute tun. Es ging zum Beispiel um ein Essen in ihrem Hause an einem Wochenende, das zu einem besonderen Ereignis würde mit vielen politischen Spaßvögeln dabei. Andere Emails zeigen, wie Zoi die gleiche Firma anheuerte, augenscheinlich auf ehrenamtlicher Basis (das scheint nach dem Anti-Deficiency Act 31 USC § 1342 illegal zu sein), um ihr bei der Zusammenstellung von Material zu helfen, das sie für die Erarbeitung der Kampagne des Energieministeriums brauchte, um von innen zielgerichtet Druck ausüben zu können.
Nein! Und Abscheu über diese ganze mit Solyndra und “Grünen Anreizen” verbundene Geldverschwendung und über die Kumpane, die sich mit Hilfe der Projektvorteile auf Steuerzahlers Kosten bereicherten!
Bei der gegenwärtigen Regierung, die sich lustigerweise als die transparenteste aller Regierungen sieht, können wir nun rascher Informationen anfordern, als es bei der Solyndra-Sache möglich war. Besser als damals, als der Skandal ans Licht kam, und ich bereits durch die Anforderungen von Informationen die tiefgreifende Korrumpierung von Obamas „Grüner Energie“-Operation offen legte. So hat zum Beispiel eine weitere meiner FOIA – Anfragen [Anfrage aufgrund des Informationsfreiheitsgesetzes], die in Zois Herrschaftsgebiet ins Energieministerium zielte, zu einem wahren Schatz von Emails geführt, die zeigen, was es mit dem „Großen Windenergie-Betrug“ auf sich hat, wie es Investor’s Business Daily nannte. Dabei wurden auch die Versuche enthüllt, den spanischen Wirtschaftsprofessor und dessen Team bei der Dokumentation der „Grünen Arbeitsplätze“ zu schmieren, welche die wahre Katastrophe der Pläne der Liberalen zur Umgestaltung von Amerikas Wirtschaft zu einer „Wirtschaft sauberer Energien“ zeigt.
Mit Hilfe von FOIA konnte ich die Entstehung der von Panik getriebenen Versuche verfolgen, die für politische Gegner gehaltenen Leute zu diskreditieren. Dies bestätigte den vorsätzlichen Bruch von Obamas Versprechungen auf Transparenz und auf Ausschaltung der Lobbyisten aus den einflußreichen Positionen in der Politik.
In den von der Regierung überlassenen Dokumente befinden sich auch enthüllende Details, wie der Kampf um eine „Industrie der Erneuerbaren“ mit Lobbyisten und linken Pressure Groups koordiniert wurde: Solyndra ist bekannt, aber vor allem wurden Gore und andere gut vernetzte Individuen reich. Darunter befindet sich auch Soros mit seinem Projekt „Zentrum für den amerikanischen Fortschritt“. Die industrielle „Wind Lobby“ diente als Argument bei der Behauptung des Energieministeriums gegenüber dem Kongress, dass es „keinen direkten Kontakt“ mit dem „Zentrum für den amerikanischen Fortschritt“ gepflegt hätte, oder zu anderen Pressure Groups. Die Windmühlen-Lobbyisten dienten als gutes Beispiel für nicht erwünschte Kontakte des Energieministeriums.
Investor’s Business Daily beschrieb diese Aufzeichnungen als genau so explosiv wie das schon bekannte 2009er  “Climategate”-Informations-Leck mit seinen Emails und dem Computer-Code. Die Aufzeichnungen zeigen, wie führende von Obama eingesetzte Politiker sich für Industrien einsetzten, die im Namen einer Anti-Energie-Ideologie verbunden mit einem Kumpel-Kapitalismus finanziell aufgerüstet wurden, und dabei die reichlich vorhandenen heimischen Energie-Ressourcen niedermachten, die aus ideologischen Gründen unerwünscht sind.
Wenn solche Wahrheiten durchsickern und wir weiter Zugriff zu öffentlichen Aufzeichnungen haben, ist es keine Überraschung, wie gut es Al Gore mit seinen „Investitionen“ ging. Ob es so bleibt, wenn der Steuerzahler meint, nun sei es genug, werden wir sehen.
Christopher C. Horner ist Anwalt in a Washington, D.C. und Autor des neuen Buches The Liberal War on Transparency: Confessions of a Freedom of Information “Criminal” (Threshold Editions, published October 2, 2012)
Original des Artikels hier.
Übersetzung: Chris Frey und Helmut Jäger, EIKE




ACATECH Positionspapier: „Die Auswirkungen des Klimawandels in Deutschland…sind für die kommenden Jahrzehnte grundsätzlich beherrschbar“

Doch dem Kanzleramt passte weder die Botschaft, noch der geplante Zeitpunkt der Veröffentlichung. Der simple Grund dafür war, dass Anfang Oktober die neuen, stark erhöhten Zuschläge für die Förderung der „Erneuerbaren“ verkündet würden, die ja primär mit der zwingend erforderlichen Notwendigkeit des „Klimaschutzes“ begründet werden. Und das Kanzleramt hatte den  nicht unbegründeten Verdacht, dass das Zahlvolk der Verbraucher immer noch in der Lage ist eins und eins zusammen zu zählen und sich noch mehr als bisher fragen wird, warum wir überteuerten, unbrauchbaren Strom in unbegrenzter Menge nach EEG kaufen müssen, wenn der Klimawandel an sich kein Problem darstellt.  
Und die Kommission fügte sich der Weisung des Kanzleramtes und vertagte gehorsam  die Vorstellung auf den 22. Oktober. Dass das Kanzleramt mit dieser Weisung gegen die im Grundgesetz garantierte Freiheit der Wissenschaft verstieß, wurde billigend in Kauf genommen.
Dabei hatte alles recht erfreulich angefangen. Ausgehend von einer Anregung des Altkanzlers Helmut Schmidt vor gut 1 ¾  Jahren , der in einem Festvortrag im  Januar 2011 zum 100. Geburtstag der Max-Planck-Gesellschaft hart mit dem IPCC ins Gericht gegangen war: „Immer schon habe es Eis- und Warmzeiten gegeben, auch natürliche Einflüsse spielten dabei eine Rolle, sagte der Altbundeskanzler der Festgesellschaft. "Die von einer internationalen Wissenschaftlergruppe (Intergovernmental Panel on Climate Change, IPCC) bisher gelieferten Unterlagen stoßen auf Skepsis", merkte der SPD-Politiker an, und:
…"es scheint mir an der Zeit, dass eine unserer wissenschaftlichen Spitzenorganisationen die Arbeit des IPCC kritisch und realistisch unter die Lupe nimmt und sodann die sich ergebenden Schlussfolgerungen der öffentlichen Meinung unseres Landes in verständlicher Weise erklärt."..
..nahm man in der ACATECH diese Anregung auf und gründete eine Kommission dazu. Die Leitung übernahm eine 7-köpfige Steuerungsgruppe, darin der ACATECH Präsident Reinhard Hüttl,  sowie aus der Wirtschaft u.a. Ekkehard Schulz Exvorstandschef von ThyssenKrupp und Fritz Vahrenholt,  damals noch Vorstandschef der RWE Tochter RWE Innogy, vor allem aber Mitautor des Buches „Die kalte Sonne“.  
In der ausführenden Projektgruppe wirkten anfangs 36 später 32 Wissenschaftler (s.u.) aus den verschiedensten Wissensgebieten mit, aber auch Politiker wie Klaus v. Dohnanyi (ehemals Mitglied der Ethik-Kommission zum beschleunigten Atom-Ausstieg) und eben verschiedene Leute aus der Wirtschaft wie z.B. Fritz Vahrenholt und Hartmuth Zeiß von Vattenfall Europe.
Obwohl zu Beginn das Ziel klar definiert war, nämlich die Arbeit des IPCC kritisch unter die Lupe zu nehmen, wurde es von interessierten Kräften innerhalb der Gruppe schnell zu einer Ergänzung der IPCC Vorlage umdefiniert, indem man statt Kritik an der IPCC Arbeit zu leisten, schnell auf Ergänzung derselben, nämlich auf „Anpassungsstrategien in der Klimapolitik[1]“  umschaltete.
Diese Anpassungsstrategien zu fördern, ist seit langem das Hauptanliegen des ACATECH Präsidenten Reinhard Hüttl, im Hauptberuf Vorstandschef des Geoforschungszentrums in Potsdam mit über 1000 Beschäftigten. Als Ergebnis dieser Umwidmung eines so klaren Auftrages,  kommt denn auch weder im Papier noch bei der Vorstellung desselben, das IPCC und seine Arbeit oder gar Kritik an beiden, mehr vor.  Stattdessen wurde, nach heftigem Ringen und deftigen Kürzungen an der ursprünglichen Vorlage, die ….fast seitenfüllenden IPCC-kritischen Anmerkungen auf einen eher neutralen Hinweis zusammengestrichen: nämlich
..dass die Verteilung von Einflussfaktoren auf das Klima wie Treibhausgase, Sonnenaktivität, Vulkanausbrüche und Landnutzung am beobachteten Klimatrend der vergangenen 150 Jahre "nicht bekannt" sei. Es ging nun nur noch um Klimafolgen, nicht mehr um Klimaforschung selbst… schreibt Ulli Kulke von „Die Welt“.
Aber selbst dieses bisschen war dem Kanzleramt und vier Hardlinern[2] innerhalb der Projektgruppe noch zu viel. Ihnen ging die geringe Kritik am Weltklimarat noch viel zu weit. Sie wollten diesen schon sehr weichgespülten Satz und damit das ganze Papier nicht mittragen. Dies schrieben sie dem Vorsitzenden Hüttl in einem Brief:
Zitat aus die Welt [3]vom 19.9.12
…denn, dass auch "Industrievertreter ohne wissenschaftliche Kompetenz in Klimafragen mitarbeiten", so ließen die vier Aussteiger in einem Schreiben Hüttl wissen, sei zwar einleuchtend….
Das eigentliche Problem war dann jedoch die Klimaforschungsergebnisse Vahrenholts. Denn dieser hatte es nicht nur gewagt, den Alleinvertretungsanspruch des IPCC in Frage zu stellen, sondern darüber hinaus auch noch die Rolle des Menschen an der Klimaerwärmung zu verkleinern, indem er maximal 50 % des errechneten Anstiegs des statistischen Konstrukts „Globale Mitteltemperatur“ dem CO2 zuschrieb, wovon wiederum nur ein Teil anthropogen erzeugt sei.
Das wurde so im Buch "Die kalte Sonne" veröffentlicht und dazu dem "Spiegel" ein Hintergrund-Interview gegeben.
Zitat (Die Welt)
:…..In beiden begründete Vahrenholt seine These, dass der Einfluss der Sonne unter- und derjenige der Treibhausgase in der Klimaentwicklung überschätzt werde. Vor allem wegen dieser Äußerungen und weil Vahrenholt gegen den Willen der teilnehmenden Experten bestimmte Textpassagen aufnehmen lassen wolle" :…. ist aus unserer Sicht eine Zusammenarbeit mit Herrn Dr. Vahrenholt als Sitzungsleiter nicht mehr möglich"…, begründeten die vier Aussteiger ihren Schritt"
Pikant daran ist, dass keiner der vier Anstoß daran nahm, das unterschiedliche  Meinungen in der Wissenschaft sozusagen Grundnahrungsmittel sind und erst im Diskurs eine wissenschaftliche Theorie entsteht. Pikant auch, dass der Meteorologe Paul Becker vom DWD wohl als harter Verfechter der IPCC Linie bekannt ist, hingegen der Klimaforscher und Küstenschutzexperte Hans von Storch, eigentlich selbst als Kritiker überdramatischer Szenarien des IPCC (allerdings auch Mitarbeiter am nächsten IPCC-Bericht) bekannt wurde. Und auch, dass der Ökologe Wolfgang Kramer und der Windkraftforscher Jürgen Schmid nun nicht gerade zur Créme de la Créme der IPCC hörigen Klimaforschung zählen. Sie sind eher als Klima-Folgenforscher bzw. als Lobbyisten einzustufen. Das alles focht die Kritiker nicht weiter an. Denn hier ging es um Höheres.
Nach diesem Eklat wurde das Papier noch etwas weicher gespült und zum  22.10. ins NH Hotel in der Friedrichstraße in Berlin geladen, um es einer interessierten Öffentlichkeit vorzustellen. Die zeigte sich indes wenig interessiert. Nur etwas 60 bis 70 Leute, zu großen Teilen aus der ACATECH selbst oder Ministerien und Verbänden und nur sehr wenige Journalisten, folgten der Einladung.
Staatssekretärin Katharina Reiche hielt dann eine sehr kurze „Keynote“ und verschwand danach sofort, wegen dringender Termine.  ACATECH Präsident Hüttl erläuterte in seiner Einführung nochmals die unbedingte Dringlichkeit der Anpassungsforschung. Dabei war er vielleicht vom verständlichen Hintergedanken getrieben seinem 1000 köpfigen Institut eine neue Geschäftsgrundlage zu eröffnen, wenn sich das Problem der drohenden Klimakatastrophe selbst erledigt hat. Denn danach sieht es aus.
Aber zumindest aus den wenigen Worten von Frau Reiche konnten die Zuhörer entnehmen, dass ihr Ministerium diese Forschung auch in Zukunft mit vielen, vielen Millionen zu unterstützen gedenkt, weil man ja auch bei der Klimakonferenz in Cancun, ungeachtet des Scheiterns aller sonstigen Bemühungen, eine Art „Anpassungsscharta“ beschlossen habe. Dieser offensichtliche Zusammenhang fiel auch einem der Podiumsteilnehmer auf, wie er in privaten Gespräch später darlegte.
Die folgende Präsentation der Ziele und Ergebnisse durch Prof. Mosbrugger brachte eine Fülle von Vorschlägen, denen jeder, der klar im Kopf und guten Willens ist, zustimmen konnte. Aber nur, sofern er die zugrunde liegenden Annahmen von der Zunahme von Extremwetterereignisssen  durch Erwärmung, als realistisch einschätzt. Eine Einschätzung, die aber vom Podium selbst, nicht so recht geteilt wurde, denn mehrfach wurde betont, wie unsicher doch die Szenarien dazu seien,  insbesondere dann, wenn sie auf die Regionen heruntergebrochen würden.
Leider fehlte in der Aufzählung der Maßnahmen ein Plan B, der aufzeigt, was denn als Anpassungsstrategie sinnvoll wäre, wenn der „Kimawandel“ nicht zu einer Erwärmung führen würde,, sondern zu einer Abkühlung, wie es viele Wissenschaftler aufgrund des Nachlassens der Sonnenaktivität  durchaus für möglich halten. Diese wäre nach aller Erfahrung viel bedrohlicher für die Menschen, wurde aber im ganzen Bericht nicht erwähnt. Das „Kimawandel“-Drehbuch sieht eine solche Richtung einfach nicht vor.
Insgesamt jedoch konnte sich auch ein wohlmeinender Beobachter durchaus die Frage stellen, warum solche Selbstverständlichkeiten der Daseinsvorsorge, nun unbedingt Gegenstand von zusätzlicher „dringender“ Forschung sein müssten.  Diese Frage wurde vom Autor zwar gestellt, aber von der Runde nicht beantwortet.
So war der Boden für die folgende Podiumsdiskussion gut vorbereitet.
Geleitet vom eloquenten Henning Krumrey (stv. Chefredakteur der WiWo ) durften zwar die Prof. Hüttl und Prof. Mosbrugger sowie die Dr. v. Dohnanyi, Dr. Burger vom Robert Koch Institut, Dr. von Deesen Klimaschutzbeauftragter der BASF, sowie Jörg Simon von den Berliner Wasserbetrieben auf dem Podium platz nehmen, und wichtiges und weniger wichtiges beitragen, nicht aber der Auslöser der ganzen Diskussion, der als Einziger den Grundauftrag von Helmut Schmid ernst genommenen hatte. Der ebenfalls anwesende Prof. Fritz Vahrenholt. Mehr noch, auch sein Name wurde trotz längerer Ausführungen von Herrn Hüttl zu den vorangegangenen Streitigkeiten, nicht ein einziges Mal erwähnt. Er saß zwar auf seinem reservierten Platz, wurde jedoch offiziell weder begrüßt noch genannt, auch nicht bei der namentlichen Vorstellung der Protagonisten. Eine chinesische Parteitagssitzung hätte nicht viel besser orchestriert sein können.
Vom Moderator doch noch gleich zu Anfang zur Vorgeschichte des Papiers befragt, wurde insbesondere Herr Hüttl nicht müde zu betonen, wie wichtig die auf „unstrittigen“ Erkenntnissen der Klimaforschung beruhende Vermeidungsstrategie (Mitigation)  von CO2 sei, insbesondere, um das 2° Ziel doch noch zu erreichen, diese aber müsse unbedingt und sehr dringend durch eine zweite Säule, nämlich die Anpassungsstrategie, basierend natürlich auf Anpassungsforschung, ergänzt werden.  Der eigentlich Auftrag der Kommission, die Arbeit des IPCC kritisch unter die Lupe zu nehmen und damit die Gründe für den Dissens zu nennen, wurde von Hüttl hingegen mit keinem Wort erwähnt.  Der Moderator ließ es ihm leider ohne Nachfrage durchgehen.
In der folgenden Diskussion gab es dann selbstverständlich auch den Begriff globale Erwärmung nicht mehr, die es zu bekämpfen gelte, obwohl das 2 ° Ziel mehrfach erwähnt wurde, sondern nur noch den allgemeinen Begriff vom „Klimawandel“.  Und der würde sich evtl. regional als Extremwetter manifestieren. Aber auch da sei man sich nicht sicher.  
Den entscheidenden Satz des Nachmittags sagte dann – wohl eher ungewollt- Klaus v. Dohannyi. Denn der zitierte zustimmend den norwegischen Club of Rome Protagonisten Jorgen Randers, der meinte, dass „das Spiel“ gelaufen sei. Und drückte damit ungewollt die Binsenweisheit aus,  dass jeglicher Versuch der  Beeinflussung des  Weltklimas durch den Menschen vergebliche Mühe ist.  Meinte aber wohl eher, dass jede Vermeidungstrategie (Mitigation) zum Scheitern verdammt sei, weil allein auf Grund der Mengen an CO2, die allein China in 3 Monaten zusätzlich emittiere, diese den Betrag der Einsparung, den Deutschland sich bis 2030 vorgenommen hätte, weit überträfe. Deswegen sei lokale Anpassung das Gebot der Stunde, weil alles Übel – vom Club of Rome geschickt und von den Medien unbemerkt vom Schicksalsjahr 2000 auf das Jahr 2050 verschoben- auch das der Erd-Erwärmung, nicht mehr aufzuhalten wäre.
Die folgende Diskussion dreht sich dann, locker und zum Teil amüsant von Krumrey geleitet, um allerlei Fragen der Bewältigung lokaler Probleme durch evtl. zunehmende Extremwetter dank des Klimawandels. Dabei kamen auch manch Merkwürdiges und unfreiwillig Komisches zur Sprache. So verwies der Präsident des Robert Koch Institutes Robert Burger in einem Nebensatz auf die erhöhte Gefahr der Rückkehr der Malaria in unsere Breiten. Dabei hatte er wohl vergessen, dass "In Deutschland die Malaria in einzelnen Gebieten seit den napoleonischen Kriegen bis zum hin zum zweiten Weltkrieg immer wieder auftrat. In einigen Gebieten des norddeutschen Tieflandes konnte sich die Malaria bis in die 50er Jahre halten. [Die Welt, 26.01.1999] Im österreichischen Wien wurden noch 1945 Tabletten gegen Malaria an Schulkinder verteilt. [Wien Online] In der Schweiz wurde vor allem die seit etwa 1720 versumpfte Ebene zwischen Glarner Unterland, Walen- und Zürichsee bis zu ihrer Trockenlegung unter H. C. ESCHER VON DER LINTH durch die Linthkorrektur um 1807.[4] Alles weit vor einem "Klimawandel"; ob anthropogen induziert oder nicht.
Und die Berliner Wasserwerke schärfen das Klimabewußtsein ihrer Mitarbeiter durch eine „Saalwette“, nämlich, dass man es nicht schaffen würde 1 % des Strombedarfes einzusparen, worauf sich viele besonders ins Zeug legten diese Wette zu gewinnen. Oder, wer denn den längsten Weg zur Arbeit mit dem Fahrrad zurücklegen würde. Eben alles für´s Klima!
Zum Schluss erlaubte der Moderator nur 3 Publikumsfragen. Eine davon stellte der Autor dieser Zeilen.  Er fragte, ob und wie denn bei der Abfassung des Positionspapiers dem Umstand Rechnung getragen worden sei, dass es seit nunmehr 16 Jahren keine Erwärmung mehr gegeben hätte, und damit das Ausbleiben der Erwärmung ebenso lange anhielt, wie zuvor die Erwärmungsphase. Zudem sei diese auch nur bei den terrestrischen Stationen zu beobachten, die heute zu 80 % in Flughäfen und Städten zu finden seien, würden aber weder von den Satelliten noch den Wetterballons gezeigt. Die Antwort von Prof. Hüttl war ausweichend. Er sagte, dies zeige, wie wenig man in der Klimawissenschaft noch vom wirklichen Klima-Geschehen wüsste, im Übrigen man aber auch nicht unbedingt Thermometer brauche, um zu erkennen, dass es wärmer geworden sei, dies zeige auch schon die Veränderung der Vegetation. Nun, ja!
Fazit: Es wurde ein Papier vorgelegt, dass nicht der gestellten Aufgabe entsprach, dafür Lösungsansätze für ungewisse, bisher nicht beobachtete, wohl aber denkbare Extremwetter-Bedrohungen enthält, die jedoch seit langem zum Standardrepertoire vernünftiger Daseinsvorsorge gehören.
Schade! Denn das eigentliche Thema und damit die Chance zur kritischen Aufarbeitung der IPCC Berichte durch eine wissenschaftlich hochstehende neutrale Kommission, wurden klar verfehlt.
Michael Limburg EIKE


[1]http://www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/root/de/Publikationen/Stellungnahmen/acatech_POSITION_Klimawandel_WEB.pdf
[2] Es sind Dr. Paul Becker (Deutscher Wetterdienst, Offenbach), Prof. Dr. Wolfgang Cramer (Institut Méditerranéen d’Écologie et de Paléoécologie, Aix-en-Provence), Prof. Dr. Jürgen Schmid (Fraunhofer IWES, Kassel) und Prof. Dr. Hans von Storch (Helmholtz Zentrum Geesthacht)
[3] http://www.welt.de/print/die_welt/wissen/article109288866/Zank-ums-Klima.html
[4] http://www.gigers.com/matthias/malaria/history.htm#Europa




Luftverschmutzung der Umweltaktivisten

Umweltaktivisten haben die Theorie verbreitet, dass die menschliche Zivilisation der Hauptgrund der globalen Erwärmung sei. Sie drängen Regierungen weltweit dazu, sofort drastische Maßnahmen zu ergreifen, um eine Katastrophe zu verhindern. Die Beweiskette ihrer derartigen Behauptung ist an mindestens sechs Stellen zerbrochen:

Bild 1: Alle Verbindungen in der Kette -von der Theorie zum Beweis- sind gebrochen
Fossile Treibstoffe können zu einer gewissen Luftverschmutzung führen, aber die gefährlichste Luftverschmutzung stammt von den Trugschlüssen, die von den Umweltaktivisten ausgestoßen werden. Wenn die wählende Öffentlichkeit durch diese Art der „Umwelt-Luftverschmutzung“ in die Irre geführt wird, wird unsere freie Wirtschaft zerstört werden und mit ihr das bislang erfolgreichste Experiment, dass sich freie Gesellschaften selbst regieren. Nur ein hoch intellektueller Trottel (ein HITwit), also eine Person, die in einem bestimmten akademischen Feld ganz gut, sonst aber ein Dummkopf ist [man kann dazu auch „gelehrter Vollidiot“ sagen, A. d. Übers.], kann mit so etwas kommen und all diese Trugschlüsse für bare Münze nehmen!
Umwelt-Trugschluss Nr. 1: Wissenschaftler haben die Erwärmung seit 1880 genau gemessen.
Umwelt-Trugschluss Nr. 2: Menschliche Aktivitäten, vor allem das Verbrennen fossiler Treibstoffe, sind der Hauptgrund.
Umwelt-Trugschluss Nr. 3: Die Wissenschaftler können zukünftige Szenarien der Erwärmung genau vorhersagen.
Umwelt-Trugschluss Nr. 4: Die vom Menschen verursachte Erwärmung wird zu einer Umweltkatastrophe führen.
Umwelt-Trugschluss Nr. 5: „Grüne“ Energie und Energieeinsparung können die meisten fossilen Treibstoffe ersetzen.
Umwelt-Trugschluss Nr. 6: Daher muss die Regierung „grüne“ Energie fördern und subventionieren, um unseren Planeten zu retten.
Jede der oben genannten Statements hat einen wahren Kern in sich, die ihr einen Anschein von Wissenschaftlichkeit verleiht, aber keine einzige kann einer genaueren Untersuchung standhalten.

Lüge Nr. 1: Die Wissenschaftler verfügen über eine genaue Messung der Erwärmung seit 1880, und sie beträgt mindestens 0,8°C.

Dieses Statement ist falsch, weil genau die gleichen, von der US-Regierung bezahlten Wissenschaftler, die mit der Analyse der Thermometerablesungen betraut waren, darin übereinstimmen, dass ihre Analysen der Vergangenheit fehlerhaft sind oder die Rohdaten geringe Qualität aufweisen oder beides. Wie sie selbst zugegeben haben, mussten sie die Daten viele Male analysieren und reanalysieren. Sie haben ihre früheren Fehler korrigiert durch plus oder minus einem Viertelgrad, was den angenommenen Erwärmungstrend bis zu einem halben Grad verstärkte.
Die E-Mails von NASA-GISS, veröffentlicht im Rahmen des Freedom of Information Act, enthalten eine von dem Klimawissenschaftler Makiko Sato (1), die enthüllt, wie offizielle Daten der mittleren Temperatur in den USA, ausgegeben im Jahr 1999, für das Jahr 1934 eine um 0,5°C höhere Temperatur zeigen als 1998. Dieses Ergebnis, das auf einen starken Abkühlungstrend in den USA hinweist, war, sagen wir mal, unbequem für die Perspektive einer sich erwärmenden Welt. Sato hat detailliert sieben Anpassungen beschrieben, die im Jahr 1934 zu niedrigeren und 1998 zu höheren Temperaturwerten führte, bis sie drei Analysen aus dem Jahr 2007 zufolge fast gleich waren, einer Gesamtänderung von mehr als einem halben Grad. (Eine Re-Analyse gab es auch noch nach der E-Mail von Sato 2007. Dem jüngsten verfügbaren Berichten zufolge (2) war das Jahr 1998 um 0,078°C wärmer als 1934. Unsere Steuergelder bei der Arbeit! Die Daten von 1934 sind alt genug, um soziale Sicherheiten zu sammeln [?], und doch sorgen sie dafür, dass sie immer noch für sie arbeiten).
Das ist kein willkürlich herausgepicktes Beispiel. Mit Beginn im Jahr 2001 wurden nahezu alle offiziell veröffentlichten Temperaturdaten vor den siebziger Jahren systematisch nach unten korrigiert, um so die offensichtliche Erwärmung zu übertreiben. Die Temperaturen nach den siebziger Jahren wurden systematisch nach oben korrigiert, was zu einer noch stärkeren Übertreibung der behaupteten Erwärmung führte (3).
Befürworter verweisen darauf, dass es sich hier nur um die Temperaturdaten aus den USA handelt und dass die USA gerade mal etwa 2% der Erdoberfläche bedecken. Wenn allerdings die von US-Wissenschaftlern analysierten US-Daten ein halbes Grad „Anpassung“ enthalten, wie viel schlimmer sieht es dann bei den weltweiten Daten aus? Wenn der Spielraum in der Datenanalyse (0,5°C) fast genauso groß ist wie das, was sie gemessen zu haben behaupten (0,8°C), haben die offiziellen angepassten Klimadaten aus den USA, UK und anderen Gebieten keine wissenschaftliche Grundlage. Bestenfalls sind sie anekdotisch.
Die Wahrheit: Die Erde hat sich seit 1880 ein wenig erwärmt, aber nicht um mehr als 0,4°C.

Lüge Nr. 2: Menschliche Aktivitäten, vor allem das Verbrennen fossiler Treibstoffe, sind der Hauptgrund.

Diese Feststellung ist falsch, weil die globale Temperatur trotz des ungebrochen steigenden CO2-Gehaltes (4) sich Messungen von Satellitensensoren zufolge (5) während der vergangenen zwölf Jahre stabilisiert hat oder etwas zurückgegangen ist. Falls CO2 wirklich der Hauptgrund des Temperaturanstiegs wäre, hätte die Temperatur während dieser Zeit steigen müssen, zumindest etwas. Das war aber nicht der Fall, womit die Stärke des Kausalzusammenhangs widerlegt ist. Es muss andere Gründe geben, die sich stärker auswirken als das Verbrennen fossiler Treibstoffe.
Die Wahrheit: Während das anthropogene CO2 und andere „Treibhaus“-Gase zweifellos Auswirkungen auf die Temperatur haben, sind sie nicht der Hauptgrund der jüngsten Erwärmung. Menschliche Aktivitäten werden nicht, wirklich nicht, zu irgendeiner Art von „Tipping Point“ oder einer „Runaway“-Erwärmung führen. Es wird immer klarer, dass natürliche Zyklen der Hauptgrund sind, wie z. B. die Sonnenaktivität, die die kosmische Strahlung beeinflusst (6) und multidekadische ozeanische Oszillationen. Nichts davon ist unter Kontrolle der Menschen oder kann von ihnen beeinflusst werden.
Eine Möglichkeit, „mit Statistiken zu lügen”, besteht darin, die Daten in eine Graphik zu plotten, in der eine Achse einen beliebigen Wert hat, der die Variationen übertreibt. Die Abbildung unten zeigt die Temperatur in Kelvin (über dem absoluten Nullpunkt) im Vergleich zum CO2-Gehalt mit der Referenz Null. Hier zeigt sich, dass die Temperaturen in etwa stabil geblieben sind, während der CO2-Gehalt sichtlich gestiegen ist.
 
Bild 2: Aufgetragen auf eine absolute Skala, in der die Y-Achse bei Null anfängt, steigt der CO2-Gehalt rapide, während der Temperaturverlauf nahezu flach verläuft.

Lüge Nr. 3: Wissenschaftler können zukünftige Szenarien der Erwärmung genau vorhersagen.

Diese Feststellung ist falsch, weil offizielle Szenarien der Erwärmung auf einem Missverständnis der Natur und der Magnitude der Klimasensitivität basieren [Equilibrium Climate Sensitivity ECS]. ECS besagt, um wie viel die Temperatur bei einer Verdoppelung des CO2-Gehaltes steigt.
Das IPCC nimmt an, dass die ECS eine mono-modale Verteilung aufweist, deren wahrscheinlichster Wert zwischen 2°C und 4,5°C liegt mit einem asymmetrischen „dicken Schwanz“, der 10°C oder mehr ausmacht und mit einer Einzelspitze bei 3°C. Diese Schlussfolgerung basiert jedoch auf der Kombination der Ergebnisse von zehn verschiedenen Studien von 2001 bis 2006, die sich im Einzelnen stark voneinander unterscheiden (7). Sie zeigen ganz unterschiedliche Spitzenwerte von 1,1°C bis 3,8°C. Einige der Ergebnisse dieser Studien überlappen sich kaum. Tatsächlich ist das Einzige, was sie gemeinsam haben, der „fette Schwanz“, der über 6°C hinausgeht. Dieser Wert stellt sich als unmöglich heraus, wenn man auf die begrenzte Vereisung des letzten glazialen Maximums schaut [Last Glacial Maximum (LGM)]
Unabhängig davon hat Andreas Schmittner im Jahr 2011 gezeigt, dass die ECS multi-modal ist, mit mindestens zwei Spitzen der an Land ermittelten Daten und fünf Spitzen über Wasser (8). Eine multi-modale Verteilung zeigt ganz allgemein, dass unterschiedliche Populationen verschmolzen worden sind. Daher fehlt den Vorhersagen jede wissenschaftliche Gültigkeit, wenn ihnen eine mono-modale Variable zugrunde liegt.
Außerdem hat Schmittner gezeigt, dass „fette Schwänze” über 6°C hinaus während der LGM fälschlich von einer komplett gefrorenen „Schneeball-Erde“ ausgehen. Dabei ist bekannt, dass sich die LGM nicht über den 40. Breitengrad Nord und Süd hinaus ausgedehnt hat. Folglich sind auf ECS basierende Modelle nicht wissenschaftlich gültig (9).
Die Wahrheit: Wenn alles andere gleich bleibt, wird die mittlere Temperatur bei einer Verdoppelung des CO2-Gehaltes um weniger als 1°C zunehmen, wahrscheinlich sogar um weniger als 0,5°C. Klimamodelle überschätzen die Erwärmung, weil sie fälschlich annehmen, dass Wolken eine insgesamt positive Rückkopplung haben. Die Modelle ignorieren auch die Auswirkungen natürlicher Sonnenzyklen via kosmischer Strahlung auf die Wolkenbildung.
Tatsächlich können uns nicht menschlicher Kontrolle unterworfene natürliche Kräfte mit gleicher Wahrscheinlichkeit in eine Periode mit Erwärmung bzw. Abkühlung führen. Künftige Generationen könnten uns noch dankbar sein für das bisschen zusätzliche Erwärmung infolge unserer verbrannten fossilen Treibstoffe.

Lüge Nr. 4: Vom Menschen verursachte Erwärmung wird zu einer Umweltkatastrophe führen.

Diese Feststellung ist falsch, weil die Menschen einfach nicht die Möglichkeit haben, mehr als eine relativ moderate Erwärmung zu bewirken, und die Zunahme des CO2-Niveaus kann die menschliche Zivilisation nicht gefährden.
Die Wahrheit: Die befürchtete Katastrophe der globalen Erwärmung wurde erheblich übertrieben. Wie Klimagate und andere Skandale enthüllt haben, wurden die Temperaturdaten und Statistiken verfälscht, und die Klimamodelle sind daran gescheitert, kurzfristig die nahe Zukunft vorherzusagen, geschweige denn die fernere Zukunft.
Vorhersagen einer bevor stehenden Katastrophe infolge menschlicher Aktivitäten sind im besten Falle überhitzte Spekulationen. Die jüngste moderate Erwärmung und die CO2-Zunahme sind wahrscheinlich insgesamt vorteilhaft für die menschliche Zivilisation.

Lüge Nr. 5: „Grüne” Energie und Energieeinsparung kann das meiste der fossilen Treibstoffe ersetzen.

Diese Feststellung wird erst noch irgendwann in ferner Zukunft richtig, weil fossile Treibstoffe nicht erneuerbar sind und daher nicht ewig vorhanden sein können. Allerdings ist die Feststellung in absehbarer Zukunft (ein oder zwei Jahrhunderte) ganz klar falsch.
Technologische Fortschritte haben Öl offshore sowie Ölsande und Schieferöl viel attraktiver gemacht, als irgendjemand noch vor einem Jahrzehnt vorhergesagt hat. Das Fracking hat den Preis für Erdgas drastisch nach unten gedrückt. Die Vergasung oder Verflüssigung von Kohle sowie andere neue Technologien werden unsere Kohle, unser am meisten verfügbare fossile Treibstoff, sowohl sauberer als auch billiger machen.
Die so genannte „grüne” Energie hat sich als erheblich teurer erwiesen als fossile Energie und kann sich außer in einigen besonderen Fällen nicht ohne massive Subventionen der Regierung am Markt durchsetzen.
Die Wahrheit: Fossile Treibstoffe werden noch für viele kommende Jahrzehnte unsere hauptsächliche Energiequelle sein, selbst wenn die „grüne“ Energie langsam an Bedeutung gewinnt. Da fossile Quellen seltener und daher im Vergleich zu „grünen“ Quellen immer teurer werden, wird die Energieindustrie freiwillig zu nicht fossiler Energie wechseln, und die Verbraucher werden die Effizienz in ihrem eigenen Interesse in den Vordergrund stellen. Bis zu einem bestimmten Grad ist das heute schon der Fall. Das sollte man ermutigen durch die Erlaubnis, die Kräfte eines freien Marktes zur Geltung kommen zu lassen.

Lüge Nr. 6: Daher muss die Regierung „grüne“ Energie fördern und subventionieren, um unseren Planeten zu retten.

Diese Feststellung ist falsch, weil die zugrunde liegenden Hypothesen falsch sind. Unser Planet ist nicht in Gefahr. „Grüne“ Energie kann in absehbarer Zukunft nicht die meisten fossilen Quellen ersetzen. Und eine „Kur“, basierend auf Förderung und Subventionen der Regierung, wäre wahrscheinlich viel schlimmer als die „Krankheit“ selbst.
Es gibt nichts inhärent Verkehrtes bei Wind-, Solar- oder Äthanolenergie oder irgendeine der anderen verrückten Schemata, die die Klimaänderungs-Lenker in uns eingepflanzt haben, um die Unterstützung mit Steuergeldern zu rechtfertigen. Nein, das Problem besteht in der Art und Weise, wie der Prozess der öffentlichen Unterstützung abläuft, der die Marktkräfte unvermeidlich verzerrt. Es ist ein Prozess, der unvermeidlich genau jene Lösungen wählt, die speziellen Interessen dienen, während er die wirklichen Probleme immer schlimmer macht.
Die Wahrheit: Zweifellos sind fossile Treibstoffe begrenzt. Öl, Erdgas und selbst Kohle könnten in ein oder zwei Jahrhunderten erschöpft sein. Weniger teure Quellen werden zuerst versiegen. Tiefsee-Öl, Arktis-Öl, Schieferöl und zusätzliche Technologien hinsichtlich fossiler Energie, die noch entwickelt werden müssen, werden eventuell den Preis fossiler Energie irgendwann auf einen Wert steigen lassen, an dem die Marktkräfte die Industrie dazu bringen werden, ihr eigenes Geld in die Entwicklung von Alternativen zu stecken.
Wenn sich die Regierung mit Hilfe unserer Steuergelder Gewinner herauspickt, kann man sicher sein, dass spezielle Interessen bedient werden, wie politisch gesteuerte Unternehmen und Vereinigungen. Äthanol aus Mais hat sich für agrokulturelle Interessen gigantisch ausgezahlt. Der Preis für Getreide ist dadurch weltweit gestiegen, was für die Ärmsten unter uns eine Katastrophe war. Solarprojekte wie Solyndra haben Milliarden verschwendet, ohne auch nur einen einzigen permanenten Arbeitsplatz zu schaffen oder irgendeine Form nutzbarer Energie zu erzeugen.
Von der Regierung zur Verfügung gestellte Gelder sind für verrückte Dinge verschwendet worden, die inzwischen ihre eigenen umweltlichen Rückkopplungen gezeigt haben. Windkraft tötet Vögel und setzt Tiere (einschließlich der Menschen) Belastungen aus: nämlich Lärm. Sowohl Wind- als auch Solarenergie brauchen ein Backup aus fossil betriebenen Kraftwerken, wenn der Wind nicht weht und die Sonne nicht scheint.
Privatunternehmen investieren ihr hart verdientes Geld nur, wenn es gute Renditechancen für die Investoren gibt. Folglich gibt es dann allgemein Gewinner. Wenn ein privates Venture den Bach hinunter geht, geht privates Geld verloren, und die Verantwortlichen können ihren Job verlieren und ihr Arbeitgeber aus dem Geschäft gedrängt werden. Dieser notwendige Prozess wurde „kreative Zerstörung“ genannt [creative destruction].
Wenn die Regierung unser Geld an einen Verlierer verschwendet, wird niemand gefeuert. Die politisch verbundenen Empfänger sagen so etwas wie „Ach du liebe Zeit!“ (wenn auch in anderen, nicht druckreifen Ausdrücken) und behalten ihre Profite, außer den kleinen Anteil, den sie in weitere politische Maßnahmen re-investieren. Die verantwortliche öffentliche Einrichtung fährt fort, Steuergelder in den Wind zu blasen. (Wie nennt man es, wenn ein Regierungsprogramm einen echten Gewinner hervorbringt? Einen Unfall!)
Fossile Treibstoffe verursachen eine gewisse Luftverschmutzung, aber die gefährlichste Luftverschmutzung stammt von den von Umweltaktivisten ausgestoßenen Trugschlüssen. Wenn die wählende Öffentlichkeit durch diese Art der „Umwelt-Luftverschmutzung“ in die Irre geführt wird, wird unsere freie Wirtschaft zerstört werden und mit ihr das bislang erfolgreichste Experiment, dass sich freie Gesellschaften selbst regieren. Nur ein hoch intellektueller Trottel (ein HITwit), also eine Person, die in einem bestimmten akademischen Feld ganz gut, sonst aber ein Dummkopf ist, kann mit so etwas kommen und all diese Trugschlüsse für bare Münze nehmen!
Ira Glickstein, PhD
Link: http://wattsupwiththat.com/2012/10/11/environmentalist-air-pollution/
Übersetzt von Chris Frey EIKE
Hinweis: Im Original folgt eine längere Liste mit Literaturhinweisen