Svensmark kosmische Theorie und Darstellungen der Wolkenbedeckung in Kunstwerken der Kleinen Eiszeit

Durch rigorose [aber vergebliche] Versuche, den kosmischen Effekt in bester wissenschaftlicher Manier zu widerlegen, ist dieser Effekt jetzt etabliert.

Herausforderung des IPCC

Abbildung 3: IPCC-Abbildung 7c

Eine wesentliche Objektive des 3. Zustandsberichtes des IPCC (TAR) war es, den Beweisen in Abbildung 7c aus dem 1. Zustandsbericht 1990 zu begegnen. Sie war ärgerlich, zeigte sie doch signifikante Temperaturvariationen während der letzten 1000 Jahre. Dies widersprach der IPCC-Behauptung, dass die Erwärmung im 20. Jahrhundert einmalig und anomal war. Der Schwerpunkt lag auf der Darstellung der Mittelalterlichen Warmzeit MWP von etwa 950 bis 1350. Aber auch die Kaltzeit von 1350 bis 1850, bekannt als die Kleine Eiszeit LIA, war Gegenstand von Gedanken. Lamb hat in einer persönlichen Bemerkung darauf hingewiesen, dass das Einsetzen und die Dauer dieser Perioden regional variiert hat, manchmal um Jahrzehnte.

Künstler-Gemälde der LIA

Wir alle sehen die Welt auf unterschiedliche Weise mit unterschiedlichen Gefühlen und unterschiedlichem Bewusstsein. Klassischerweise ist das meiste davon Natur, besonders mit bestimmten Fähigkeiten wie Mathematik, Musik oder Kunst. Künstler sehen Farben, Licht und Abbildungen der Welt unterschiedlich. Es gibt eine Grundlage für Landschaftsmaler, weil sie malen, was sie vor sich sehen, wenn auch mit artistischer Brillanz je nach Gelegenheit. Ihre Werke liefern Beweise für Bedingungen wie den Schnee und die Kälte der Kleinen Eiszeit von Breughel (Abbildung 4) oder Grifier (Abbildung 5). Eine Ausstellung dieser Werke gab es von Hendrick Avercamp mit dem Titel „the Little Ice Age“ in der National Gallery in Washington von März bis Juli 2010.

Abbildung 4: Pieter Breughel the Elder, Hunters in the Snow*

Diese Künstler betrachteten diese Bedingungen als relativ normal, vor allem, wenn ihre Lebensspanne innerhalb der LIA lag. Als Landschaftsmaler würden sie jedoch sich ändernde atmosphärische Bedingungen vor allen anderen bemerken, was ihre Werke beeinflussen würde.

Abbildung 5: Jan Grifier, The Great Frost 1683 (River Thames)*

[*Diese Untertitel habe ich absichtlich nicht übersetzt! A. d. Übers.]

Sich veränderndes Himmelsbild ist Beweis für ein sich änderndes Klima

Abbildung 6: John Constable, englischer Künstler

Der US-Bundesstaat Montana ist bekannt unter der Bezeichnung „Big Sky Country“, und folglich sind die dominanten Features in Bildern Himmel und Wolken. Dies gilt für jedes Flachland-Gebiet, wie z. B. Saskatchewan oder Norfolk in Ostengland. Künstler malen diese Himmelsbilder natürlich, aber nur wenige mit größerer Aufmerksamkeit als John Constable (Abbildung 6). Er wurde so sehr auf die Wolken aufmerksam, dass er im Jahre 1821 ein ganzes Album fertigte ausschließlich mit Wolken und Wolkenformen (Abbildung 8). Es gibt viele Bücher, die diese Malereien analysieren. Eines davon mit dem Titel John Constables Himmel [skies] trägt den Untertitel A Fusion of Art and Science [etwa: „Fusion von Kunst und Wissenschaft]. Darin wird die Frage gestellt: Und waren seine Himmelsbilder wissenschaftlich korrekt gemalt? Es wurde 1999 veröffentlicht und ging der Bestätigung von Svensmarks Arbeiten über Sonnenflecken und Wolkenbedeckung voraus.

Constables Werke unterstützen nicht aus sich selbst heraus Svensmarks Arbeiten, aber wenn man sie mit einer 1970 erschienenen Studie von Neuberger vergleicht (die als Nachdruck am 30. April 2012 in Weather erschienen war), stellen sie eine unabhängige Bestätigung dar. Die Schönheit von Neubergers Arbeit Climate in Art besteht darin, dass sie 29 Jahre vor dem Beginn der Untersuchung einer Verbindung zwischen Sonnenflecken und Temperatur erschienen war, die Friis-Christensen und Knud Lassen in einem Science-Artikel im Jahre 1991 umrissen haben. Titel: Length of the Solar Cycle: An Indicator of Solar Activity Closely Associated with Climate [etwa: Länge eines solaren Zyklus’: Ein Indikator für eine enge Beziehung zwischen Sonnenaktivität und Klima].

Neubergers Hypothese lautete: …eine statistisch ausreichende Menge von Malereien von vielen Malern, die in einer gegebenen Periode in einer gegebenen Region gelebt haben, sollte meteorologische Features zeigen, die sich signifikant von jenen einer ähnlichen Menge von Malereien unterscheiden, die in der gleichen Epoche in einer klimatisch anderen Region entstanden sind.

Er untersuchte über 12.000 Gemälde in 41 europäischen und amerikanischen Kunstmuseen. Die untersuchte Zeitperiode erstreckte sich von 1400 bis 1967. Verschiedene Definitionen wurden aufgestellt, um die Kategorien zu standardisieren einschließlich des Codes im US-Flugverkehr, der aus vier Kategorien besteht:

clear (weniger als 10% des sichtbaren Himmels ist mit Wolken bedeckt)

scattered (10 bis 50% Wolkenbedeckung)

broken (60 bis 90% Wolkenbedeckung)

overcast (über 90% Wolkenbedeckung)

Er unterteilte den Zeitraum von 1400 bis 1967 in drei Epochen, dargestellt in Abbildung 7 (Abbildung 12 im Originalartikel).

Abbildung 7: Neubergers Bildunterschrift: Epochale Änderungen verschiedener gemalter Features.

Die Epochen definierte er so:

1400 bis 1549: die Periode vor dem Höhepunkt der Kleinen Eiszeit

1550 bis 1849: Die Periode des Höhepunktes der LIA, die „Jahre ohne Sommer“ enthält

1850 bis 1967: Die Periode nach dem Höhepunkt, gekennzeichnet durch Gletscherrückzug und substantieller atmosphärischer Erwärmung.

Als er diese Zeiträume auf 50-Jahres-Epochen herunterbrach, zeigten die Prozentzahlen der mittleren Bewölkung dramatische Unterschiede, die von 29% im Zeitraum 1400 bis 1449 bis zu 77% im Zeitraum 1550 bis 1599 reichten. Dazu schrieb er:

Die Häufigkeit tiefer und konvektiver Wolken zeigt auch eine starke Änderung von der ersten zur zweiten Epoche. Dies spiegelt die Verschlechterung des Wetters in ganz Europa.

Abbildung 8: Aus einer Wolkenstudie von Constable (1821).

J. M. W. Turner, ein Zeitgenosse von Constable, hat ebenfalls Landschaften mit einer extensiven Darstellung der Wolken gemalt. Ihn haben mehr die wechselnden Lichtbedingungen angesprochen, vor allem nach dem Ausbruch des Tambora im Jahre 1815. Deswegen werden seine Werke als früher englischer Impressionismus angesehen.

Schlussfolgerung

Ein kritischer Punkt bei der Rekonstruktion des Klimas ist die Beschaffung bestätigender Informationen aus unabhängigen Quellen. Diese frühe Studie von Neuberger stützt Svensmarks Hypothese, dass die sich ändernde Sonnenaktivität verstärkt die Bildung tiefer Wolken verursacht, die wiederum zu Änderungen der Temperatur führt.

Link: http://wattsupwiththat.com/2014/04/24/svensmarks-cosmic-theory-and-cloud-cover-depictions-in-little-ice-age-art/

Übersetzt von Chris Frey EIKE




Wetter- und Klimavorhersagen der Regierung sind gescheitert

800×600

Der Kommentar von Richard Feynman beschreibt die wissenschaftliche Methode, gilt aber auch für die Vorhersagen von Wetter und Klima. Viele mittel- und langfristige Wetter- und Klimavorhersagen sind falsch und liegen jenseits jedweder Brauchbarkeit. (Beispiel: die Vorhersage des Met. Office UK eines trockenen Winters 2013-2014 endete mit massiven Überschwemmungen. A. v. Anthony Watts). Die meisten Vorhersage-Institutionen wechseln zwischen der Bestimmung ihres eigenen Niveaus der Zuverlässigkeit oder legen detailliert offen, wie ungeeignet ihre Arbeit ist. Keine gesellschaftliche Gruppe liegt so daneben wie Wettervorhersagen der Regierung, und doch macht sie immer weiter. Offensichtlich nehmen die Leute das hin, zusammen mit all den anderen gescheiterten politischen Vorgaben. Ihre wirkliche Ansicht spiegelt die Tatsache, dass nur wenige Aktivitäten mehr Gelächter und Geringschätzung erfahren als Wettervorhersagen.

Historie der Vorhersagen

Ungefähr im Jahr 300 v. C. hat Theophrastus, ein Schüler von Aristoteles, ein Buch geschrieben, in dem er zum ersten Mal Regeln für die Wettervorhersage festlegte. In dem Buch Book of Signs hat er über 200 empirische Indikatoren beschrieben wie z. B. die Aussage „A halo around the moon portends rain“ [etwa: wenn der Mond einen Hof hat, ist Regen im Anzug]. Viele Skeptiker einschließlich ich selbst, sagen, dass wir seitdem noch nicht sehr viel weiter gekommen sind. Stattdessen würde ich sagen, dass wir uns rückwärts entwickelt haben.

Über die Jahrhunderte gab es sehr viele Versuche der Vorhersage von Wetter und Klima. Old Richard’s Almanac von Benjamin Franklin begann mit einem Dienst dieser Art im Jahre 1757 für Langfristvorhersagen, vor allem für Landwirte. Er erweiterte damit die Gedanken von Theophrastus bzgl. der Wetterfolklore, die eigentlich aus klimatischen Beobachtungen jahreszeitlicher Ereignisse und deren Änderungen abgeleitet waren. Im Jahre 1792 wurde dieses Werk ersetzt durch The Farmer’s Almanac, heute bekannt unter dem Titel The Old Farmer’s Almanac; und es wird von vielen Menschen zu Rate gezogen, vor allem von Landwirten. Der Begründer Robert B. Thomas kombinierte Sonnenaktivität, Wetterabläufe und astronomische Zyklen, um seine Vorhersagen zu erstellen. Wir können das in heutige Formulierungen übersetzen: mittlere Sonnenflecken-Aktivität, historische Wetteraufzeichnungen und Variationen des Magnetfeldes, um eine größere Genauigkeit zu erreichen als die limitierten Variablen für die meisten Vorhersagen, vor allem aber für die des IPCC. Sie sind besser als offizielle langfristige Vorhersagen wie z. B. die Jahreszeiten-Vorhersagen des UK Met. Office während der letzten Jahre. Zuletzt war da die Vorhersage eines trockenen Winters 2013, der einer der nassesten jemals gewesen ist.

Im Jahre 1837 hat Patrick Murphy, ein englischer Gentleman der Wissenschaft, eine Studie veröffentlicht mit dem Titel The Weather Almanac (on Scientific principles, showing the State of the Weather for Every Day of the Year of 1838). Darin enthalten war eine nahezu akkurate Vorhersage für den 20. Januar 1838: „Schön, und wahrscheinlich einer der kältesten Tage des Winters“. Die Temperatur lag bei bemerkenswerten -20°C, also bei dem niedrigsten Wert seit Menschengedenken. Dickes Eis bildete sich auf der Themse, dick genug, um ein Schaf am offenen Feuer bei Hammersmith zu rösten. Die Temperatur scheint aus heutiger Sicht bemerkenswert, war aber konsistent mit einer Erde, die sich vom Tiefpunkt der Kleinen Eiszeit in den achtziger Jahren des 17. Jahrhunderts erholte, dann aber im Zuge des Dalton-Minimums einen Rückschlag erlitt.

Der Winter 1838 wurde Murphys Winter, allerdings waren die Vorhersagen für das restliche Jahr meistens falsch. Diese ärmlichen Ergebnisse mündeten in ein in der Times abgedrucktes Gedicht:

When Murphy says ‘frost’, then it will snow

The wind’s fast asleep when he tells us ’twill blow.

For his rain, we get sunshine; for high, we have low.

Yet he swears he’s infallible – weather or no!*

Dies scheint Wort für Wort anwendbar auch auf das UK Met. Office heute.

[*Das lässt sich nicht übersetzen! A. d. Übers.]

Ein gewisser Dr. Merriweather aus Whitby, Yorkshire, hat eine Technik entwickelt, Wettervorhersagen zu erstellen aus der Beobachtung der Blutegel, die er zur Blutentnahme in seiner Praxis einsetzte. Er notierte sich die Position der Blutegel in seinen Reagenzgläsern, um das Wetter vorherzusagen. Bei ruhigem Wetter hielten sie sich am Boden auf, aber wenn sie anfingen, an der Seite empor zu kriechen, war eine Wetteränderung nach einem halben Tag zu erwarten. War Regen im Anzug, kletterten die Blutegel über die Wasserlinie, und wenn sie dort blieben und sich zu einer Kugel zusammen rollten, war Sturm zu erwarten.

Merriweather schrieb eine Studie mit dem Titel An Essay Explanatory of the Tempest Prognostication [Tempest = Gewittersturm], wobei ihm als Grundlage ein spezielles Glasgefäß diente, das er selbst entworfen hatte. Darin befand sich ein Blutegel und eine Glocke, die erklang, wenn der Egel das Wasser verließ. Er verkaufte es auf der Weltausstellung 1851. Seine gescheiterten Prognosen sind vergleichbar mit den heutigen Behauptungen der Zunahme von Extremwetter.

Gescheiterte Vorhersagen der Moderne

Vor über 200 Jahren sagte Lavoisier (1743 bis 1794): „Es ist fast unmöglich, für ein oder zwei Tage innerhalb einer relativ begrenzten Wahrscheinlichkeit vorherzusagen, wie sich das Wetter entwickeln wird“. Ich verstehe das, weil die Persistenz und die Markov-Wahrscheinlichkeit eine Wahrscheinlichkeit von 63% ergeben, dass das Wetter morgen genauso sein wird wie heute. Gegenwärtig nimmt das UK Met Office für sich eine Genauigkeit von 93,8% bzgl. der Temperaturvorhersagen für den nächsten Tag in Anspruch; jedoch hätten die Tiefsttemperaturen der folgenden Nacht nur noch eine Genauigkeit von 84,3%. Das Problem liegt darin, dass beide mit einer Fehlertoleranz von ±2°C einhergehen, so dass der Fortschritt hinsichtlich der Wahrscheinlichkeit minimal ist. Es scheint, als wäre Lavoisiers „grobe Bandbreite der Wahrscheinlichkeiten“ nur wenig verbessert worden. Die meisten kommen zu besseren Ergebnissen, weil sie etwas praktizieren, was ich „graduelle Approximation“ nenne. Sie erstellen eine Vorhersage über fünf Tage  und ändern diese dann alle sechs Stunden bis zum aktuellen Zeitraum. Mir ist keine Forschungsarbeit bekannt, in der die Genauigkeit der ersten Fünf-Tages-Prognose mit der Realität verglichen wird. Wie viele Änderungen wurden vorgenommen, um der Wirklichkeit auch nur halbwegs nahe zu kommen?

Wettervorhersagen fanden im Ersten Weltkrieg praktische Verwendung, als Flugzeuge und deren Piloten der Gnade des Wetters ausgeliefert waren. Darum befinden sich die meisten Wetterstationen an Flughäfen, wo sie anfällig waren für Hitze von den Rollbahnen, den Düsentriebwerken und in vielen Fällen der sich verstärkenden städtischen Wärmeinsel (UHI). Bjerknes hat viele der Terme formuliert, die bei der Vorhersage von Warm- und Kaltfronten verwendet werden oder bei der Entwicklung bzw. Auflösung frontaler Wettersysteme, wobei die Terminologie aus dem Krieg stammt. Durch Fortschritte in der Luftfahrt schwindet heute der Bedarf an Vorhersagen. Wetterinformationen für die Luftfahrt sind heute einfach Stationsdaten der gegenwärtigen Bedingungen und auch nur für Kleinflugzeuge. Größere oder fortschrittlichere Flugzeuge können praktisch auch bei Nullsicht landen, so dass lediglich eine geschlossene Landebahn ein Problem darstellt. Das Problem der meisten Daten von Wetterstationen ist, dass sie nicht in „Echtzeit“ erfolgen, so dass der Pilot sich darauf verlässt, was der Tower ihm sagt.

Landwirte bräuchten genaue Vorhersagen entweder eine Woche oder Monate im Voraus, so dass sie ihre Operationen planen können. Keine davon ist mit hinreichender Zuverlässigkeit zu haben. Andere Aktionsgruppen wie die Forstwirtschaft oder Energieerzeuger erstellen ihre eigenen Vorhersagen, wobei viele sogar deren Daten sammeln. Das Problem sind ungenügende Wetterstationen, um Wetterkarten mit hinreichender Genauigkeit zu zeichnen, um nützliche Ergebnisse zu zeitigen. Je länger die Vorhersage, umso ausgedehnter die Anzahl der involvierten Stationen – eine Vorhersage für fünf Tage bedeutet eine Wetterentwicklung weit stromaufwärts. In den meisten Fällen sind die Lücken der diesbezüglichen Informationen einfach zu groß.

Öffentliche Bilder mit Wettervorhersagen bringt das Fernsehen, und zwar in einem 2 bis 3-minütigen Segment am Ende der Nachrichten, das man kurz nach der Präsentation schon wieder vergessen hat. Die meisten Fernsehsender versuchen, die Informationen mit visuellen Spielchen aufzumotzen. Einige präsentieren „Extremwetter“ oder aus einem „Storm Center“*. Sie verzerren die Wirklichkeit, indem sie so etwas wie den Wind Chill oder Hitze-Indizes verbreiten, als sei das die aktuelle Temperatur. Alles wird übertrieben, und das führt dazu, dass die Leute dem immer weniger Aufmerksamkeit schenken. Die Glaubwürdigkeit geht verloren, weil sie häufig [echte] Extremereignisse nicht richtig vorhersagen.

[*Gemeint ist hier eine Einrichtung wie etwa das National Hurricane Center in Miami. Den Begriff mit „Sturmzentrum“ zu übersetzen wäre grob irreführend. A. d. Übers.]

Ich habe  mit der Fliegerei angefangen, bevor es computergestützte Wetterkarten gab. Wettervorhersagen waren nicht sehr gut, aber mit Sicherheit besser als heutzutage [!]. In jenen Tagen hat der Wettermensch individuelle Stationsdaten herangezogen und seine eigene, auf Isobaren basierende Karte gezeichnet. Bei der Erstellung dieser Karte hat er ein Gefühl für den wahrscheinlichen Wetterablauf entwickelt, den er dann mit den Erfahrungen vor Ort in Verbindung brachte. Immer noch war das Vertrauen in die Vorhersagen gering, vor allem bei Personen, die ein genaueres Produkt brauchten. Hubert Lamb hat als Forecaster* ernste Beschwerden über schlechte Vorhersagen von Flugzeugbesatzungen aus dem Zweiten Weltkrieg gesammelt, die über Deutschland im Einsatz waren. Ihm wurde klar, dass für bessere Vorhersagen bessere Kenntnisse des Wetters in der Vergangenheit vonnöten waren, und das war der entscheidende Auslöser für die Gründung der Climate Research Unit CRU.

[*Der Begriff „Forecaster“ ist nach Ansicht meines Freundes Hans-Dieter Schmidt nicht übersetzbar, und jeder wisse, was damit gemeint ist. Ich frage aber trotzdem mal: Weiß jemand hierfür einen passenden deutschen Begriff? „Prognostiker“ vielleicht, wie die Übersetzungshilfe LEO vorschlägt? A. d. Übers.]

Als Wigley die CRU von Lamb übernahm, führte er die CRU in eine ganz andere Richtung und sorgte für die effektive Aufhebung der Rekonstruktionen des vergangenen Klimas. Die Arbeit einiger Weniger hat die Grenzen der Daten und der Fähigkeit der Computermodelle, genaue Wetterkarten zu erstellen, bloßgestellt. Benjamin Santer, ein CRU-Student, vervollständigte ein Thesenpapier mit dem Titel Regional Validation of General CirculationModels. Man brauchte drei Computermodelle, um die nordatlantischen Bedingungen nachzustellen. Offensichtlich hat man dieses Gebiet ausgewählt, weil es das größte Gebiet mit den besten Daten war. Aber trotzdem haben die Computermodelle massive Drucksysteme erzeugt, die nicht existieren.

Santer verwendete regionale Modelle im Jahre 1987, aber nichts hat sich während 21 Jahren verbessert. Im Jahre 2008 hat Tim Palmer, ein leitender Klimamodellierer am ECMWF in Reading, UK, im Journal New Scientist gesagt:

Ich möchte das IPCC nicht unterminieren, aber die Vorhersagen, vor allem hinsichtlich regionaler Klimaänderungen, sind immens unsicher.

Wie unsicher sie sind, zeigt die Überprüfung der Vorhersagegenauigkeit durch die NOAA in den USA und Kanada. Die Abbildungen 1 und 2 sind die Ergebnisse der NOAA-Überprüfungen für 3-monatige Vorhersagen.

Abbildungen 1 und 2: Überprüfung der Güte 3-monatiger Vorhersagen

Das Folgende erklärt, wie dieser Test abläuft:

Der Ausdruck „skill“ [etwa: Vorhersagegüte, -leistung etc. Ich lasse den Begriff hier mal unübersetzt stehen. A. d. Übers.] in Bezug auf Vorhersagen bedeutet ein Maß für die Güte der Vorhersage relativ zu einem gewählten Standard. Oftmals besteht der Standard aus dem langzeitlichen (30-jährigen) Mittel (der Klimatologie) eines Parameters, der vorhergesagt wird. Folglich ist die Bestimmung des Skills eine Messung der Verbesserung der Vorhersage über den Standard hinaus.

CPC verwendet den Heidke-Skill Score, welcher eine Maßzahl dafür ist, wie gut sich eine Vorhersage relativ zu einer anderen ausgewählten Vorhersage macht. Eine Maßzahl 0 bedeutet, dass die Vorhersage nicht besser war als das, was man zufällig erwartet hätte. Eine Maßzahl 100 beschreibt eine „perfekte“ Vorhersage, und eine Maßzahl -50 steht für die „schlechtest mögliche“ Vorhersage. Die gestrichelten Linien in der Graphik zeigen den mittleren Skill Score für alle Vorhersagen und für die „Nicht-CL-Vorhersagen“. „CL“ bezieht sich auf die Klimatologie oder eine Vorhersage gleicher Wahrscheinlichkeit für Temperatur und Niederschlag jeweils über, bei oder unter dem Normalwert. „Nicht-CL“ bezieht sich auf alle Vorhersagen, in denen erhebliche Abweichungen nach oben bzw. unten vorhergesagt werden. „Prozentzahl“ bezieht sich auf die Prozentzahl des Vorhersagegebietes, für das erhebliche Abweichungen von Temperatur und Niederschlag vorhergesagt werden.

Die Ergebnisse sind sehr mager und in den meisten Fällen kaum besser als Zufallsvorhersagen.

Environment Canada führt einen ähnlichen Skill-Test durch. Die Abbildungen 3 und 4 sind Beispiele für Temperatur-Vorhersagen über 4 bis 6 Monate (links) sowie 12 Monate (rechts). Hinsichtlich der Vorhersage von Niederschlag sieht es noch schlechter aus.

Abbildung 3: Vorhersagen für 4 bis 6 Monate und Prozentzahl der Treffer; Abbildung 4: dito für 12-Monats-Vorhersagen

Die kanadischen Ergebnisse sind schlechter als in den USA, zeigt doch das Mittel in Abbildung 3 eine Gewissheit von lediglich 44,6% und in Abbildung 4 von 41,5%. Diese Beispiele sind willkürlich ausgewählt, und in den meisten Fällen sind diese Ergebnisse noch schlechter, wie man sich selbst überzeugen kann.

In einer Pressemitteilung im Jahr 2005 hieß es: „NASA/NOAA verkünden massive Verbesserungen von Vorhersagen“. Im Lichte der oben beschriebenen Ergebnisse gibt es von  JSCDA-Direktor Dr. John LeMarshall eine merkwürdige Äußerung:

„Um eine Zunahme der Vorhersage-Genauigkeit um vier Prozent zu erreichen bei Vorhersagen für fünf oder sechs Tage im Voraus, braucht man normalerweise viele Jahre“, – „dies ist ein erheblicher Fortschritt und nur der Anfang dessen, was wir als viel mehr Daten ansehen können, die in die operationellen Vorhersage-Modelle des Environmental Modeling Center der NOAA eingehen“.

Was bedeutet die Aussage, dass die Vorhersage-Genauigkeit in 19 Jahren (2014-2005) verbessert worden ist? Falls wir annehmen, dass die Hälfte dieser Zeit (~9 Jahre) „viele Jahre“ bedeutet, hat sich die Genauigkeit vermutlich um 8 Prozent verbessert bei Vorhersagen für 5 bis 6 Tage im Voraus. Das Problem ist, dass man praktisch bei einer Null-Genauigkeit anfängt. Es wird Jahrhunderte dauern, bis man ein brauchbares Niveau erreicht. Die wichtige Frage lautet, ab welchem Punkt man zugeben muss, dass die Wissenschaft falsch liegt.

In einem vor Kurzem erschienenen Artikel bei WUWT wurde detailliert eine Studie beschrieben, die zu dem Ergebnis gekommen ist, dass „es immer noch ein Weiter Weg ist bis zu zuverlässigen regionalen Prognosen, die man im Zeitmaßstab von Jahreszeiten bis Jahrzehnten machen kann“. Das untertreibt die Probleme und Potentiale. Die Daten sind in allen Dimensionen ungeeignet. Das Verständnis und die Modellierung der Mechanismen sind unzureichend. Niemand verwendet diese Ergebnisse, weil sie so unzuverlässig sind. Man macht nur weiter damit, weil die Regierung dafür zahlt und weil die erzeugenden Bürokraten den Politikern weismachen, dass sie wertvoll sind. Das sind sie nicht.

Das IPCC gibt niemals zu, dass es wissenschaftlich falsch liegt. Jede einzelne IPCC-Vorhersage seit dem Bericht 1990 war falsch. Anstatt ihre Wissenschaft neu zu überdenken, hat es mit etwas angefangen, das inzwischen zu seiner Standardpraxis geworden ist, nämlich die Eckpunkte zu verschieben. Die volle Politisierung der Klimawissenschaft erfolgte zwischen den Berichten 1990 und 1995. Anstatt zuzugeben, dass die Wissenschaft falsch war, gingen sie von Prognosen zu Projektionen über, die seitdem ebenfalls allesamt falsch waren. Abbildung 6 zeigt die drei IPCC-Niveaus der Projektionen aus dem Jahr 1990 im Vergleich zu aktuellen Temperaturmessungen von Bodenstationen (blau) und Satelliten (grün); zusammengestellt von Clive Best:

Abbildung 6

[Hinweis: Abbildung 5 war nicht auffindbar. Ein Versehen des Autors bei der Zählung? A. d. Übers.]

Vorhersagen im Kurz- (Stunden und Tage), Mittel- (Wochen und Monate) sowie Langfristzeitraum (Jahrzehnte) sind alle falsch, liegen sie doch in jedem Falle nahe bei oder sogar unter dem Zufallsniveau. Trotz Dollarmilliarden und konzentrierten Bemühungen zur Verbesserung gibt es wenig oder gar keine Verbesserung. Falls ein solches Niveau gescheiterter Vorhersagen in irgendeiner anderen Unternehmenslogik liegen würde, würde dies zumindest das Eingestehen verlangen, dass etwas in der Wissenschaft fundamental falsch ist.

Vielleicht wird der Artikel im Daily Caller vom 20. Februar 2014 ein paar Antworten provozieren, werden doch darin die Regierungs-Prognostiker in schlimmster Weise angegriffen. Die Schlagzeile lautet: Bericht: Farmers Almanac genauer als die Klimawissenschaftler der Regierung. Ich weiß, dass die meisten Menschen nicht überrascht sind, wussten sie doch schon lange, dass die meisten Vorhersagen der Regierung falsch waren. Außerdem waren sie sehr teuer und von sehr geringem Wert. Thomas Sowell brachte es mit der Frage auf den Punkt:

Würden Sie Ihren Monatslohn auf die Wettervorhersage für morgen verwetten? Falls nicht, warum sollte dann dieses Land (die USA) Milliarden auf die Vorhersagen der globalen Erwärmung verwetten, die sogar noch viel weniger begründet sind?

Es ist schlimmer als das. Die Wissenschaft der Regierung ist falsch, und darum sind auch deren Vorhersagen falsch. Auf dieser Basis drückt sie eine Politik durch, die das Gegenteil einer sich fortentwickelnden Zukunft ist.

Link: http://wattsupwiththat.com/2014/02/25/government-weather-and-climate-forecasts-are-failures/

Übersetzt von Chris Frey EIKE

Hierzu möchte mein Freund Hans-Dieter Schmidt einen Kommentar schreiben:

Leider besteht in der Kommentarfunktion keine Möglichkeit, Abbildungen einzustellen, weshalb ich Chris Frey gebeten habe, ob ich hier zu diesem Artikel Stellung nehmen kann (vorbehaltlich der Zustimmung der EIKE-Redaktion):

Die kurzfrist-Wettervorhersage beurteilt Dr. Ball m. E. falsch, denn tatsächlich hat es hier signifikante Verbesserungen gegeben. Der Deutsche Wetterdienst veröffentlicht seit Jahren vierteljährlich  eine Auswertung der Prognosegüte für 1 bis 6 Tage.

Mittel- und langfristig und vor allem in Klimazeiträumen liegt Dr. Ball jedoch richtig, wie ich mit folgenden drei Abbildungen zeigen möchte. Sie geben Ensemble-Vorhersagen von einem gegebenen Ausgangspunkt (heute) für 24 Stunden, 168 Stunden (1 Woche) und 384 Stunden (über zwei Wochen). Man erkennt: Nach 24 Stunden gibt es gute Übereinstimmung, nach 1 Woche kann man vielleicht noch ein Muster erkennen, aber bei 384 Stunden ist definitiv Feierabend.

Zum letzten Bild: In Politik und Medien wird eine Vorhersage für 50 bis 100 JAHRE als das Maß aller Dinge betrachtet…




Überbevölkerung: Die Täuschung hinter der Täuschung der globalen Erwärmung

„Der allgemeine Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen, uns einigenden Feind kam uns der Gedanke, dass Verschmutzung, die Bedrohung durch die globalen Erwärmung,  Wasserknappheit, Hungersnöte und dergleichen diese Rolle einnehmen könnten. All diese Gefahren haben ihren Ursprung in menschlicher Einmischung, und man kann sie nur überwinden durch verändertes Verhalten. Der wirkliche Feind ist demnach die Menschheit selbst“.

Sie glauben, dass all diese Probleme dem Menschen geschuldet sind, aber durch technologische Fortschritte einer wachsenden Bevölkerung abgemildert werden. Verändertes Verhalten bedeutet im Grunde, was Thomas Malthus mit seinem Gedanken in die Welt gesetzt hat, dass die Welt überbevölkert ist. Er glaubte, dass Wohltätigkeit und Hilfe für die Armen eine Hauptursache des Problems sei, und dass es notwendig sei, die Bevölkerung durch Regeln und Vorschriften zu reduzieren. Die Bemühungen des TCOR gipfelten in den politischen Aktivitäten der Konferenz von Rio 1992, die von Maurice Strong (einem TCOR-Mitglied) unter dem Umweltprogramm der UN (UNEP) organisiert worden ist.

Die Hypothesen und Objektiven wurden zur Hauptstruktur der Agenda 21, dem Masterplan für das 21. Jahrhundert. Der Bedrohung durch die globale Erwärmung wurde in Rio Rechnung getragen mit der Gründung des UNFCCC (United Nations Framework Convention on Climate Change) und der Schaffung des IPCC. Dessen Aufgabe war es ausschließlich, Beweise dafür zu finden, dass menschliches CO2 ein Beitrag des allgemeinen Feindes sei.

Das IPCC war dabei sehr erfolgreich. Trotz aller Enthüllungen über korrumpierte Wissenschaft und ihrer gescheiterten Vorhersagen (Projektionen) steht CO2 immer noch im Mittelpunkt der Aufmerksamkeit hinsichtlich Energie und Umwelt. Beispielsweise wird auf zahlreichen Websites der Regierung der CO2-Ausstoß neuer und gebrauchter Autos aufgelistet. Autobauer arbeiten daran, Autos mit immer geringerem CO2-Ausstoß zu bauen und damit zu werben, und sei es auch nur zu dem Zweck, möglichst grün dazustehen. Die Autoindustrie, welche die Wissenschaftler in ihren Reihen hat, die es besser wissen, hat sich hinsichtlich CO2 kollektiv den Öko-Schikanen unterworfen. Damit stehen sie nicht allein. Sie kommen damit durch, weil sie die unnötigen Kosten an eine umnebelte Bevölkerung weiterreichen, die „nur im Sinn hat, das Richtige zu tun“.

Der TCOR übertrug Malthus’ Behauptung auf einen Wettlauf auf alle Ressourcen bis zu deren Erschöpfung, der bereits im Gange sei. Sowohl Malthus als auch der COR glauben, dass die Begrenzung der Bevölkerung obligatorisch sei. Darwin hatte eine Ausgabe des Essay on Population bei sich und äußerte sich zu dessen Einfluss auf seine Evolutionstheorie in seinem Journal Beagle im September 1838. Die Saat der Verzerrung bzgl. Überbevölkerung wurde durch Darwins Akzeptanz der Malthus’schen Behauptungen gelegt.

In der von Paul Johnson erstellten Biographie von Charles Darwin wird der Widerspruch zwischen Darwins wissenschaftlichen Methoden und seine Akzeptanz der Malthus’schen Thesen kommentiert:

Malthus’ Ziel war es, Wohltätigkeit abzuschaffen und die bestehenden Armen-Gesetze zu reformieren, welche seinen Worten zufolge die Hilflosen ermutigen und so das Problem verschlimmern. Das war nicht Darwins Problem. Was ihn berührte, war der Kontrast zwischen der geometrischen Progression (Brüten) und der arithmetischen Progression (Nahrungsmittel). Er war kein Mathematiker und hat die Logik hinter Malthus‘ Einlassungen nie hinterfragt … tatsächlich war Malthus‘ Gesetz Unsinn. Er hat es nie bewiesen. Er hat es in den Raum gestellt. Das Fehlen auch nur eines kleinsten Beweises in seinem gesamten Werk war augenfällig. Warum ist Darwin das nicht aufgefallen? Ein Mysterium. Malthus’ einziger „Beweis” war die Bevölkerungszunahme in den USA.

Es gab keinen einzigen Punkt, an dem Malthus’ geometrischen/arithmetischen Regeln sich mit den bekannten Fakten trafen. Und er hatte keinerlei Grund, von den hohen Raten des amerikanischen Bevölkerungszuwachses auf einen stetigen Verdoppelungs-Effekt alle 25 Jahre zu schließen.

Er schluckte den Malthusianismus, weil es zu seinen emotionalen Bedürfnissen passte, er hat keine Tests durchgeführt und nicht den Skeptizismus an den Tag gelegt, den ein Wissenschaftler haben sollte. Es war eine seltene Abweichung von der Disziplin seines Fachgebietes. Aber es war eine sehr bedeutende.

Darwins Zustimmung zu Malthus gaben dessen Ideen eine Glaubwürdigkeit, die sie nicht verdient hatten. Seitdem hat die Malthus’sche Behauptung die Wissenschaft dominiert, ebenso wie die Sozialwissenschaft und zuletzt die Umweltbewegung. Selbst heute noch glauben viele, die die Falschheit der globalen Erwärmung durch die Menschen erkannt haben, dass Überbevölkerung ein echtes Problem ist.

In allen TCOR-Aktivitäten stand die Überbevölkerung im Mittelpunkt. Drei Bücher waren für diese Botschaft wesentlich, nämlich The Population Bomb (1968) und Ecoscience: Population, Resources and Environment (1977) von Paul Ehrlich, wobei er Letzteres zusammen mit Obamas Wissenschafts-Zaren John Holdren geschrieben hat. Außerdem Limits to Growth von Meadowes et al., veröffentlicht 1972. Darin war das Vorgehen des IPCC mittels Computervorhersagen (Projektionen) vermutet worden. Darin heißt es:

Falls sich die gegenwärtigen Wachstumstrends hinsichtlich Weltbevölkerung, Industrialisierung, Verschmutzung, Nahrungsmittelerzeugung und Ausbeutung von Ressourcen unverändert fortsetzen, werden die Grenzen des Wachstums auf diesem Planeten irgendwann während der nächsten 100 Jahre erreicht sein.

Auf der Website des COR heißt es:

Sie haben ein Computermodell erstellt, das die Beziehungen zwischen verschiedenen globalen Entwicklungen einbezieht und Simulationen für alternative Szenarien entwickelt. Teil der Modellierung waren die unterschiedlichen Mengen der möglicherweise erschließbaren Ressourcen, unterschiedliche Niveaus der landwirtschaftlichen Produktivität, Geburtenkontrolle und Umweltschutz.

Man schätzte die gegenwärtig verfügbaren Mengen einer Ressource, bestimmte die Verbrauchsrate und fügte eine steigende Nachfrage wegen zunehmender Industrialisierung und Bevölkerung hinzu und kam mit einfachen linearen Trendanalysen zu dem Ergebnis, dass die Welt dem Untergang geweiht ist.

Der Wirtschaftsexperte Julian Simon stellte den TCOR und die Hypothesen von Ehrlich in Frage.

Ehrlich hatte behauptet: „Wenn ich ein Zocker [gambler] wäre, würde ich sogar wetten, dass England im Jahr 2000 nicht mehr existieren würde“. Simon betrachtete diese Behauptung als zu dumm, um sich überhaupt damit zu befassen. Er reagierte mit einem „öffentlichen Angebot von 10000 Dollar … für meine Annahme, dass die Kosten von nicht von der Regierung kontrollierten Rohstoffen (einschließlich Getreide und Öl) langfristig nicht steigen werden“.

Simon schlug vor:

„Sie können Ihre eigenen Modalitäten festlegen: wählen Sie irgendeinen Rohstoff – Kupfer, Zinn, was auch immer – und wählen Sie irgendein Datum in der Zukunft, irgendein Datum, das über ein Jahr in der Zukunft liegt, und ich wette, dass der Preis dieses Gutes an jenem Datum niedriger sein wird als derzeit“.

John Holdren wählte die Materialien und den Zeitpunkt. Simon hat die Wette gewonnen.

Der globalen Erwärmung liegt der Gedanke zugrunde, dass sich das CO2 wegen zunehmender Industrialisierung und wachsender Bevölkerung bis auf schädliche Niveaus anreichern würde. Die politische Manipulation der Klimawissenschaft wurde mit Entwicklung und Kontrolle der Bevölkerung auf vielfache Weise verbunden. Hierzu gibt es einen Kommentar von Senator Tim Wirth aus einem PBS interview. Man hatte ihn gefragt: „Welches Ereignis Ende der achtziger Jahre hat Ihrer Ansicht nach zum Höhenflug des Themas globale Erwärmung geführt?“ Er erwiderte:

Ich glaube, dass es Ende der achtziger Jahre eine ganze Reihe von Ereignissen gegeben hat. Erstens gab es da den (NASA-Wissenschaftler) James Hansen 1988 … Wir hatten ein weitreichendes Gesetz eingebracht, und zwar ein Gesetz zur Klimaänderung mit 18 Punkten; darunter Bevölkerung, Konservierung – und auch Kernkraft. Es enthielt alles, was wir uns in Bezug auf die Klimaänderung vorstellen konnten … Und dann folgte die Reihe von Anhörungen, in denen Jim Hansen der Star-Zeuge war.

In Wikipedia liest man über Wirth:

Im State Department arbeitete er mit Vizepräsident Al Gore an globalen Umwelt- und Bevölkerungsthemen und unterstützte die Ansicht der Regierung zur globalen Erwärmung. Als Unterstützer des Kyoto-Protokolls verkündete Wirth den Einsatz der USA für gesetzlich bindende Grenzen von Treibhausgas-Emissionen.

Gore war 1988 bei der Hansen”-Anhörung der Vorsitzende und stand im Mittelpunkt der These, dass die Bevölkerung die Grundlage aller anderen Probleme sei. Er führte die US-Delegation bei der International Conference on Population and Development im September 1994 in Kairo.

Diese Konferenz war eine Fortentwicklung der Konferenz 1992 von Rio, auf der die Bevölkerung mit allen anderen vermeintlichen Problemen in Zusammenhang gebracht worden waren.

Die explizite Integration der Bevölkerung in wirtschaftliche Entwicklungsstrategien wird sowohl das Tempo der nachhaltigen Entwicklung und der Erleichterungen erhöhen und zum Erreichen von Bevölkerungs-Objektiven beitragen sowie zu einer Verbesserung der Lebensumstände.

Dieses Thema stand im Mittelpunkt der Rio+20-Konferenz im Juni 2012 und war dazu gedacht, der Rio-Konferenz des Jahres 1992 neuen Schwung zu verleihen.

Die Zahlen

Die Welt ist nicht überbevölkert. Jener Trugschluss zieht sich durch die gesamte Umweltforschung, die Politik und die Planungen, einschließlich der globalen Erwärmung und jüngst der Klimaänderung. Wie also sehen die Fakten hinsichtlich der Weltbevölkerung aus?

Das Zensus-Büro der USA gibt eine laufende Schätzung der Weltbevölkerung. Am 15. Februar 2012 wurden 6.994.551.619 Menschen vermutet. Am 30. Oktober 2011 ist Behauptungen der UN zufolge die 7-Milliarden-Grenze gerissen worden; der Unterschied beträgt 5.448.381. Das ist mehr als die Bevölkerung von 129 Ländern der 242 Länder, die von Wikipedia genannt werden. Der Unterschied bestätigt, dass die meisten statistischen Angaben hierzu grobe Schätzungen sind, vor allem jene der UN, die sich auf individuelle Mitgliedsländer stützen, obwohl es von dort keinen genauen Zensus gibt.

Die Bevölkerungsdichte ist ein bedeutenderer Parameter. Die meisten Menschen konzentrieren sich in küstennahen Gebieten und Flussmündungen, die etwa 5 Prozent der Landfläche ausmachen. Man vergleiche die Bevölkerung in Kanada, dem zweitgrößten Land der Welt mit etwa 35,3 Millionen Einwohnern geschätzt im Jahre 2013 mit Kalifornien mit einer geschätzten Bevölkerung von 37,3 Millionen Menschen (2010). Einige illustrieren die Bedeutungslosigkeit der Dichte, indem sie jeden in ein bekanntes Gebiet stellen. Zum Beispiel, dividiert man die Fläche von Texas, umgerechnet knapp 700.000 km² durch die Weltbevölkerung im Jahre 2012, 6.994.551.619 Menschen, kommt man auf eine Fläche von knapp 100 m² pro Person. Wenn man alle Menschen in ein Gebiet presst, ist das etwas anderes als die Möglichkeit, dort zu leben. Der größte Teil der Welt ist nicht von Menschen bewohnt.

Bevölkerungs-Geographen trennen das bewohnte Gebiet von den nicht bewohnten Gebieten. Die Verteilung in beiden ändert sich mit der Zeit infolge sich ändernder Technologie, Kommunikationsmöglichkeiten und der Kapazität zur Erzeugung von Nahrungsmitteln. Viele dieser Änderungen haben mit Klimakontrolle zu tun. Der Gebrauch von Feuer und Kleidung erlaubte das Überleben in kälteren Gebieten, während Bewässerung die Ansiedlung in ariden Gebieten möglich machte. Moderne Umweltschützer würden am liebsten alle diese evolutionären Fortschritte wieder abschaffen.

Ironischerweise ist das irrige Problem die Lösung

Das alles klingt nur zu vertraut bei der Ausbeutung der Wissenschaft für eine politische und persönliche Agenda. Aber es gibt eine sogar noch größere Tragödie, weil die Entwicklung, die TCOR und IPCC verdammen, tatsächlich die Lösung ist.

Alle Bevölkerungsvorhersagen von Ehrlich und Anderen waren falsch, aber wichtiger und auch verdammenswerter war, dass sie eine andere Entwicklung ignorierten, die man schon 1929 entdeckt hatte und die sich im gleichen Zeitraum wie die Malthus’schen Behauptungen entfaltete. Bekannt ist dies unter der Bezeichnung Demographic Transition [etwa: Demographischer Übergang].

Sie zeigt, was auch Statistiken bestätigen, dass die Bevölkerung mit zunehmender Industrialisierung und Wirtschaftswachstum abnimmt. In entwickelten Ländern ist dies so dramatisch, dass die Bevölkerungspyramide inzwischen in Schieflage geraten ist. Es gibt nicht mehr genügend junge Menschen gibt, um die massiven Sozialprogramme für die Älteren zu finanzieren. Einige Länder umgehen dieses Problem durch Einwanderung, was aber schlicht und ergreifend zu anderen Problemen führt. In Ländern, die die Zuwanderung nicht zulassen oder stark beschränken wie z. B. Japan gibt es ganz andere Probleme. Solche Länder bieten Anreize, mehr als zwei Kinder zu bekommen, so wie es Präsident Putin in Russland verkündet hat. China hat drakonische und unmenschliche Maßnahmen ergriffen, um die Ein-Kind-Politik durchzusetzen. Die Ironie liegt darin (obwohl daran nichts komisch ist), dass sie jetzt die größten Erzeuger von CO2 und des größten Wirtschaftswachstums sind. Wenn sie einfach nur den demographischen Übergang studiert und den Dingen einfach ihren Lauf gelassen hätten, dann hätten die schon eingetretenen und noch zu erwartenden Tragödien vermieden werden können.

Die Welt ist nicht überbevölkert. Malthus wartete mit dem Gedanken auf, dass die Bevölkerung irgendwann nicht mehr ausreichend mit Nahrung versorgt werden könnte. Die gegenwärtige Erzeugung von Nahrungsmittel würde Schätzungen zufolge 25 Milliarden Menschen ernähren, Tendenz wachsend. Der Punkt ist, dass in den Entwicklungsländern etwa 60 Prozent der Nahrungsmittel niemals auf dem Esstisch landen. In entwickelten Ländern liegt dieser Prozentsatz bei 30%, hauptsächlich durch Möglichkeiten der Kühlung. In ihrer blinden Begeisterung haben die gleichen Leute, die für das IPCC-Fiasko verantwortlich waren, die technologische Lösung dieses Problems bekämpft – bessere und billigere Kühlung. Das Thema CFC/Ozon wurde künstlich geschaffen, um CFCs zu verbannen und eine globale Kontrolle durch das Montreal-Protokoll einzuführen. Genau wie das Kyoto-Protokoll handelte es sich dabei um eine massive, teure, unnötige Lösung für ein nicht existierendes Problem.

TCOR und später die Agenda 21 des UNEP haben die Malthus’sche Denkweise zur Überbevölkerung übernommen und auf alle Ressourcen ausgeweitet. Sie ist inzwischen zur Grundsatzlehre aller Politiker und der gesamten Politik geworden. Das IPCC wurde ins Leben gerufen, um die Verantwortung für die globale Erwärmung oder jüngst der Klimaänderung dem menschlichen CO2 in die Schuhe zu schieben, und zwar CO2 von einer industrialisierten zunehmenden Bevölkerung. Beide gingen sie von falschen Hypothesen aus, haben manipulierte Daten und Wissenschaft benutzt, die sie in Computermodelle eingaben, die wenig überraschend falsch waren. Das Ergebnis ist, dass der Trugschluss der globalen Erwärmung infolge menschlichen CO2 ein Unterbereich des Trugschlusses der Überbevölkerung ist.

Link: http://wattsupwiththat.com/2014/01/05/overpopulation-the-fallacy-behind-the-fallacy-of-global-warming/

Übersetzt von Chris Frey EIKE




Viele Klima-Rekonstruktionen werden fälschlich Temperaturänderungen zugeordnet

Bild rechts: Die Fichte bei Churchill, Manitoba (Quelle: der Autor). Siehe Text weiter unten!

Die IPCC-Definition einer Klimaänderung hat den Brennpunkt dafür auf menschliche Ursachen verengt, hat aber das Ganze verschärft, indem es Variablen ignoriert, in ihrer Bedeutung herabgestuft und missbraucht hat. Am wichtigsten und auch grundlegend war Wasser in all seinen Zuständen und Funktionen (hier). Die Besessenheit begrenzte die Sichtweise auf höhere Temperaturen und zunehmendem CO2. Finanzielle Förderung wurde für Analysen hinsichtlich der Auswirkungen auf Wirtschaft und Umwelt ausgegeben, anstatt dass man eine Kosten/Nutzen-Analyse durchgeführt hätte. In Klimastudien ging es nur um die Temperatur, wobei gewöhnlich und fälschlich durch Niederschlag ausgelöste Änderungen der Temperatur zugeordnet wurden. Diese Praxis zeigte sich höchst augenscheinlich in paläoklimatischen Rekonstruktionen, ausgeführt entweder durch IPCC-Teilnehmer oder ausgewählt zum Einfließen in die IPCC-Berichte.

Es ist fast schon eine Maxime: wenn die Mitarbeiter an der Climatic Research Unit CRU, die effektiv die IPCC-Wissenschaft kontrolliert haben, auf ein Thema geschaut haben, dann nur in der Hinsicht, dass es vielleicht eine Bedrohung ihrer vorbestimmten Hypothese sein könnte.

Tom Wigley übernahm den Posten des Direktors an der CRU von Hubert Lamb und bestimmte weitgehend die Richtung früher Forschungen. Dann behielt er seinen Einfluss, als die durchgesickerten E-Mails bekannt geworden sind. Er hat die Ziele von Lamb vollständig umgelenkt, hatte dieser doch die Notwendigkeit von Daten betont, bevor irgendein Verständnis erwachsen kann:

„Als Erstes und Wichtigstes muss man die Fakten des Klimas der Vergangenheit etablieren, bevor irgendwelche Zusatzeffekte durch menschliche Aktivitäten von Bedeutung werden könnten“.

Lamb war gegen Wigleys Ansichten und scheint bereut zu haben, diesen einzustellen, schrieb er doch über die andere Richtung, in die Wigley die CRU gelenkt hat. Er schrieb:

„Prof. Tom Wigley war hauptsächlich daran interessiert festzuschreiben, dass Änderungen des Weltklimas die Folge menschlicher Aktivitäten seien, vor allem durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“

Das wurde zum Brennpunkt der CRU und in der Folge auch des IPCC. Es war die vorbestimmte Hypothese, die zur Manipulation der Klimawissenschaft geführt hatte. Die durchgesickerten CRU-E-Mails enttarnen Wigley als die graue Eminenz, an die sich alle Studenten und Kollegen an der CRU wandten, wenn sie Rat und Anleitung brauchten.

Eine klassische Gefahr in der Klimaforschung und eine frühe Bedrohung der Behauptungen hinsichtlich eines menschlichen Signals war, dass man sie als das Ergebnis einer Auto-Korrelation bloßstellen konnte. Das Ganze wurde bereits 1944 in dem Klassiker von Conrad benannt: Methods in Climatology. Im Jahre 1999 haben Tsonis and Elsner in einem Artikel mit dem Titel The Autocorrelation Function and Human Influences on Climate (etwa: Die Autokorrelations-Funktion und menschliche Einflüsse auf das Klima) Wigleys Versuch kommentiert zu beweisen, dass ein menschlicher Einfluss nicht aufgrund von Autokorrelation zu verzeichnen ist. Sie schrieben:

Dieses Ergebnis von Wigley ist beeindruckend, und es könnte tatsächlich einen menschlichen Einfluss auf das Klima geben. Allerdings ist die Verwendung der Autokorrelations-Funktion für solche Bestimmungen problematisch. Klimamodelle konstituieren dynamische Systeme, egal ob erzwungen oder nicht. Falls diese Modelle wirklichkeitsgetreu die Dynamik des Klimasystems repräsentieren, dann sollte ein Vergleich zwischen einer Beobachtung/Messung und einer Modellsimulation zeigen, ob diese beiden Ergebnisse die gleiche dynamische Grundlage haben.

In dem Beitrag Quantitative approaches in climate change ecology haben Brown et al. das Problem identifiziert:

Wir präsentieren eine Liste mit Themen, die angesprochen werden müssen, um Rückschlüsse auf eine sicherere Grundlage zu stellen, einschließlich (1) Berücksichtigung von Datenberschränkungen und der Vergleichbarkeit von Datensätzen, (2) alternative Mechanismen, die eine Änderung auslösen, (3) geeignete Variablen, (4) ein passendes Modell für diesen untersuchten Prozess, (5) zeitliche Autokorrelation, (6) räumliche Autokorrelation und Verteilungen und (7) die Überwachung der Änderungsraten. Während maritime Studien bei unserer Übersicht im Vordergrund standen, können diese Grundlagen aber auch für Studien auf dem Festland angewendet werden. Die Berücksichtigung dieser Vorschläge wird helfen, das Wissen um die globalen Klimaauswirkungen und das Verständnis für die Prozesse, die ökologische Änderungen treiben, voranzubringen.

Die zwei ersten Bedingungen in der Liste von Brown et al. zur Lösung von Autokorrelations-Problemen stehen auch im Mittelpunkt, um die Korruption und die Irreführung des IPCC zu verstehen.

(1) Datenbeschränkungen

Wie schon Lamb erkannt hat, waren und sind fehlende Daten die ernsteste Begrenzung. Die Lage ist vollständig ungeeignet für die Temperatur, vermeintlich die am stärksten gemessene Variable. Wie kann es sein, dass zwei so große Agenturen wie HadCRUT und GISS zu so unterschiedlichen Ergebnissen kommen, und das vermutlich aus dem gleichen Datensatz? Paul Homewood erstellte die folgende Tabelle, in der Ergebnisse von vier Datenquellen der Periode 2002 bis 2011 verglichen werden:

Es zeigt sich eine Differenz zwischen GISS und UAH von 0,36°C, was für einen neun-Jahres-Zeitraum enorm ist. Man vergleiche das mit der Erwärmung um 0,6°C seit 140 Jahren, eine Änderung, von der das IPCC im Jahre 2001 behauptet hat, dass sie dramatisch und unnatürlich sei.

Die Datengrundlage ist räumlich und zeitlich sogar noch viel schlechter, wenn es um Wasser in all seinen Formen geht, vor allem Niederschlag. In einer klassischen Untertreibung heißt es im IPCC-Bericht aus dem Jahr 2007:

Unterschiede bei der Messung des Niederschlags verbleiben als Sorgenkind bei der Quantifizierung des Ausmaßes, mit dem sich Niederschläge im globalen und regionalen Bereich verändert haben.

Weiter stellen sie fest:

Wenn Modelle akkurat die sich mit der Jahreszeit verändernde Verteilung von Niederschlägen simulieren sollen, müssen sie eine Reihe von Prozessen korrekt simulieren (z. B. Verdunstung, Kondensation, Transport), die im globalen Maßstab schwierig zu evaluieren sind.

Das Fehlen von Daten ist schlimmer als Temperatur und Niederschlag für alle andere Wetter-Variablen. Es gibt nur unzureichend Daten, um die Interferenzen von Autokorrelationen zu bestimmen.

(2)Alternative Mechanismen von Änderungen

Die Fähigkeit, Mechanismen und deren Implikationen zu bestimmen ist ohne adäquate Daten unmöglich. Abgesehen davon, wir verstehen die meisten Mechanismen gar nicht, so dass die Berücksichtigung von Alternativen schwierig ist. Viele Mechanismen sind erkannt, aber viele andere sind nach wie vor unbekannt. Eine Äußerung von Donald Rumsfeld bringt es auf den Punkt:

„…Es gibt bekannte Bekannte; das sind Dinge, von denen wir wissen, was wir wissen. Es gibt aber auch unbekannte Bekannte; das heißt, es gibt Dinge, von denen wir wissen, dass wir nichts wissen. Außerdem gibt es aber auch noch unbekannte Unbekannte – das sind Dinge, von denen wir nicht wissen, dass wir nichts wissen“.

Der Widerspruch in den Ergebnissen verschiedener Behörden wie z. B. bei den Temperaturdaten beweist diesen Punkt. Das IPCC hat dieses Problem mit einer begrenzten Definition umgangen, die es ihm gestattete, die meisten Mechanismen zu ignorieren. Oftmals waren die Entschuldigungen ziemlich bizarr, so wie diese aus dem Kapitel 8 des Berichtes aus dem Jahr 2007:

Infolge der unberechenbaren Kosten im Zusammenhang mit der Notwendigkeit einer gut aufgelösten Stratosphäre enthalten die zur Abschätzung des jetzigen Zustands verwendeten Modelle nicht die QBO.

Das IPCC hat genau das getan, wovor Einstein einst gewarnt hatte: „Alles sollte so einfach wie möglich gemacht werden, aber nicht noch einfacher“.

Jenseits von Autokorrelation?

Autokorrelation ist in der Klimatologie eine Gefahr, aber was beim IPCC passiert ist, geht weit darüber hinaus. In den grundlegenden Rekonstruktionen des Klimas in der Vergangenheit wurden Temperaturreihen aus Daten und Prozessen erstellt, die primär infolge von Niederschlägen aufgetreten waren.

Baumringe-Klimatologie [Dendroclimatology]

Viele dieser Temperaturreihen begannen als chronologische Rekonstruktionen. Baumringe begannen als Baumring-Chronologie; eine absolute Datierungsmethode geht davon aus, dass in jedem Jahr ein neuer Baumring entsteht. Das Alter von Borstenkiefern ermöglichte dies wenigstens. A. E. Douglass begründete die Disziplin der Jahresringchronologie im Jahre 1894 und verwendete später Baumringe zur Rekonstruktion solarer Zyklen und von Niederschlägen; Letzteres war das Ziel aller frühen Klima-Rekonstruktionen.

Die verfügbare Feuchtigkeit erklärt zum größten Teil das Wachstum von Pflanzen, wie Landwirte und Gärtner wissen. Köppen hat dies bei seiner Klima-Klassifizierung erkannt, die sich zuallererst auf den Niederschlag bezog (B-Klimata) und erst in zweiter Linie auf die Temperatur (A- und C-Klimata).

Der groß angelegte Missbrauch von Baumringen, um die Mittelalterliche Warmzeit (MWP) zu eliminieren kam ans Tageslicht durch unsaubere statistische Manipulationen. Die Schlussfolgerung im IPCC-Bericht 2001 behauptete, dass die Baumringe (der Effekt) keine Zunahme der Temperatur zeigen (die Ursache). In Wirklichkeit gehen mit der Klimaänderung auch Änderungen aller Variablen des Wetters einher, wodurch es zu dem Autokorrelations-Problem kommt.

Das Ausmaß der Änderung jeder Variablen ist eine Funktion der geographischen Breite, wandern doch wesentliche Wettermechanismen pol- oder äquatorwärts. Zum Beispiel hat sich während der Eiszeiten die polare Klimaregion hauptsächlich in die Klimazonen mittlerer und niedriger Breiten ausgedehnt, vor allem in den Wüstengürtel, etwa zwischen 15° und 30° Breite. Die Wüsten in niedrigen Breiten wurden zu feuchten Gebieten, was man traditionell pluvial nennt. Zu Anfang hatte man gedacht, dass es in mit der Hadley-Zirkulation zusammenhängenden tropischen Gebieten keine Beweise einer Eiszeit geben würde.

Feuchtigkeit ist ein grundlegender Faktor selbst unter harten Temperaturbedingungen an der Baumgrenze. Forschungen bei Churchill in [der kanadischen Provinz] Manitoba zeigten die wesentlichen Prädiktoren des Wachstums im Herbst des voran gegangenen Jahres und die winterliche Schneedecke.

Die Fichte in der Abbildung oben rechts befindet sich an der Baumgrenze bei Churchill. Sie ist etwa 100 Jahre alt. Die unteren Äste sind größer und befinden sich auf allen Seiten, weil sie von den beißenden Winterwinden durch Schnee geschützt sind. Über der Schneedecke hat der starke und persistente aride Nordwestwind verhindert, dass die Zweige wachsen. Lokal wird gewitzelt, dass man drei Bäume gefällt und sie dann zu einem vollständigen Weihnachtsbaum zusammen gebunden hat.

Das Wachstum von Bäumen, vor allem im jährlichen Maßstab, hängt primär von Feuchtigkeit ab, nicht von der Temperatur. Die von der Pflanze benötigte Feuchtigkeitsmenge und die verfügbare Menge an Feuchtigkeit variieren beide mit der Windgeschwindigkeit. An der Baumgrenze ist die Fähigkeit, Schnee an sich zu binden, für das Überleben kritisch. Schmale Ansammlungen oder Einzelbäume können jenseits der Baumgrenze nur überleben, solange sie Schnee festhalten können. Genauso wird eine offene Fläche diesseits der Baumgrenze baumfrei bleiben, solange der Schnee vom Wind fortwährend verblasen wird.

Speläologie (Höhlenforschung; Stalaktiten/Stalagmiten)

Stalaktiten (an der Decke) und Stalagmiten (am Boden) sind ein weiteres Beispiel für von Niederschlägen beeinflusste Features, von denen behauptet wird, dass sie die Temperatur repräsentieren. Sie entstehen durch Regenwasser, das durch Absorption von CO2 beim Fallen durch die Luft leicht sauer ist. Beim Sickern durch Kalkstein wird dieser ein wenig gelöst, und wenn der Tropfen an der Decke hängt, verdunstet ein winziger Bruchteil davon und lässt den gelösten Kalk zurück. Das Gleiche passiert, wenn der Tropfen auf den Boden fällt. Das Wachstum von beiden ist eine direkte Folge von Änderungen des Niederschlags an der Oberfläche.

Glaziale Schichtenfolge und Eisbohrkerne

Jahreszeitliche oder jährliche Schichtfolgen bilden ein Kollektiv, das unter der Bezeichnung rhythmites bekannt ist. Im Anfangsstadium von Klimarekonstruktionen war die Verwendung von Rhytmites eine spezifische Form, Varves genannt, und bezogen auf jährliche Sedimentschichten in voreiszeitlichen Seen. Im Jahre 1910 hat der schwedische Wissenschaftler Gerard de Geer eine wichtige Chronologie für glaziale Sequenzen im Holozän erarbeitet. Die Dicke der Sedimentschicht ist eine Folge der Temperatur, aber auch eine Folge der Regenmenge während des Sommers, die die Schmelzraten von Schnee und Eis beeinflusste.

Jahreszeitliche Schichten in einem Gletscher spiegeln oftmals Temperaturänderungen, werden aber auch durch Niederschläge modifiziert. Die Bewegung der Gletscher wird als Indikator für Temperaturänderungen angesehen, ist aber auch ein Indikator für Änderungen der Niederschlagsmenge. Die Dicke der Schicht variiert mit der Schneefallmenge (ja, auch im Winter gibt es Dürren [wie z. B. in Bayern im Dezember 2013! A. d. Übers.]). Mit einer Dicke von etwa 50 m wird Eis unter Druck plastisch und beginnt zu fließen. Eis fließt immer in Richtung der Gletscherzunge innerhalb des Gletschers. Die Distanz zwischen Vordringen und Zurückweichen der Gletscherzunge hat genauso viel mit der Akkumulation von Schnee über der Grenze ewigen Schnees zu tun wie mit Temperaturänderungen.

Schmelzwasser eines Gletschers ist genauso eine Funktion der Temperatur wie des Niederschlags. Wenn es auf den Gletscher regnet, nimmt die Schmelzrate von Schnee und Eis dramatisch zu. Dies ist wahrscheinlich eine Haupterklärung für die rapide Schmelze und die rasante Ausbreitung eiszeitlicher Seen, während des Optimums des Holozäns. Die Dynamik eines kontinentalen Gletschers ist eine allmähliche Akkumulation von Schneeschichten, der ein relativ rasches Abschmelzen folgt, wenn der Schnee in Regen übergeht.

Die Menge des CO2 in den Eiskristallen variiert mit der Temperatur des Wassertröpfchens genauso wie die CO2-Kapazität des Meerwassers variiert. Dies bedeutet, dass Schmelzwasser von Gletschern eine höhere CO2-Konzentration aufweist, und wenn es durch die Eisschichten sickert, werden die Eisbläschen modifiziert. Jaworowski hat dies in seiner Präsentation vor dem US-Senatskomitee im März 2004 erläutert.

Dies ist so, weil die Eisbohrkerne nicht das essentielle Kriterium eines abgeschlossenen Systems erfüllen. Eines davon ist das Fehlen flüssigen Wassers im Eis, was die chemische Zusammensetzung der zwischen den Eiskristallen eingeschlossenen Luftbläschen dramatisch verändern kann. Dieses Kriterium ist nicht erfüllt, da selbst die kältesten Stellen im antarktischen Eis (bis zu -73°C) flüssiges Wasser enthalten. Mehr als 20 physikalisch-chemische Prozesse, meistens bezogen auf das Vorhandensein flüssigen Wassers, tragen zur Veränderung der ursprünglichen chemischen Zusammensetzung der Lufteinschlüsse im polaren Eis bei.

Das IPCC hat sich auf den Kohlenstoffkreislauf konzentriert, aber der Wasserkreislauf ist viel wichtiger, vor allem, weil er mit der Dynamik der Veränderung in Beziehung steht. Man lege einen dehydrierten Stein in eine Kammer und verändere die Temperatur so viel wie möglich – und es wird kaum etwas geschehen. Jetzt füge man ein paar Tropfen Wasser hinzu, und der Zusammenbruch (Verwitterung) des Steines ist dramatisch. Jedes Klimaexperiment oder jede Klimaforschung, die Wasser ausschließt, wie etwa eine Liste von Treibhausgasen in trockener Luft, ist bedeutungslos. Wasser existiert überall auf dem Planeten.

Niederschlag fällt auch über den Ozeanen, aber wir haben nahezu keinerlei Messmöglichkeiten. Daher können wir auch keine Aussagen zu den Verdünnungseffekten des Niederschlags auf den Salzgehalt machen und den Bestand von Gasen in der kritischen Oberflächenschicht. Wie stark beeinflusst Niederschlag als eine 10 prozentige Lösung von Kohlensäure die CO2-Messungen dieser Schicht? Schneeschmelze hat einen höheren CO2-Prozentanteil.

Windrichtung und –geschwindigkeit bestimmen grundlegend die Verteilung von Wasser in der Atmosphäre und damit auf der ganzen Welt. Sie verändern die Auswirkungen der Temperatur, wie wir aus dem Windchill-Faktor oder Messungen des Heizgrades wissen. Welche Auswirkungen hat eine geringe Zunahme der Windgeschwindigkeit in regionalem, hemisphärischen oder globalen Maßstab auf Wetter und Klima?

Der atmosphärische Luftdruck variiert mit der Temperatur, die das Gewicht und den Druck der Atmosphäre auf den Boden bestimmt. Wie stark verändert sich durch diese Effekte der Meeresspiegel? Durch Flutwellen im Zuge intensiver Tiefdrucksysteme wissen wir, dass er erheblich sein muss.

Die Liste der offiziell vom IPCC ausgeschlossenen ungemessenen und unbekannten Variablen für seine Wissenschaft macht ihre Modelle und ihre Behauptungen bedeutungslos und ungültig. Sie illustriert auch das Ausmaß der Autokorrelation, mit der die Klimaforschung konfrontiert ist. Es scheint, dass Wigley und damit auch das IPCC diese Probleme kennen. Aber sie haben beschlossen, sie zu umgehen, indem die Aufmerksamkeit sorgfältig in eine bestimmte Richtung gelenkt wird – eine wissenschaftliche Fingerfertigkeit.  

Link: http://wattsupwiththat.com/2013/12/27/many-climate-reconstructions-incorrectly-attributed-to-temperature-change/#more-99965

Übersetzt von Chris Frey EIKE




Wie und warum das IPCC das CO2 mittels falscher Informationen dämonisiert hat

Man vergleiche die industrialisierte Nation mit einer internen Verbrennungsmaschine auf Basis fossiler Treibstoffe. Man kann die Maschine auf zwei Arten anhalten: Die Treibstoffzufuhr unterbinden oder den Auspuff stopfen. Die Treibstoffzufuhr zu unterbrechen ist ein politisches Mienenfeld. Die Menschen merken sofort, wenn alle Preise steigen, vor allem für Nahrungsmittel. Es ist einfacher zu zeigen, dass die Auspuffgase zu irreparablen Umweltschäden führen. Das ist der Grund, dass CO2 zum alleinigen Brennpunkt des IPCC geworden ist. Verfahren und Methoden wurden aufeinander abgestimmt, CO2 zu isolieren und zu zeigen, dass dieses Gas zu einer globalen Runaway-Erwärmung führt.

In den achtziger Jahren habe ich Henry Hengeveld, Mitarbeiter bei Environment Canada davor gewarnt, dass es ein Problem ist, einen Politiker von einem Gedanken zu überzeugen. Das Propagieren von CO2 als ein Problem war Teil von Henrys Karriere. Ich erklärte ihm, dass das größere Problem auftaucht, wenn man ihn überzeugt und dann die Behauptung als falsch überführt wird. Entweder räumt man den Fehler ein, oder man verschweigt die Wahrheit. Environment Canada und die Mitgliedsstaaten des IPCC haben sich dafür entschieden, die Wahrheit zu verschleiern.

1        Die IPCC-Definition des Begriffes Klimaänderung war der erste große Betrug

Die Menschen sind betrogen worden, als das IPCC gegründet wurde. Die meisten glauben, dass es sich um einen regierungsamtlichen Untersuchungsausschuss handelt, der alles zur Klimaänderung untersuchen soll. Die aktuelle Definition vom United Nations Environment Program [Umweltprogramm der UN] (Artikel 1) des UNFCCC begrenzt diesen ausschließlich auf menschliche Ursachen.

„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

In einem anderen Betrug haben sie die in den ersten drei Berichten (1990, 1995, 2001) verwendete Definition im Bericht 2007 geändert. In der Summary for Policymakers ist das eine Fußnote.

„Klimaänderung nach Lesart des IPCC bezieht sich auf jedwede Änderung des Klimas mit der Zeit, erfolge diese nun aufgrund natürlicher Variabilität oder als Folge menschlicher Aktivitäten. Diese Definition unterscheidet sich von der des UNFCCC, in der eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

Diese Definition fand aber keine Anwendung, weil die Zustandsberichte aufeinander aufbauen. Eine Einbeziehung der natürlichen Variabilität hätte einen völligen Neustart erforderlich gemacht.

Es ist unmöglich, den menschlichen Beitrag zur Klimaänderung zu bestimmen, wenn man die natürlichen (nicht-menschlichen) Klimaänderungen nicht kennt oder nicht versteht. Professor Murray Salby zeigte, wie der menschliche Anteil des CO2 bedeutungslos ist, und dass Variationen bei den natürlichen CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigte, dass eine Änderung um 5% aus diesen Quellen mehr ist als die gesamte menschliche Erzeugung.

2        Das IPCC zieht Rückschlüsse und will eine Hypothese unbedingt beweisen

Um dieses Verfahren wissenschaftlich aussehen zu lassen, wurde eine Hypothese konstruiert, die auf folgenden Annahmen basierte:

● CO2 ist ein Treibhausgas (GHG), das die Rückstrahlung von Wärme von der Erde behindert.

● die Wärme wurde auf die Erde zurück gestrahlt und hat die globale Temperatur steigen lassen.

● Nimmt das CO2 zu, steigt die globale Temperatur.

● Der CO2-Gehalt nimmt zu aufgrund der sich immer mehr erweiternden industriellen Aktivitäten.

● Der globale Temperaturanstieg war unvermeidlich.

Um noch sicherer zu machen, dass auch das gewünschte Ergebnis herauskommt, hat sich das IPCC daran gemacht, diese Hypothese zu untermauern, anstatt zu versuchen, sie zu widerlegen, wie es die wissenschaftliche Methode erfordert. Wie Karl Popper gesagt hat:

„Die Regel gibt vor, dass die anderen Regeln wissenschaftlicher Verfahren so gestaltet sein müssen, dass sie nicht irgendein Statement der Wissenschaft vor der Falsifikation schützen“.

Das beständige und unermessliche Verhalten des IPCC enthüllt falsche Interpretationen bzgl. CO2. Sobald ein Umstand von Wissenschaftler auftauchte, die ihrer Rolle als Skeptiker gerecht geworden waren, hat das IPCC nicht etwa die Gültigkeit und Wirksamkeit dieser Dinge in Betracht gezogen und getestet, sondern es arbeitete daran, diese Dinge zu zerstreuen, selbst mittels einiger falscher Erklärungen. Diese falschen Antworten waren erfolgreich, weil die meisten Menschen gar nicht wussten, dass sie falsch waren.

3 Fakten über CO2 sind den meisten unbekannt, aber problematisch für das IPCC

Einige grundlegende Fakten über CO2 sind den meisten Menschen unbekannt und illustrieren die Diskrepanzen und Unterschiede zwischen den Behauptungen des IPCC und dem, was die Wissenschaft weiß.

● Der Anteil des natürlichen CO2-Niveaus in der Atmosphäre liegt derzeit unter 0,04% und bei 0,4% aller Treibhausgase. Es ist nicht das bedeutendste Treibhausgas.

● Wasserdampf macht durch Volumen 95% aller Treibhausgase aus. Es ist bei Weitem das bedeutendste Treibhausgas.

● Methan (CH4) ist ein anderes natürliches Treibhausgas, das vom IPCC dämonisiert wurde. Es hat nur einen Anteil von 0,000175% an der ganzen Atmosphäre und 0,036% an den Treibhausgasen.

● Abbildung 1 von ABC News zeigt die falsche Information. Diese Darstellung gilt nur für eine trockene Atmosphäre.

Abbildung 1

● Diese Prozentanteile machten dem IPCC Sorgen. Also hat es die Bedeutung des CO2 vergrößert, indem ein „Beitrag“ pro Einheit geschätzt wurde (Abbildung 2). Die Bandbreite der Schätzungen macht die Messungen effektiv bedeutungslos, es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen genauen Prozentanteil am Treibhauseffekt hat“.

Abbildung 2 (Quelle: Wikipedia)

4 Die menschliche Produktion von CO2 ist kritisch für die IPCC-Objektive. Daher kontrolliert es die Informationen.

Die Erklärung lautet:

Welche Rolle spielt das IPCC bei der Bestandsaufnahme von Treibhausgasen und bei den Berichten an das UNFCCC?

A: Das IPCC hat eine Reihe von Verfahrensberichten zur Bestandsaufnahme nationaler Treibhausgas-Emissionen erzeugt mit der Absicht, international akzeptable Methoden für diese Bestandsaufnahme zur Verfügung zu stellen. Das IPCC übernimmt die Verantwortung, wissenschaftliche und technische Ratschläge zu speziellen Fragen zu erteilen, die mit diesen Methoden der Bestandsaufnahme zusammen hängen oder auf Anforderung des UNFCCC in Übereinstimmung mit etablierten IPCC-Verfahren. Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) [etwa: Programm zur Bestandsaufnahme von Treibhausgasen] zu betreiben, um diese Ratschläge zum Verfahren zu geben. Die Parteien im UNFCCC stimmen überein, die IPCC-Richtlinien bei den Berichten an die Convention zu verwenden.

Wie erstellt das IPCC seine Richtlinien für die Bestandsaufnahme? Unter Verwendung von Methoden des IPCC entwerfen benannte Experten aus der ganzen Welt die Berichte, die dann zweimal extensiv begutachtet werden, bevor sie das IPCC absegnet. Dieses Verfahren stellt sicher, dass die größtmögliche Vielfalt von Meinungen in die Dokumente einfließen.

Es kontrolliert den gesamten Prozess, die Verfahrensweise, die Benennung technischer Ratschläge, die Etablierung von Arbeitsgruppen, Richtlinien für die Berichterstattung, Benennung der Experten, die die Berichte erzeugen bis zur schließlichen Absegnung der Endfassung. Die Zahlen, die sie erzeugen, sind eine Hochrechnung, aber man schätzt, dass Menschen von dieser Zahl 50% entfernen.

Wie auch immer, wenn man die natürlichen Quellen und die Variabilität von CO2 nicht kennt, kann man den menschlichen Anteil nicht ermessen. Man hat behauptet, dass der Anteil in der Atmosphäre durch Verbrennung fossiler Treibstoffe bekannt sei aus dem Verhältnis der Kohlenstoff-Isotope C13/C12. Roy Spencer hat gezeigt, dass dies nicht der Fall war. Außerdem wird die natürliche Verbrennung fossiler Treibstoffe ignoriert, als da wären Waldbrände oder langlebige Kohle- und Torfbrände. Hans Erren zufolge ist fossile Kohle in der Erde begrabenes Holz. Spencer kam zu dem Ergebnis:

Wenn das Verhältnis C13/C12 durch der NATÜRLICHEN Variabilität von Jahr zu Jahr geschuldet ist, wie können dann welche behaupten, dass das Trendsignal VOM MENSCHEN VERURSACHT ist?

Antwort: Um die Hypothese zu beweisen und den Betrug fortzuführen.

5 Druck für dringende politische Maßnahmen

In früheren IPCC-Berichten wurde behauptet, dass die Zeit des Verbleibens von CO2 in der Atmosphäre sehr lang sei. Dies implizierte, dass es weiterhin ein Problem sein würde, selbst bei sofortiger Einstellung aller CO2-Emissionen. Allerdings hat Segalstad geschrieben:

Essenhigh (2009) weist darauf hin, dass das IPCC in seinem ersten Bericht (Houghton et al. 1990) eine CO2-Verweildauer von 50 bis 200 Jahren angegeben hatte (als eine „grobe Schätzung“). Diese Schätzung wird verwirrend als eine Anpassungszeit für ein Szenario mit einem gegebenen menschlichen CO2-Input genannt und ignoriert natürliche CO2-Flussraten (durch Ozean und Vegetation). Solche Schätzungen sind analytisch unsinnig und stehen in Konflikt mit einer korrekteren Erklärung an einer anderen Stelle im gleichen IPCC-Bericht: „Dies bedeutet, dass es im Mittel nur wenige Jahre dauert, bis ein CO2-Molekül in der Atmosphäre durch Pflanzen aufgenommen oder im Ozean gelöst wird“.

6 Verfahren, um Probleme mittels IPCC-Wissenschaft zu verschleiern und den Alarmismus zu erhöhen

IPCC-Verfahren wurden zum Zwecke des Betrugs entwickelt. Das IPCC hat drei Arbeitsgruppen (WG). WG 1 erstellt den Physical Science Basis Report, in welchem bewiesen wird, dass CO2 die Ursache ist. WG 2 erstellt den Impacts, Adaptation and Vulnerability Report [Auswirkungen, Anpassung und Verwundbarkeit]. Er basiert auf dem Bericht von WG 1. WG 3 erstellt den Bericht zur Abschwächung des Klimawandels. Die Arbeitsgruppen 1 und 2 akzeptieren die Behauptung der WG 1, dass die Erwärmung unvermeidlich ist. Sie stellen fest:

Es werden fünf Kriterien für Klimaszenarien gelistet, falls sie für Folgenforscher und Politiker für Entscheidungen nützlich sind: Kriterium 1: Konsistenz mit den globalen Projektionen. Sie sollten konsistent sein mit einer großen Bandbreite von Projektionen der globalen Erwärmung aufgrund zunehmender Konzentrationen von Treibhausgasen. Diese Bandbreite wird in verschiedenen Quellen angegeben mit 1,4°C bis 5,8°C bis zum Jahr 2100 oder 1,5°C bis 4,5°C bei einer Verdoppelung der atmosphärischen CO2-Konzentration (anderswo bekannt als die „Gleichgewichts-Klimasensitivität“).

Sie wussten, dass nur Wenige den wissenschaftlichen Bericht mit seinen eingeräumten ernsten Grenzen lesen oder verstehen würden. Sie haben dessen Veröffentlichung absichtlich verzögert bis nach dem Erscheinen der Summary for Policymakers. David Wojick erklärt:

Unübersehbare Auslassungen sind nur für Experten unübersehbar. Daher werden die „Politiker“ – einschließlich der Medien und der Öffentlichkeit –, die den SPM lesen, nicht erkennen, dass man ihnen nur die eine Seite der Medaille nahebringt. Aber die Wissenschaftler, die den Bericht entworfen haben, kennen die Wahrheit, wie die mitunter sehr kunstvollen Versuche ihrerseits belegen, diese Wahrheit zu verschleiern.

Was systematisch in dem SPM  ausgelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die die Theorie der anthropogenen Einmischung widerlegen könnten. Anstatt diesen Einwänden nachzugehen, stehen in der Summary nur jene Ergebnisse, die die Theorie stützen. Kurz gesagt, dass ist Ideologie, keine Wissenschaft.

Ein Beispiel für diesen Betrug in der SPM liefert der Bericht aus dem Jahr 1995. Im Bericht 1990 und dem Entwurf 1995 hieß es, dass es keine Beweise für einen menschlichen Einfluss gibt. Benjamin Santer hat als Leitautor von Kapitel 8 den Entwurf 1995 seiner Mitautoren ohne deren Wissen verändert. Sie hatten gesagt:

„Während einige der hier diskutierten Dinge die Entdeckung einer signifikanten Klimaänderung behauptet haben, konnte bislang noch keine Studie positiv nachweisen, dass die gesamte Klimaänderung oder ein Teil davon anthropogenen Ursachen zugeordnet werden kann“.

Ben Santer machte daraus:

„Die Masse der statistischen Beweise in Kapitel 8 deuten jetzt auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin, wenn man diese Beweise im Zusammenhang unseres physikalischen Verständnisses des Klimasystems untersucht“.

Die Phrase „erkennbarer menschlicher Einfluss” machte es wie geplant in die Schlagzeilen.

Mit dem AR 5 verschlimmerten sie den Betrug durch die Veröffentlichung einer SPM, der sie eine Korrektur folgen ließen. Sie bekamen die gewollte Schlagzeile. Es ist das gleiche Spiel wie der Unterschied zwischen der Bloßstellung der Probleme im Wissenschaftsreport der WG 1 und der SPM. Die Medien haben nicht über die Korrekturen berichtet, aber das IPCC konnte jetzt behaupten, dass es die Unzulänglichkeiten ihres Berichtes aufgelistet hat. Es ist nicht ihre Schuld, dass die Leute das nicht verstehen.

7 Klimasensitivität

Ursprünglich hatte man angenommen, dass ein konstant steigender atmosphärischer CO2-Gehalt zu einer konstant steigenden Temperatur führen würde. Dann wurde berechnet, dass die ersten paar ppm die Treibhausgas-Kapazität von CO2 bereits erreicht haben. Eschenbach hat die Wirklichkeit dargestellt:

Abbildung 3

Es ist wie schwarze Farbe auf einem Fenster. Um durch ein Fenster fallendes Sonnenlicht abzuschirmen, wird die erste Schicht schwarzer Farbe dazu den Löwenanteil beitragen. Folgeschichten reduzieren das Sonnenlicht nur noch wenig.

Es gab sofort Uneinigkeit über die Höhe der Klimasensitivität durch eine Verdoppelung oder Verdreifachung des atmosphärischen CO2-Gehaltes. Milloy hat eine Graphik konstruiert, der die drei unterschiedlichen Sensitivitäts-Schätzungen miteinander vergleicht (Abbildung 4):

Abbildung 4.

Das IPCC erzeugte eine positive Rückkopplung, um die Temperaturen weiter steigen zu lassen. Es behauptet, dass CO2 zu einer Temperaturzunahme führt, was zu vermehrter Verdunstung führt, und Wasserdampf verstärkt den Temperaturtrend. Lindzen und Choi haben dies in ihrer Studie aus dem Jahr 2011 widerlegt und kamen zu dem Ergebnis, dass „die Ergebnisse zeigen, dass die Modelle die Klimasensitivität übertreiben“.

Die Klimasensitivität hat seitdem immer weiter abgenommen und nähert sich allmählich Null. In einer kürzlichen Studie von Spencer wird behauptet, dass „…das Klimasystem nur halb so sensitiv auf CO2 reagiert wie ursprünglich angenommen“.

8 Die Eisbohrkerne waren grundlegend, aber voller ernster Fehler

Die wesentliche Annahme der abgeleiteten IPCC-Hypothese sagt, dass eine CO2-Zunahme eine Temperaturzunahme bedingt. Nach der Veröffentlichung von Petit et al. (1999) erschienen die Eisbohrkerne aus der Antarktis als Beweis im Bericht 2001 (Abbildung 5):

Abbildung 5. Antarktischer Eisbohrkern

Vier Jahre später ergaben Forschungen das Gegenteil – eine Temperaturzunahme war einer CO2-Zunahme stets vorausgegangen, was ein klarer Widerspruch zur Hypothese war. Dies wurde beiseite geschoben mit der ablenkenden Behauptung, dass der Zeitverzug 80 bis 800 Jahre betrug und damit nicht signifikant sei. Das war so verstörend, dass Al Gore in seinem Film ein betrügerisches Bild erzeugte. Nur wenige Experten haben das bemerkt.

Tatsächlich ändert sich die Temperatur vor einer Änderung des CO2-Gehaltes in jeder Aufzeichnung für jede Periode oder jeden Zeitraum. Abbildung 6 zeigt einen kürzeren Zeitraum (1958 bis 2009) dieses Verhältnisses. Falls eine CO2-Änderung in jeder Aufzeichnung einer Temperaturänderung nachfolgt, warum sind dann alle Computermodelle mit der gegenteiligen Beziehung programmiert worden?

Abbildung 6: Verzögerung für einen kurzen Zeitraum, 1958 bis 2009.

Das IPCC brauchte niedrige vorindustrielle CO2-Niveaus

Ein präindustrielles CO2-Niveau, niedriger als heute, war unabdingbar für die IPCC-Hypothese. Es war genauso nötig wie die Eliminierung der Mittelalterlichen Warmzeit, weil diese gezeigt hat, dass es heute eben nicht wärmer als jemals zuvor war.

Eisbohrkerne sind nicht die einzigen Quellen, die Aufschluss über den präindustriellen CO2-Gehalt geben. Es gibt Tausende direkte Messungen des atmosphärischen CO2-Gehaltes schon im 19. Jahrhundert, genauer seit dem Jahr 1812. Wissenschaftler haben genaue Messungen mit kalibrierten Instrumenten durchgeführt, wie Ernst Beck sorgfältig dokumentiert hat.

In einer an das US Senate Committee on Commerce, Science, and Transportation Hearing übermittelten Studie hat Professor Zbigniew Jaworowski festgestellt:

“Die Basis der meisten IPCC-Ergebnisse bzgl. anthropogener Gründe und Projektionen der Klimaänderung ist die Annahme eines niedrigen CO2-Gehaltes in der präindustriellen Atmosphäre. Diese Annahme ist glaziologischen Studien zufolge falsch“. [1]

Gleichermaßen bedeutsam ist Jaworowskis weitere Feststellung:

Die Auffassung eines niedrigen vorindustriellen CO2-Niveaus, die auf so wenig Wissen beruht, wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise direkter Messungen von CO2 in der Luft, die zeigen, dass die mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (11), Abbildung 2. In Abbildung 2 zeigen die eingekreisten Werte eine verzerrte Auswahl von Daten, die verwendet worden sind um zu zeigen, dass das atmosphärische CO2-Niveau im 19. Jahrhundert 292 ppmv betragen hatte (12). Eine Studie von Stomata in fossilen Blättern aus dem Holozän in Ablagerungen in einem See in Dänemark zeigen, dass der CO2-Gehalt der Atmosphäre vor 9400 Jahren 330 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept eines stabilen und niedrigen CO2-Gehaltes der Luft bis zum Einsetzen der industriellen Revolution (13).

Es gibt noch andere Probleme bei den Aufzeichnungen in Eisbohrkernen. Es braucht Jahre, um Luft im Eis einzuschließen. Was also wurde tatsächlich eingefangen und gemessen? Schmelzwasser, das sich durch das Eis gearbeitet hat, vor allem im oberflächennahen Eis kann die Luftblasen kontaminieren. Bakterien innerhalb des Eises setzen sogar Gase in 500.000 Jahre altem Eis in größeren Tiefen frei. (Dissertation von Brent C. Christner 2002 mit dem Titel [übersetzt]: „Auffinden, Bergung, Isolation und Charakterisierung von Bakterien in Gletschereis und Eis aus dem Wostok-See“). Der Druck des darüber liegenden Eises verursacht eine Änderung in Tiefen unter 50 m, und brüchiges Eis wird plastisch und beginnt zu fließen. Die Schichten, die sich jedes Jahr mit dem Schneefall gebildet haben, verschwinden mit zunehmendem Druck. Man benötigt eine beträchtliche Dicke des Eises über einen langen Zeitraum, um eine einzelne Ablesung in der Tiefe durchführen zu können.

Jaworowski identifizierte die Probleme durch Kontamination und Verlusten während des Bohrungs- und Bergungsprozesses des Eiskerns.

Jaworowskis Behauptung, dass die Modellierer die Messungen des 19. Jahrhunderts ignoriert haben, ist nicht richtig. Sie wussten es, weil T. R. Wigley die Informationen über die Messungen im 19. Jahrhundert schon 1983 zur Verfügung stellte. (Wigley, T.M.L., 1983 “The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Allerdings hat er Werte willkürlich au seiner großen Bandbreite herausgepickt, durchweg hohe Messwerte eliminiert und das vorindustrielle CO2-Niveau von etwa 270 ppm ‘erzeugt’. Ich nehme an, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen zusammen gearbeitet hat als Direktor der Climatic Research Unit CRU in East Anglia. Er war der Vorgänger von Phil Jones und war die Schlüsselfigur, der die durch die Klimagate-E-Mails enthüllten Machenschaften dirigiert hatte.

Wigley war nicht der erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat sie erneut in die Klimagemeinschaft eingeführt. Guy Stewart Callendar, ein britischer Dampftechnik-Ingenieur, brachte die These voran, dass zunehmendes CO2 zu Erwärmung führt. Er tat das, was Wigley getan hat, nämlich nur die Daten auszuwählen, die die Hypothese stützen.

Es gibt 90.000 Messwerte aus dem 19. Jahrhundert, und die Graphik zeigt die sorgfältig von G. S. Callendar ausgewählten Werte, um seine Schätzung zu stützen. Es ist eindeutig, dass er ausschließlich niedrige Werte ausgewählt hat.

Abbildung 7 (nach Jaworowski, Trendlinien hinzugefügt)

Man kann die Änderungen der Neigung und des Trends erkennen, wenn man die ausgewählten Daten mit der Gesamtzahl der Daten vergleicht.

Ernst-Georg Beck bestätigte Jaworowskis Forschungen. In einem Artikel in Energy and Environment wurden die Messwerte sehr detailliert untersucht und die Ergebnisse validiert. Beck kommt zu dem Ergebnis:

Die moderne Treibhaushypothese basiert auf den Arbeiten von G. S. Callendar und C. D. Keeling. Sie folgen damit S. Arrhenius, der vom IPCC popularisiert worden ist. Die Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Anzahl technischer Studien aussortiert und ältere Bestimmungen des atmosphärischen CO2-Gehaltes verworfen haben, weil diese nicht zu ihrer Hypothese passten. Offensichtlich haben sie nur ein paar sorgfältig ausgesuchte Werte aus der älteren Literatur verwendet und ausnahmslos Ergebnisse gewählt, die mit der Hypothese eines CO2-Anstiegs infolge Verbrennung fossiler Treibstoffe konsistent sind.

Das vorindustrielle Niveau liegt um etwa 50 ppm höher als behauptet.

Beck weiter:

„Seit 1812 hat die CO2-Konzentration der Luft in der Nordhemisphäre fluktuiert mit drei Maxima um die Jahre 1825, 1857 und 1942, wobei im letzteren Jahr 400 ppm vorhanden waren“.

Die Herausforderung für das IPCC bestand darin, einen gleitenden Übergang zu erzeugen vom CO2-Niveau in den Eisbohrkernen zu dem auf dem Mauna Loa gemessenen Niveau. Beck zeigte, wie man das gemacht hat, und auch, wie die Messungen des des 19. Jahrhunderts willkürlich ausgewählt werden mussten, um zu den Eisbohrkern- und den Mauna Loa-Daten zu passen (Abbildung 8).

Abbildung 8

Die Variabilität ist extrem wichtig, weil der Eisbohrkern einen außerordentlich glatten Verlauf zeigt, der mittels einer Mittelung über 70 Jahre erreicht worden ist. Selektion und Glättung wurde auch auf die Mauna Loa-Daten angewendet sowie auf alle atmosphärischen Messungen in jüngster Zeit, die auf natürliche Weise im Verlauf eines Tages bis zu 600 ppm variieren. Die Glättung im Maßstab wie bei dem Eisbohrkern eliminiert eine große Menge an Information. Man betrachte die Variabilität der Temperatur der letzten 70 Jahre. Der Statistiker William Brigg sagt, dass man niemals, niemals eine Zeitreihe glätten darf. Die Eliminierung hoher Werte vor der Glättung bringt noch größere Verluste. Beck erklärt, wie Charles Keeling die Mauna Loa-Daten bearbeitet hat, indem er die niedrigsten Messwerte des Nachmittags verwendete und natürliche Quellen ignoriert hat. Beck vermutet, dass Keeling beschlossen hat, diese natürlichen Quellen zu vermeiden, indem er den Messpunkt 4000 m hoch auf dem Vulkan errichtet hat. Beck:

Der Mauna Loa repräsentiert nicht den typischen atmosphärischen CO2-Gehalt in verschiedenen globalen Gebieten, sondern die Werte sind nur typisch für diesen Vulkan in einem Meeresgebiet in einer Höhe von 4000 m in dieser geographischen Breite“. (Beck 2008, „50 Years of Continuous Measurement of CO2on Mauna Loa” Energy and Environment, Vol. 19, No.7.)

Keelings Sohn betreibt jetzt die Messungen am Mauna Loa und, wie Beck anmerkt, „er besitzt das globale Monopol bei der Kalibrierung aller CO2-Messungen“. Er ist Mitautor der IPCC-Berichte, und das IPCC betrachtet alle Messungen am Mauna Loa als repräsentativ im globalen Maßstab.

Als Klimatologe weiß ich um die Notwendigkeit, so viele unabhängige Verifikationen der Daten wie möglich zu erhalten. Stomata sind kleine Öffnungen an Blättern, deren Größe direkt mit der Menge des atmosphärischen CO2 variiert. Sie unterstreichen die Auswirkungen von Glättung und der künstlich niedrigen Ablesungen in den Eisbohrkernen. Ein Vergleich der Stomata mit einem Eisbohrkern über einen Zeitraum von 2000 Jahren (9000 bis 7000 v. Chr.) illustriert dies (Abbildung 9):

Abbildung 9.

Daten aus Stomata zeigen höhere Werte und Variabilität als der exzessiv geglättete Eisbohrkern. Sie passen quantitativ zu den Messungen des 19. Jahrhunderts, wie Jaworowski und Beck zeigen. Das mittlere Niveau des Eisbohrkerns zeigt etwa 265 ppm, während die Stomata etwa 300 ppm nahe legen.

Das vorindustrielle CO2-Niveau war marginal geringer als jetzt und liegt wahrscheinlich innerhalb der Fehlergrenze. Weder diese Werte noch der gegenwärtige Wert von 400 ppm ist hoch im Vergleich mit der geologischen Vergangenheit. Der gesamte Output der Computer-Klimamodelle beginnt mit der Vermutung, dass das vorindustrielle Niveau messbar geringer ist. Die Eliminierung dieser Hypothese unterminiert die Behauptung noch weiter, dass die Erwärmung während der Periode der Industrialisierung Folge einer Freisetzung anthropogenen CO2 in die Atmosphäre war. Man kombiniere dies mit der IPCC-Behauptung, dass CO2 eine Temperaturzunahme bewirkt, wenn alle Aufzeichnungen das Gegenteil zeigen, dann ist es keine Überraschung, dass die IPCC-Vorhersagen steigender Temperaturen konsistent falsch sind.

Der IPCC-Betrug ist vorsätzlich geplant worden, und zwar unter Maurice Strongs Anleitung, um zu beweisen, dass CO2 eine globale Erwärmung hervorruft, was als Begründung für die Schließung industrieller Nationen herhalten muss. Sie haben ihr Ziel teilweise erreicht, wie alternative Energien und grüne Arbeitsplätze belegen. All dies passiert vor dem Hintergrund immer weiter zunehmender Beweise gegen die Hypothese, weil sich die Natur mitzuspielen weigert. CO2 steigt, während die Temperatur fällt, was dem IPCC zufolge nicht sein kann. Politiker müssen nach den Fakten handeln und alle politischen Maßnahmen zurückweisen, die auf der Behauptung basieren, dass CO2 ein Problem ist; vor allem die Maßnahmen, die schon jetzt große Schäden verursachen.

Quelle: The Global Warming Policy Foundation: CCNet 14/10/13

1. [1] “Climate Change: Incorrect information on pre-industrial CO2” Statement written for the Hearing before the US Senate Committee on Commerce, Science, and Transportation by Professor Zbigniew Jaworowski March 19, 2004

Link: http://wattsupwiththat.com/2013/11/13/why-and-how-the-ipcc-demonized-co2-with-manufactured-information/#more-97390

Übersetzt von Chris Frey EIKE