An der Tankstelle gibt es jetzt Bio!

Die durch Brüssler Ökodiktatoren befohlene "Bio-"Verunreinigung des Sprits
– erhöht den Kraftstoffverbrauch
– senkt die Leistung (geringere Energiedichte des Bioethanols)
– erhöht den CO2-Ausstoss (diese Information ist natürlich nur für die relevant, die noch immer dran glauben, CO2 und Klima hätten dolle was miteinander zu tun …)
– gefährdet Motoren (Zerstörung oder mindestens Senkung der Lebensdauer durch Beschädigung von Leitungen und Dichtungen) und damit Milliardenwerte
– senkt gerade angesichts der sich global abkühlenden Winter ( http://notrickszone.com/2010/12/28/global-cooling-consensus-is-heating-up-cooling-over-the-next-1-to-3-decades/ – auf Deutsch hier) die Betriebssicherheit der Fahrzeuge (Ethanol enthaltendes Benzin nimmt mehr Wasser auf. Dieses kann bei entsprechenden Kältegraden als Eis ausfrieren und Leitungen verstopfen.)
Bis 2007 fuhr ich einen Audi A4 (Baujahr 2004), der bereits die damalige 5%-Verunreinigung mit Biosprit nicht vertrug (fing an, sehr peinlich schwarz zu qualmen) und ostwärts in Länder mit (noch) sauberem Spritangebot verschickt werden mußte. Auch Fahrzeuge vom Baujahr 2009 können durch einmaligen Tanken von E10 zerstört werden. Zuweilen sind es (bis in Produktionsjahr 2009!) nur einzelne Baumonate von Motoren wie bei Toyota (der Lieblingsmarke von Frau R. Künast). Kein Tankwart kann da sichere Auskunft geben.

Die Produktion des Biosprits
– zerstört Umwelt
– verknappt und verteuert Lebensmittel weltweit (http://www.n-tv.de/politik/Biosprit-verursacht-Hunger-article12373.html) Man könte ausrechnen, wieviel Hungertote die Lebensmittelverknappung so bringt – es gibt Schätzungen zwischen 10.000 und 500.000 pro Jahr.
– macht die ach so "grünen" Investoren noch reicher
Ich spar mir mal die seriösen Quellen, sondern zitiere den Medienkonzern Greenpeace (wo sie Recht haben, haben sie Recht!):
"… Wald, Weide- oder Brachland in Ackerland umzuwandeln, kann dazu führen, dass noch mehr Kohlendioxid (CO2) freigesetzt wird. E10 kann also nicht nur Autos ruinieren, sondern auch unsere Umwelt."
http://tinyurl.com/e10-ist-mist
"Die Treibhausgasbilanzen der Agrokraftstoffe sind damit nach Berechnungen des IEEP im Schnitt um 81 bis 167 Prozent schlechter als fossile Kraftstoffe. "
http://tinyurl.com/e10-ist-grosser-mist

Siehe auch:

Kein Mensch würde E10 in sein Auto tanken, wenn man die Kosten der Biospritherstellung bezahlen müsste. Deshalb werden die Mineralölgesellschaften zum Mindestanteil E10 im Verkauf gezwungen. Das sichern sie, in dem sie die anderen Sorten teurer machen. Politisch gewollt. Die gleiche fiese Nummer wie bei Solar- oder Windstrom. Die Hersteller werden mit steuerähnlich abgezockten Geld garantiert vergütet, die Kosten werden umverteilt auf Alle, Geringverdiener trifft es überproportional.
Unterm Strich auch hier eine Vermögensumverteilung von unten nach oben (zu den parteinahen Ökoinvestoren), befördert insbesondere durch sich als links darstellende Parteien. Dabei geht es nicht nur um die Verteuerung des Tankens, sondern um die Verteuerung aller Güter, da Spritkosten in den Preis aller Waren und Dienstleitungen eingehen.
Der jüngste (nicht gesundheitsrelevante) Dioxinverunreinigung in Futtermitteln war übrigens eine Nebenwirkung der Biospritproduktion. http://www.tagesschau.de/inland/dioxin112.html
Abschließend könnte die Ökosekte nun mit dem Argument kommen, dass Biosprit zur Einsparung von "Fossilen Brennstoffen" nötig sei. Zutreffend ist, dass wir eigentlich am Beginn des Erdölzeitalters stehen (aber das ist ein extra Thema):

Mein Vorschlag für den nächsten G20-Gipfel: Man möge zum "KLIMASCHUTZ" beschließen, die Globaltemperatur an den Dollarkurs zu koppeln.
Die E10-Einführung schlägt in ihrer Unsinnigkeit sogar das Glühlampenverbot. Wär schön, wenn mal ein paar mehr Leute aufwachen.
So sieht ein tropischer Wald in Indonesien nach der Produktion (hier Abholzung) von Biosprit aus:

Übrigens werden zur Produktion eines Liters Biosprit nicht selten etwa 4000 Liter Wasser verbraucht.
Und zum Schluß mal was Optimistisches: http://www.focus.de/wissen/wissenschaft/psychologie/tid-21092/wahrnehmung-die-welt-ist-besser-als-sie-denken_aid_586515.html

Hier ein frischer Artikel zum Überfluss an Gas:
der entscheidende darin Satz lautet :
…..Geologen der Texas A&M University schätzen, dass die in Amerika entwickelten Bohr- und Förderungstechnologien die weltweit erschließbaren Gasreserven verneunfachen. "Es gibt heute Reichweiten von mehreren Hundert Jahren", sagt Auer. Dies wirke sich auch auf den Energiemix aus. "Es entwertet zum Beispiel die geplanten Pipelineprojekte." Man müsse sich fragen, was mit dem vielen Gas geschehen solle.

Gastautor O.K:
Lesen Sie dazu auch die treffende Kolumne von G. undefinedEderer




Weitere Mess-Unsicherheit (Fehler) von Oberflächentemperaturdaten quantifiziert! Deutlich größer als bisher angenommen!

Zusammenfassung

Die Unsicherheit der instrumentallen Messungen ist in früheren Schätzungen des globalen Oberflächen-Temperaturmittels noch nie vollständig behandelt worden. Der geschätzte durchschnittliche Messstationsfehler von ±0.2 C wurde fälschlicherweise als zufällig betrachtet und der systematische Fehler aus freien Variablen ist ständig vernachlässigt worden. Die systematischen Messfehler von drei ideal positionierten und gewarteten Temperatursensoren werden hier berechnet. Kombiniert mit dem durchschnittlichen Messstationsfehler von ±0.2 C wurde eine repräsentative untere Unsicherheitsgrenze von ±0.46 C für jede globale jährliche Oberflächentemperatur-Anomalie gefunden. Diese ±0.46 C zeigen, dass der Trend der globalen jährlichen Oberflächentemperatur-Anomalie von 1880 bis einschließlich 2000 statistisch nicht von 0 C unterschieden werden kann, er stellt daher eine untere Grenze der Kalibrierungs-Unsicherheit für Klimamodelle dar und für jede voraussichtliche physikalisch gerechtfertigte Proxy-Rekonstruktion von Paläo-Temperaturen. Die Rate und das Ausmaß der Erwärmung im 20. Jh.  sind daher nicht bestimmbar. Behauptungen eines noch nie dagewesenen Trends in der globalen Termperatur im 20. Jh. können nicht aufrecht erhalten werden.

Einführung

Die Rate und das Ausmaß der Klimaerwärmung im vergangenen Jahrhundert geben zu erheblicher internationaler Besorgnis und Forschung Anlaß [1, 2]. Die veröffentlichten Auswertungen der Quellen der Unsicherheit in den Aufzeichnungen der globalen jährlichen Oberflächentemperaturen sind bisher auf Ortsveränderungen der Messstationen gerichtet gewesen, auf räumliche Inhomogeneität der Messstationen, auf Instrumentenaustausch und auf Veränderungen in der Landnutzung und auf die Verstädterung.

Überprüfungen der Datenqualität von Landmessstationen und Anpassungen der Zeitreihen, die zur Unterstützung eine geschätzten Unsicherheit von etwa ±0.2 C bei einer globalen  Anomalie im Jahrhundertdurchschnitt von etwa +0,7 C angewendet worden sind, haben das Messungsrauschen nicht richtig beachtet und sie haben noch nie die unabhängigen Umweltvariablen beachtet, die die Auflösungsgenauigkeit der Sensoren im Feld beeinflussen. Die Auflösungsgenauigkeit im Feld bezieht sich auf die Fähigkeit eines Sensors zwischen ähnlichen Temperaturen, dem wirksamen Einfluß der Umwelt und den verschiedenen Quellen von Instrumentenfehlern zu unterscheiden.

In einer neuen Abschätzung globaler jährlicher Oberflächentemperaturen und deren Unsicherheiten haben Brohan et al. [11], hier folgend mit B06 zitiert, das Messgeräterauschen als vernachlässigbar beurteilt. Sie schreiben: „Der zufällig Fehler bei einer einzigen Thermometer-Ablesung beträgt etwa 0.2 C (1Standardabweichung) [Folland,et al., 2001] ([12]); der Monatsdurchschnitt beruht auf mindestens zwei Ablesungen pro Tag während der gesamten Monatsdauer, wodurch 60 oder mehr Werte gewonnen werden, die zur Durchschnittsbildung herangezogen werden. Daher beträgt der Fehler im Monatsdurchschnitt höchstens 0.2 /Quadratwurzel 60 = 0.03 C und dieser Wert wird nicht mit dem Wert einer anderen Station oder mit dem Wert für einen anderen Monat korreliert.

Ziffer [29] von B06 begründet diesen statistischen Ansatz damit, dass die monatlichen Temperatur-Aufzeichnungen der Bodenmessstationen als Summe aus einem konstanten Mittelwert plus Wetter-Rauschen verstanden werden. “Die Messstationstemperatur jedes Monats während der Normalperiode kann als die Summe zweier Komponenten betrachtet werden: einem konstanten Stationsnormalwert (C) und einem zufälligen Wetterwert (w, mit der Standardabweichung ?i).“ Diese Beschreibung und der Ansatz einer Reduktion von 1 / Quadratwurzel 60 als Messungsrauschen zusammen bedeuten, dass hier statistisch eine Mittelwertbildung des Signals der monatlichen Temperaturen vorgenommen wird.…

..Die „Freiwilligen“ und ich werden erwähnt (Anm. d. Ü.: Es handelte sich um ein Freiwilligen- Team, das unter Anthony Watts Anleitung die meisten U.S.-amerikanischen Bodenwetterstationen auf mögliche verfälschende Umwelteinflüsse untersuchte):

Die Güte einzelner Bodenmessstationen wird für die Vereinigten Staaten vielleicht am besten durch die empfehlenswerten und ausgezeichneten unabhängigen Auswertungen durch Anthony Watts und sein Freiwilligenkorps untersucht. Die Ergebnisse sind öffentlich zugänglich unter: http://www.surfacestations.org/. Ihr Ausmaß umfaßt das gesamte Netz der USHCN Bodenmessstationen. Danach verdienten 69% der USHCN Stationen eine Stationsbewertung von “schlecht” (poor) und weitere 20% nur ein “ausreichend” (fair) [26]. Aus dieser und begrenzteren veröffentlichten Untersuchungen von Stationsmängeln [24, 27-30] geht hervor, wie weit entfernt von „ideal“ die Güte der Stationsmessungen in den Vereinigten Staaten sind. In Europa hat eine kürzliche weitflächige Analyse der Güte von Stationsdatenreihen im Rahmen des European Climate Assessment [31] überhaupt keine Untersuchung der individuellen Stations-Sensorabweichungen erwähnt und ausgesagt: “es kann nicht garantiert werden, dass jede Temperatur- und Niederschlagsserie für Dezember 2001 genügend homogen ist in Bezug auf die tägliche Mittelwertbildung und Abweichung.“

Also, es hat offensichtlich nie eine Auswertung weder der Abweichung des Temperatursensor-Rauschens noch der stationsbezogenen Abweichungen stattgefunden für diejenigen Messstationen stattgefunden, deren Messungen in die globale Mittelwertbildung eingehen. Schlechte Stationsgüte wurde größtenteils denjenigen Stationen bescheinigt, die unabhängig untersucht worden sind. Schließlich haben Lin und Hubbard nachgewiesen [35], dass variable Bedingungen im Feld eine nicht-lineare systematische Auswirkung auf das Messverhalten der Sensorelektronik ausüben. Das deutet auf wahrscheinliche nicht-stationsbezogene Rauschvarianzen in den Zeitreihen der Temperaturmessungen der jeweiligen Bodenstationen hin.

4. Zusammenfassung und Ergebnisse

Die Annahme eines globalen stationseigentümlichen Sensor-Rauschens ist empirisch noch nicht überprüft worden und noch nicht bestätigt. Die geschätzte Unsicherheit im Rauschens setzt sich eher mit fort als mit . Die Unsicherheit in den monatlichen Mittelwerten würde außerordentlich vermindert, wenn die Positionierung der Bodenmessstationen verbessert würde und die Varianzen des Sensor-Rauschens bekannt, überwacht und empirisch als stationseigentümlich verifiziert würden.

Die Untergrenze der Unsicherheit von ±0.46 C zeigt, dass der Trend der gemittelten globalen Temperatur-Anomalien zwischen 1880 und 2000 statistisch nicht von 0 C auf der 1? – Ebene unterschieden werden kann. Daher ist die Schlussfolgerung unabweisbar, dass es derzeit unmöglich ist, einen globalen Erwärmungstrend des Klimas seit 1880 zu quantifizieren.

Das Papier kann vom Verlag Multi-Science bezogen werden: 

Ich bitte jeden, der diese Arbeit schätzt und mehr wissen will, den Verlag durch den Kauf einer Kopie des Papiers über die oben angegebene Adresse zu unterstützen.

Glückwünsche an Herrn Frank für sein schwere Arbeit und die erfolgreiche Publikation. Ich bin sicher, dass seine Arbeit noch zitiert werden wird.

Bei Jeff Id bei Air Vent gibt es eine technische Diskussion darüber, die einen Besuch wert ist.

Antony Watts

Zu einer vergleichbaren Aussage kommt R. Lindzen bei seiner Aussage vor dem Senatsausschuss 2007: (Seiten 10,11 & 12)

Die Übersetzung besorgte Helmut Jäger




Energierationierung in Friedenszeiten vorbereitet: Parlament verabschiedet Gesetz zur Erfassung des Energieverbrauches aller Bürger.

Zuvor war nämlich ein noch ehrgeizigeres Gesetz – ebenfalls zur „Effizienzsteigerung“ wie es im damaligen Gesetzestext verharmlosend hieß[1]– noch im März 2009 von der damaligen schwarz-roten Regierung bzw. deren Umweltminister Gabriel als Kabinettsvorlage eingebracht worden. Es sah vor, dass zuerst die Energiemenge, die ein jeder in diesem Land verbraucht, zu erfassen sei, um dann per neu einzurichtender Überwachungs- und Sanktionierungsbehörde in jedem Jahr diese neu zuzuteilen. Natürlich nicht, soviel wie ein jeder verbrauchen wollte, sondern jedes Jahr 1% weniger als im Jahr davor.  Dieses Gesetz wurde nicht etwa entrüstetet von Kanzlerin Merkel und ihren Kollegen im Kabinett als Angriff auf die Freiheit und Demokratie zurückgewiesen, sondern nur auf später vertagt.

Wie die Kollegen Maxeiner & Miersch schon im März 2009 voraussahen, wurde es nur in der wohl begründeten Hoffnung zurückgestellt, dass es über den Umweg einer EU-Richtlinie wieder als deutsches Gesetz auftauchen würde. Und das ist nun geschehen. Die erste Stufe wurde gezündet und als „alternativlos“ von den federführenden Beamten des Ministeriums eingestuft.

Zur Begründung führen sie aus:

Die Richtlinie 2006/32/EG verfolgt den Zweck, die Effizienz der Endenergienutzung in den Mitgliedstaaten kostenwirksam zu steigern. Sie verpflichtet unter anderem zur Festlegung eines generellen nationalen Einsparrichtwerts und zum Erlass kostenwirksamer, praktikabler und angemessener Maßnahmen, die zur Erreichung dieses Ziels beitragen sollen. Insbesondere sollen die erforderlichen Mechanismen, Anreize und die institutionellen, finanziellen und rechtlichen Rahmenbedingungen zur Beseitigung vorhandener Markthindernisse und –mängel, die der effizienten Endenergienutzung entgegenstehen, festgelegt werden sowie die Voraussetzungen für die Entwicklung und Förderung eines unverzerrten Marktes für Energiedienstleistungen und für die Erbringung von anderen Maßnahmen zur Verbesserung der Energieeffizienz für die Endverbraucher geschaffen werden.

Im verschrobenen Bürokratendeutsch wird da angekündigt, dass mit diesem Gesetz der freie Markt abgeschafft werden soll, sorgfältig umschrieben mit der angestrebten…“ Beseitigung vorhandener Markthindernisse und –mängel“

Dann wird unverdrossen auf die öffentliche Hand als „Vorbild“ gesetzt und in der Begründung behauptet: Die öffentliche Hand habe bei der Steigerung der Energieeffizienz eine Vorbildfunktion zu übernehmen…

Um dann die Katze aus den Sack zu lassen:  

„…Sie hat dafür zu sorgen, dass Energieeffizienzmaßnahmen ergriffen werden, deren Schwerpunkt auf kostenwirksamen Maßnahmen liegt, die in kürzester Zeit zu umfassendsten Energieeinsparungen führen.“

Das heißt, die Bürger müssen und dürfen gezwungen werden, in kürzester Zeit umfassendste Energieeinsparungen durchzuführen. Und damit das auch klappt werden für

..Energieverteiler, Verteilernetzbetreiber und Energieeinzelhandelsunternehmen (sind) besondere Verpflichtungen vorgesehen, um die Voraussetzungen für die Entwicklung und Förderung eines Marktes für Energiedienstleistungen und für die Erbringung von anderen Maßnahmen zur Verbesserung der Energieeffizienz für die Endverbraucher zu schaffen. Hierzu gehören insbesondere Informations-, Förder- und Sicherstellungsverpflichtungen. Diese Unternehmen sind auch zur informativen Abrechnung des Energieverbrauchs zu verpflichten.

Dies alles muss natürlich auch überwacht werden, wozu die wackeren Bürokraten gleich eine neue Behörde einrichten wollen. In der Begündung dazu heißt es :

„…Die Erfassung und Unterstützung der Erreichung der Ziele wird einer Bundesstelle für Energieeffizienz übertragen. Diese wurde bei dem Bundesamt für Wirtschaft und Ausfuhrkontrolle eingerichtet (BAFA). Sie nimmt gebündelt Aufgaben zur Umsetzung des Gesetzes wahr. Hierzu gehören u. a. die Beobachtung des Marktes für Energiedienstleistungen und andere Energieeffizienzmaßnahmen, die Bereitstellung von Informationen sowie zur Erarbeitung von Vorschlägen für den Fall, dass die Marktkräfte zur Schaffung eines Marktes für Energiedienstleistungen nicht ausreichen

D.h. falls die Kräfte des zuvor abgeschafften Marktes nicht ausreichen sollten, was mit Sicherheit aus Sicht der neuen Behörde eintreten wird, dann darf diese Vorschläge erarbeiten, welche die Bürger zwingen und ggf. sanktionieren werden, um die ehrgeizigen Ziele zu erreichen. Das wäre dann die im Ursprungsgesetz von Ex-Minister Gabriel im März 2009 vorgesehene Rationierung von Energie , wie sie auch später im schwarz-gelben „Energiekonzept“ der Bundesregierung vom September 2010 – wenn auch verschlüsselt- vorgesehen ist. Und dies alles winken unsere Volksvertreter so einfach durch. Ob sie wirklich wussten was sie taten? Wenn ja, dann haben sie ihren Wählern und allen Bürgerinnen und Bürgern dieses Landes einen Bärendienst erwiesen! Und wenn nicht, wozu sind sie denn da? Wahrscheinlich erfüllt sich wieder einmal das weise Wort Tucholskys: „Wenn man durch Wahlen die Politik ändern könnte, dann wären diese längst verboten „

Das Gesetz können Sie hier einsehen. Die undefinedBegründung hier herunterladen. Wer an seine Abgeordnete oder  Abgeordneten eine Mail schreiben will findet hier seine/ihre Mailadresse.

Michael Limburg 

Mit Dank an Spürnase Konrad Fischer


[1] Details dazu hier http://www.eike-klima-energie.eu/news-anzeige/bundesumweltminister-will-energie-rationieren-neue-wege-zum-ueberwachungsstaat-dank-der-grossen-transformation/?tx_ttnews%5BpS%5D=1277758290&tx_ttnews%5Bpointer%5D=24 und hier http://www.welt.de/debatte/kolumnen/Maxeiner-und-Miersch/article6058207/Hurra-der-Umsatz-sinkt.html

 




Phoenix-Runde: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck! Teil I

Illustre Namen von Leuten – die sonst kein Mikrophon ohne Statement zum Thema Klima an sich vorbeigehen lassen – waren kontaktiert worden. Es hagelte reihenweise Absagen. So auch die vom bereits fest gebuchten Dr. Oliver Geden von der Stiftung Politik & Wissenschaft. Die Redakteure telefonierten sich die Finger wund, bis schließlich drei Freiwillige gefunden waren. Nun sollten Prof. Dr. Andreas Bott (Meteorologe, Uni Bonn), Severin Fischer (Klimaexperte am Institut für Europäische Politik), sowie  Stefan Krug, ein Aktivist von Greenpeace die Runde vervollständigen. Die Moderation der Sendung hatte Alexander Kähler von Phoenix.

Kurz vor der vorgesehenen Aufzeichnung platzte der Betreuer der Sendung mit der Hiobsbotschaft herein, jetzt hätte auch der Aktivist des Medienkonzerns Greenpeace abgesagt. Guter Rat war teuer, man hätte alle NGO´s abtelefoniert, WWF, Greenpeace, BUND, etc. – dann endlich, wenige Minuten vor Aufzeichnung, erwischte man die attac Aktivistin Kathrin – „ich bin die Kathrin- Henneberger“ -. nach eigener Bekundung freie Klimaschützerin und als Aktivistin und Frau schon zwei mal bei Frau Illner zu Gast. Die sagte spontan zu. Eine illustre Runde.

Die Sendung kann man sich hier anschauen. Wir danken Phoenix für die Genehmigung sie auf unserem Blog zu zeigen. In dieser Sendung wurden viele Behauptungen aufgestellt, die wichtigsten werden einem Faktencheck unterzogen.


Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

Lüge ist  viel­leicht nicht das rich­ti­ge Wort…..

Die Run­de sprang schnell von The­ma zu The­ma. Mit­un­ter wur­de auch schon mal der EIKE Ver­tre­ter als Lüg­ner be­zeich­net, und der Mo­de­ra­tor hielt mä­ßig – aber im­mer­hin – da­ge­gen, als er mein­te „Lüge ist  viel­leicht nicht das rich­ti­ge Wort, wenn man ge­gen­sätz­li­cher Mei­nung ist“. Doch zu­ge­ge­ben, bei so­viel kon­tro­ver­sen The­men und Be­haup­tun­gen ist es für nie­man­den leicht den Über­blick zu be­hal­ten, oder sich gar ein Ur­teil zu bil­den. Wir ha­ben uns des­halb zu ei­nem aus­führ­li­chen Fak­ten­check ent­schlos­sen. Zur leich­te­ren Über­prü­fung ha­ben wir die Mi­nu­ten (die Zah­len in Klam­mern) auf­ge­führt, in de­ren Nähe die Be­haup­tung (nicht im­mer wört­lich wie­der­ge­ge­ben) ge­äu­ßert wur­de.

1. Be­haup­tung: Käh­ler (0:53) „Das Eis an den Po­len schmilzt den­noch. „

Die­se Be­haup­tung ist schlicht falsch.

Beispiel Arktis: Das Eis in der Ark­tis schrumpft und wächst rythmisch, z.Zt. wächst es wie­der, im na­tür­li­chen Rythmus der Jah­reszeiten. Ge­gen­über ei­nem lang­jäh­ri­gen Tief­stand im Sommer 2007 – wie er ähn­lich zuvor auch schon in den 50er und 30 Jah­ren des vorigen Jh. vorhanden war –  hat die Eis­be­de­ckung in der Ark­tis um fast die dop­pel­te Flä­che der Bun­des­re­pub­lik zu­ge­nom­men. Im November 2010 erreichte die arktische Eisbedeckung sogar den höchsten Stand seit Ende der siebziger Jahre. Ein Umstand der weder vom Moderator noch von den Qualitätsmedien zur Kenntnis genommen noch über den berichtet wurde.

Die Ab­bil­dung 1 zeigt – über­ei­nan­der ge­legt – die jähr­li­chen sai­so­na­len Schwan­kun­gen der Eis­be­de­ckun­gen der Ark­tis aus der  AMSR Da­ten­bank. Man erkennt die Zunahme gegenüber 2007 um ca. 500.000 km2

Beispiel Antarktis: Schaut man sich die Ant­ark­tis an, ist dort sogar von irgendeiner Schmel­ze über­haupt kei­ne Rede. Bei ei­ner Durch­schnitts­tem­pe­ra­tur von -35°C auch schlecht mög­lich. Das Eis der Ant­ark­tis wächst, weil die Ant­ark­tis (in ih­rem Win­ter) noch nie so kalt war [1]. Die auf Stelzen erbaute neue Neumeyerstation musst deswegen schon mal angehoben werden.

(Meldung Faktum hier 19. Juli 2010/fa.)

– Zum ersten Mal seit dem Bestehen der deutschen Antarktisstation Neumayer fiel die Temperatur am 8. Juli 2010 unter die -50°C-Marke. Es ist die extremste Winterkälte in der Region seit mindestens 29 Jahren. Eine solche Kälte erlebten die elf Wissenschaftler vom „Alfred-Wegener-Institut für Polarforschung“ in Bremen auf ihrer Forschungsstation „Neumayer III“ in der Antarktis noch nie. Minus 50,2 Grad Celsius unter Null erschweren die Arbeiten auf der Forschungsstation. Solche Extremereignise sind eine Herausforderung an Mannschaft und Material. So lassen sich bei dieser Kälte Motoren kaum mehr betreiben. Bereits im Jahr 2008 erlebten die elf Forscher eine vergleichbare Extremkälte. Die Minus-50-Grad-Grenze wurde damals aber nicht erreicht, der tiefste Kältepunkt lag bei Minus 48,8 Grad Celsius. Der bisherige Kälterekord vom Juni 2008 wurde jetzt um 1.4°C unterschritten.“

Mit Dank an Leser T. Lutz

2. Waren die Änderungen der (Anomalien der) globalen  Mitteltemperatur ungewöhnlich, oder gar dramatisch?

O-Ton Bott : Die Zei­chen gro­ße Kli­ma­än­de­run­gen sind er­kenn­bar. Dies wird seit Jah­ren von Klima-Wissenschaftlern „pro­phe­zeit“ (1:43)  …. ihn „ängstigt“ ein dramatischer Anstieg … in den letzten 20 – 30 Jahren definitiv ein anthropogener Effekt. (5:40) … eine rasante Zunahmen (6:15)

Dagegen Limburg (6:40): der Mittelwert der globalen Welttemperatur (7:19) zeigt 3 Anstiege, (alle) gleich hoch und gleich (steil) in den vergangenen 150 Jahren.

Will man überhaupt auf die Aussagekraft eines globalen Mittelwertes mit Änderungen im zehntel Grad Bereich bauen – bei Extremwerten auf eben dieser Erde von -89 ° C in der Antarktis, bis zu + 70 °C in der iranischen Wüste, mit Durchschnittswerten von ca. 30 ° C in manchen Tropen- und Subtropengebieten -, dann sollte man sich zumindest den gesamten Verlauf ansehen.

 

Abbildung 2: offizielle IPCC Grafik AR4 des Verlaufs des Temperaturanomalie, bezogen auf 1961-1990 der globalen Mitteltemperatur. Man sieht deutlich gleich steile Anstiege von 1860 – 1880, von 1910-1940 und von 1975-1998. Letzterer ist überaus strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) wurden.

Die globale Mitteltemperatur ist in Abbildung 2 gezeigt. Die eingezeichneten Graden sprechen für sich.

Period Length Trend
(Degrees C per decade)
Significance
1860-1880 21 0.163 Yes
1910-1940 31 0.15 Yes
1975-1998 24 0.166 Yes
1975-2009 35 0.161 Yes

Die Tabelle (aus Watts up with that hier) zeigt die Werte nochmals als Trends errechnet.

Der Anstieg von 1975-1998 ist strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) (Eine ausführliche Untersuchung von A. Watts & J. Dá leo darüber – Surface Temperature Records: Policy Driven Deception?- finden Sie hier)  wurden. Diese Ansicht stützen auch die Arbeiten des Geologen undefinedProf. F.K. Ewert (EIKE), der über 800 weltweite Temperaturganglinien auf ihren absoluten Temperaturtrend hin untersucht hat, und dabei nur klärte: a) ist ein Trend vorhanden? Wenn ja? b) War er positiv oder negativ? Sein Ergebnis: Von 1990-2010 zeigten 50% aller Stationen weltweit keine Erwärmung oder Abkühlung, 28.8 % eine Erwärmung (ohne Stadterwärmungseffekt) und 16,4% eine Abkühlung. Die Arbeit betrachtete auch den gesamten Trend. Sein Ergebnis: Von 1880-2010 zeigten 74% aller Stationen weltweit keine Erwärmung oder Abkühlung, 5,1 % eine Erwärmung (ohne Stadterwärmungseffekt) und 3,8% eine Abkühlung [2].

Limburg weiter: (7:40) Den letzten Anstieg zeigen Satelliten nicht. Terrestrische Daten zeigen ihn, die Aus­wahl der Sta­ti­o­nen war sehr se­lek­tiv.

Abbildung 3 zeigt den Temperaturverlauf der UAH Satelliten in der mittleren Troposphäre zusammen mit dem Anstieg der CO2 Konzentration. Man sieht im Mittel einen geraden Verlauf bis 1998, dann 1198 sowie 2010 die El Niño Anstiege.

Die Abbildung 3 spricht für sich. Nach 1998 geht es sprunghaft auf leicht höherem Niveau ohne Trend* weiter Warum terrestrische Stationen trotzdem einen Anstieg zeigen, der nicht nur Prof. Bott so ängstigt, beantwortet die nächste Grafik. Sie zeigt die Zahl der weltweiten Stationen des Global Historical Network (GHCN) die – und das ist wichtig – von den ausführenden Instituten CRU, GISS und NOAA in die Auswahl genommen und dann zur Berechnung des statistischen Konstruktes Globaltemperatur herangezogen wurden (werden)

Abbildung  4: Anzahl und globaler Mittelwert (man beachte auch die Werte der linken Achse) der GHCN Stationen (von über 8000 Stationen, die Daten liefern), deren Daten in die Berechnung des globalen Mittelwertes der Temperatur einfließen. Deutlich zu sehen der starke Abfall der Zahl der Stationen ab 1990 (Zusammenbruch der Sowjetunion), bei zeitgleichem sprunghaften Anstieg der globalen Mitteltemperatur (Quelle, siehe Bild).

Wie in Abbildung 4 zu sehen, steigt die globale Mitteltemperatur ab 1990 sprunghaft an. Zeitgleich sinkt die Zahl der ausgewerteten Stationen ebenso sprunghaft. Die Ursache liegt einerseits in einer (aus wirtschaftlichen Gründen) erfolgte Aufgabe ländlicher (ruraler) Stationen, zum anderen in einer bevorzugten Auswahl von Stationen in wärmeren Gebieten und dort überwiegend in Städten und/oder Flughäfen. Diese Selektion wurde bis heute fortgesetzt, so dass heute nur noch ca. 1100 Stationen weltweit  beitragen. Davon stehen über 40 % auf Flughäfen unter dem Einfluss der Erwärmung durch die Turbinen startender Fluszeuge. Man hat also in erster Linie die Zunahme des weltweiten Flugverkehrs seit 1960 gemessen. Mit Klimaerwärmung hat das nichts zu tun.

3. Wenn es die NGO´s nicht gegeben hätte dann wäre es noch schrecklicher

O-Ton Henneberger: Wenn es die NGO´s nicht gegeben hätte, dann wäre es noch schrecklicher (4:07).

Kähler (43:35): Wann haben wir einen echten Klimaschutz? (43: 48)

Bott: Es werden viele große Schäden angerichtet, viele Menschenleben, die es kosten wird, weil zu wenig getan wird.

Fischer: (44:23) Das Risiko ist viel zu groß, wenn wir Herrn Limburg und seinen Kollegen trauen…

Hier wird in beredten Worten von überstandenen Katastrophen (wäre alles noch viel schrecklicher…)  bzw. der großen Gefahr zukünftiger Katastrophen das Wort geredet. Diese gilt es unter allen Umständen zu vermeiden, so der gemeinsame Nenner von Bott, Henneberger, Fischer.

Gemeint sind vermutlich Wetterextreme, wie Stürme, Überschwemmungen und/oder Sturmfluten, Dürren (auch mit Waldbränden), wie wir sie  immer wieder – auch in jüngster Zeit – erlebt haben. Keine Frage: Extreme Wetter sind für die Betroffenen immer schlimm. Und mit zunehmender Zahl der Menschen, sowie rasanter Zunahme ihres Wohlstandes, werden diese auch immer teurer, sowohl was die Zahl der Betroffenen angeht, als auch in der Höhe der Schäden. Die Frage muss aber lauten: Werden sie auf Grund des postulierten Klimawandels mehr und/oder  stärker, oder ist eher das Gegenteil der Fall? Niemand, schon gar nicht Prof. Bott, hat hierzu die Sachstandsberichte des IPCC konsultiert, die von jedermann aus dem Internet heruntergeladen werden können (www.ipcc.ch). Im Sachstandsbericht vom Jahre 2001 ist ein sehr umfangreiches Kapitel 2.7 genau der hier diskutierten Problematik gewidmet, Ergebnis: „Nichts!“. Es gibt die von Prof. Bott beschworenen Znahmen nicht, was im Übrigen die gesamte meteorologische Literatur bestätigt. Und bis heute hat sich daran nichts geändert, 7 Jahre sind ohnehin bezogen auf Klimazeiträume (30 Jahre mindestens) zu kurz für neue Aussagen über die des IPCC-Berichts von 2001 hinaus.

Auch der Meteorologe und Physiker K.E. Puls (EIKE Pressesprecher) forscht seit langem über das Thema: Gibt es eine anthropogen bedingte Zunahme von Extremwettern? Gibt es überhaupt eine Zunahme?

Die Antwort wurde u.a. auf dem III. Internationalen Klima- und Energiekongress in Berlin gegeben. Schade nur, dass keiner der andern Gäste von Phoenix dort anwesend war. Die Antwort ist unmissverständlich. Es gibt keine Zunahme, weder anthropogen, noch generell. In vielen Fällen ist sogar eine Abnahme zu verzeichnen. Dies ganz im Gegensatz zu immer wiederkehrenden Medienberichten. Abbildung 5 zeigt einen Auszug aus diesem Vortrag.

Abbildung 5 : Auszug aus dem Vortrag von K. E. Puls über den Verlauf von Stürmen in der deutschen Bucht, dem Winter NAO Index des Lufdruck Gradienten etc. Überall sind Abnahmen erkennbar. Wer den Vortrag liest, wird erkennen, dass dies für alle Teile der Welt, also auch für Tornados, Hurricanes und anderes gleichermaßen gilt. Den gesamten Vortrag von K.E. Puls mit dem treffenden Titel:

„Klimawandel  : Katastrophe ohne Wetter-Signale ?“

finden Sie hier: undefinedPuls

Auch Jochem Marotzke, Direktor MPI HH Max-Planck-Instituts[8] (Hamburg):, befand in DER SPIEGEL, 7.5.2007, „Abschied vom Weltuntergang“,  S.145  „In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen„.

Wird fortgesetzt:

Michael Limburg EIKE

* Einige Leser werfen mir vor, nicht die „Lower Troposphere Grafik“ gezeigt zu haben. Darin ist der Sprung ab 1998  höher (0,2K statt ca. 0,04 K) Es kam mir jedoch darauf an, zu zeigen, dass kein Trend vor und nach 1998 zu verzeichnen ist. Durch den sehr starken El Niño 1998, sorgte die Trägheit der Ozeane für das höhere Niveau für die Zeit danach.


[1] Man sehe hier: http://www.focus.de/wissen/wissenschaft/natur/neumayer-station-kaelterekord-in-der-antarktis_aid_530799.html

[2] Sie finden diese Arbeit als .ppt Datei (ganz nach unten scrollen Hier: http://www.eike-klima-energie.eu/news-anzeige/klima-realismus-in-berlin-die-3-internationale-klima-und-energiekonferenz-erfolgreich-beendet/




Das ZDF- der Klimawandel- und die Wahrheit: Mit dem Zweiten diffamiert man besser!

Und mit dieser Grundhaltung nahm man sich die "Klimaskeptiker" von EIKE vor. (Hier finden Sie den Beitrag) In der Anmoderation von Frau Petersen – im allgemeinen einen von ihrem Chef vorgeschriebenen Text ablesend- wurde der Kurs schon mal festgelegt. Maliziös lächeln durfte sie allerdings noch selber.

Die  allermeisten Klimafoscher weltweit -so ihre schon irreführende Ansage- ringen in Cancun darum, zu retten was zu retten ist. Schließlich drohe doch der Meeresspiegel zu steigen, die Globaltemperatur ebenso, allerdings sähen die "Leugner" – Originalton Petersen- dies völlig anders.  Dann ging der Beitrag los und der Sprecher bemühte sich jede Menge Häme und Diffamierung zu verbreiten. Es wurden -die "überwiegend älteren Herren" gezeigt, der Geologe Ewert wurde ohne jeden Zusammenhang  über das Mittelalter zitiert, um dann übergangslos auf den Starklimafolgenforscher Stefan Rahmstorf umzuschalten. Der durfte dann mehrmals über die ungeliebten Klimarealisten herziehen. Diese wichen einer wissenschaftlichen Diskussion immer aus, jedwede Einladung an sie bliebe unbeantwortet, sie bedienten nur die Laien mit plausiblen aber falschen Argumenten, und sie würden ihre Arbeiten nicht in anerkannten Journalen veröffentlichen. 

Nun, Herr Rahmstorf scheint nicht auf dem Laufenden zu sein. Die Filmemacher hätten ihn z.B. nach wenigen Recherchen oder Telefonaten korrigieren können mit  der Mitteilung, dass Rahmstorf und Kollegen bisher jeder kontroversen Diskussionrunde ausgewichen sind. Wie auch jetzt wieder bei einer geplanten Sendung von Phoenix. Sein Kollege Schelllnhuber tut es ihm gleich und verglich sich dazu schon mal mit Albert Einstein, der seiner Meinung nach auch nicht bei Frau Illner auftreten würde. Auch blieb Rahmstorf verborgen, dass jedes Jahr wissenschaftliche Klimakongresse der Realisten, vorwiegend in den USA, stattfinden. Sie werden von hunderten internationaler Top-Wissenschaftler besucht. Der letzte fand im Mai d.J. in Chicago statt. Man zählte um die 700 Teilnehmer. Wissenschaftler aus der Alarmistenscene werden grundsätzlich eingeladen. Manchmal kommen auch einige. Nur Schellnhuber, Rahmstorf oder Edenhofer wurden bisher nicht gesichtet.

Aber, weil die Verweigerung offensichtlich nicht mehr geht, hat nun PIK Chef Schellnhuber, die Wissenschaftler von EIKE offiziell zu einem wissenschaftlichen Workshop eingeladen, der jetzt für den März kommenden Jahres terminiert wurde. Gut möglich, dass Rahmstorf darüber nicht informiert wurde. Auch seine Aussage, dass die Klimarealisten (im Originalton "Skeptiker") ihre Arbeiten nicht in anerkannten Fachjournalen veröffentlichen würden, ist schlicht falsch. Es kann aber gut sein, dass Kronzeuge Rahmstorf diese Fachaufsätze einfach nicht zur Kenntnnis nimmt, sie daher nicht kennt. Im Standardwerk des NIPCC " Climate Change Reconsidered"(http://www.nipccreport.org/), einer Zusammenfassung des derzeitigen Stands der Klimaforschung aus realistischer Sicht, sind viele tausend Literaturangaben enthalten. Die Website "Popular Technology Net" listet über 800 solcher Studien auf. (http://www.populartechnology.net/2009/10/peer-reviewed-papers-supporting.html)

"Ri ra rum – wer nicht liest bleibt dumm" könnte man in Anlehnung an das berühmte Liedchen in der Sesamstraße singen. So betrifft es diesmal den Klimaforscher Rahmstorf und die gläubigen Filmemacher.

Der Beitrag arbeitet sich dann an der Tatsache ab, dass der Sitz von EIKE in Jena nur ein Postfach ausweist. So als ob 30 Jahre Entwicklung der Kommunikationstechnik spurlos an den Autoren vorbeigegangen ist. Wo steht denn geschrieben, dass ein vollwertiges Institut immer in einem vornehmen Glasgebäude sein muss? Sicher, da haben es die mit Staats- und Firmengeldern finanzierten Institute der Alarmisten einfach besser. Da kann EIKE nicht mithalten. Wir arbeiten alle – der Präsident eingeschlossen-  von unseren Homeoffices aus. Schade nur, dass der vermeintliche Geldsegen, den der Thinktank Cfact im Jahre 1998 bis 2000 von Exxon erhalten haben soll, an EIKE spurlos vorüber ging. EIKE verwendet seine knappen Mittel eben nicht für aufwendige Büros, sondern lieber zur Organisation von Kongressen und Vorträgen. Und das mit jedem Tag erfolgreicher. Not macht eben erfinderisch.

Bleibt zum Schluss noch die immerwiederkehrende Litanei von den 97 % der Klimaforscher weltweit, die die Katastrophe unvermeidlich kommen sehen. Sie geht zurück auf Zitate im ehemaligen Nachrichtmagazin "Der Spiegel", der sich seinerseits auf die Literaturwissenschaftlerin und Klimaktivistin Naomi Oreskes beruft, von der man inzwischen weiß, dass sie die von ihr untersuchte wissenschaftliche Literatur nicht einmal ansatzweise gesichtet, sondern lediglich eine unvollständige Datenbankabfrage der Paper-Abstracts vorgenommen hat. Das Ergebnis war unbrauchbar, wie es z.B. der englische Anthropologe Dr. Benny Peiser detailliert nachwies. Oreskes suchte für Ihre Studie in wissenschaftlichen Netzwerken (ISI database) nur mit den drei Schüsselwörtern  "global climate change" nach. Dies lieferte ihr ungefähr nur 1/10 der Literatur, die zum allgemeineren Schlüssel "climate change" passt, so dass 9/10 außen vor blieb. Dr. B. Peiser, Anthropologe in Liverpool, untersuchte die Studie und befand sie auf Grund der vielen Fehler als unbrauchbar. 

Peiser merkt an: "Oreskes behauptet, 928 Abstracts analysiert zu haben, die sie auf der ISI-Datenbank mit dem Stichwort „climate change“ für die Jahre 1993 "- 2003 gefunden hat. Doch eine Suche auf der ISI-Datenbank unter voller Verwendung dieser Schlüsselwörter zeigt, dass fast 12.000 Arbeiten in den fraglichen zehn Jahren dort veröffentlicht (2) wurden. Zahllose Forschungsarbeiten über die folgenden Themen blieben beispielsweise unberücksichtugt: Ähnliche oder sogar höhere globale Temperaturen während des Holozäns und des Klimaoptimums der Mittelalterlichen Warmzeit  mit niedrigeren atmosphärischen CO2-Gehalten als heute / Variabilität der Sonne als wesentlichem Treiber des jüngsten Klimawandels / Ungewissheiten der Klimamodellierung usw.“

Entsprechende Einwände wurden an Oreskes auch vom Wissenschaftsjournalisten David Appell gerichtet, und am 15. Dezember 2004 gab schließlich Oreskes zu, dass ihr Science Essay voller Fehler war. In einer betreffenden E-Mail von Dr. Peiser (link s.o.) an die Fachzeitschrift Science heißt es: „Da ich die Ergebnisse der Studie von Oreskes als fraglich ansah, beschloss ich, sie zu wiederholen.“ Bei seinem Versuch diese Wiederholung in Science als Korrektur zu veröffentlichen, stieß Peiser jedoch auf eiserne Ablehnung.  Der Telegraph UK hat sich der Geschichte unter der Überschrift  "Leading Scientific Journals are "Censoring Debate About Global Warming" angenommen. (Peiser nahm daraufhin Stellung zu Versuchen seine Ergebnisse umzuinterpretieren). Der Redaktion des SPIEGEL ist dieser Sachverhalt übrigens seit unserem Schreiben vom Februar 2009 bekannt (Realitätsverlust beim SPIEGEL ONLINE).

Darüberhinaus berichteten die Autoren der "Dokumentation" mit keiner Silbe über die vielen, vielen Beiträge von internationalen Top-Wissenschaftlern auf der 3. internationalen Klima- und Energiekonferenz.  Denn hätte man dies getan, dann hätte man sich ja sofort ad absurdum geführt. Das durfte nicht sein. Also diffamierte man was das Zeug hielt und nennt es dann Dokumentation.

Fazit: Mit diesem Beitrag hat das ZDF seine per Rundfunkgesetz zwingend vorgeschriebene Pflicht zur ausgewogenen, neutralen und objektiven Berichterstattung auf das Gröbste verletzt. Ob es damit den Zuschauerschwund aufhalten kann, ist fraglich. Eine Gegendarstellung wäre das Mindeste was die Verantortlichen bringen müssen. 

Wer sich beim ZDF zu Sendung äußern will, kann dies hier tun

Die Emails der Verantwortlichen lauten: Dr. Claus Richter: richter.c@zdf.de, Hilke Petersen: petersen.h@zdf.de

Die Sendung kann hier  gesehen werden: Und hier eine ergänzte Version, wo die gröbsten Schnitzer fernsehkommentatorisch widerlegt werden (Als Anhang zur Sendung). Mit Dank an Rainer Hoffmann

Michael Limburg EIKE