Verzweifelt: Wie „Top-Wissenschaftler“ versuchen das Zwei-Grad-Ziel zu rechtfertigen – und scheitern!

Der Artikel verdeutlicht das Dilemma der Klimaforschung. Es wird nicht nur real seit knapp 10 Jahren nicht mehr wärmer, auch der metaphorische Wind, der den Klimaforschern ins Gesicht weht wird immer schärfer. Denn: Wenn selbst der Spiegel in dieser Form darüber berichtet, dann ist der Hype um den Klimawandel wohl endgültig vorbei. Ein Umstand, den die etablierte Klimaclique so verständlicherweise auf keinen Fall hinnehmen will.

Deutsche Top-Wissenschaftler und Berater der Bundesregierung üben scharfe Kritik am Spiegel-Artikel

Entsprechend scharf fiel die Antwort von drei führenden Köpfen der deutschsprachigen Klima-Alarmisten-Szene aus. Die Professoren Hans-Joachim Schellnhuber vom Potsdam-Institut für Klimafolgenforschung, Claus Leggewie vom Kulturwissenschaftlichen Institut Essen und Renate Schubert vom Institut für Umweltentscheidungen der ETH Zürich sparen in einer Replik, die jetzt in der Zeit erschienen ist, nicht an deutlichen Worten. Da sollen Medien von einer „bizarren Szene der Klimaskeptiker“ durch „intellektuelle Doppelmoral“ motiviert worden sein, der „etablierten Klimaforschung Falschaussagen in der Substanz vorzuwerfen“.

Das sind harte Vorwürfe, dem auf jeden Fall eine sinnvolle wissenschaftliche Begründung folgen sollte. Wer dies jedoch erwartet hatte, der wurde enttäuscht. Aussagen finden sich reichlich, wissenschaftliche Begründungen jedoch? Fehlanzeige.

Wenig wissenschaftliches von den Wissenschaftlern

Der Artikel wirft kein gutes Licht auf den Zustand unserer Wissenschaftslandschaft, sind die Autoren doch allesamt Mitglieder im Wissenschaftlichen Beirat Globale Umweltveränderungen (WBGU), und repräsentieren somit die Elite der Forscher in Deutschland. Erste Zweifel an deren Kompetenz stellen sich jedoch schnell ein, wird doch das fast komplette Scheitern in Kopenhagen beinahe als Erfolg verkauft, schließlich habe die Weltgemeinschaft mehrheitlich das 2-Grad-Ziel anerkannt. Eine etwas eigenwillige Darstellung, während der Rest der Welt recht einhellig von einem „Scheitern von Flopenhagen“ spricht.

Mit einer Gewissheit und Präzision, die wissenschaftlich durch nichts zu rechtfertigen ist, verkünden die drei Professoren: „Die bisher von 76 Staaten gemeldeten Maßnahmenpakete lassen eine menschgemachte Erderwärmung von 3,5 Grad Celsius bis zum Jahr 2100 erwarten.“ Erklärung oder Belege? Keine. So klingen vielleicht Politiker und Umweltaktivisten, aber keine Wissenschaftler.

Und auch sonst nehmen es die Autoren mit der Wissenschaft nicht so genau. Eine in vielen Augen längst widerlegte und zumindest höchst umstrittene Arbeit, die mittlerweile als eine Art Kronzeuge für schlechte Wissensschaft in der Klimaforschung gilt, wird von ihnen nach wie vor mit Zähnen und Klauen verteidigt. Gemeint ist der legendäre Hockeystick von Michael Mann, mit dem 1998 versucht wurde, die mittelalterliche Warmzeit zu eliminieren. Für die drei Professoren nach wie vor bester Stand der Wissenschaft.

Ewiggestrige nannte man solche faktenresistenten Hardliner schon bald nach dem Ende des Sozialismus. Und so werden die Menschen in einigen Jahren ähnlich kopfschüttelnd auf die Ausführungen der letzten “redlichen“ Klimaforscher schauen, wie sie es heute bei den Reden der letzten Regierung der DDR tun. Und so wie damals der Sozialismus nicht zu retten war, weil er ein ideologisch motiviertes, unbrauchbares System darstellte, so würde heute eine Reform des IPCC nichts daran ändern, dass der gesamte von der UN gelenkte Forschungsapparat von Grund auf dafür geschaffen zu sein scheint, politisierte Pseudowissenschaft zu fördern. Eine unabhängige und unparteiische wissenschaftliche Bewertung kann ein solches Gremium schon aus Prinzip nicht leisten. Dafür sind die Abhängigkeiten einfach zu groß.

Wissenschaftliche Begründung für die 2-Grad-Marke? Fehlanzeige

Aber zurück zu den drei Professoren und der Wissenschaft. Laut Aussage im Artikel wäre die, vom Spiegel als rein politisch bezeichnete, 2-Grad-Marke schon dadurch gerechtfertigt, dass „während der gesamten Entwicklungsgeschichte des Homo sapiens niemals höhere Temperaturen als »vorindustrielles Niveau plus zwei Grad Celsius« geherrscht haben“. Auch wäre seit „10000 Jahren die globale Mitteltemperatur nahezu konstant“ geblieben.

Eine äußerst kühne Behauptung, zeigen doch die meisten Temperatur-Rekonstruktionen aus diesem Zeitraum ein ganz anderes Bild.  Demnach hat es in den letzten 10.000 Jahren ganz erhebliche Schwankungen von teilweise mehreren °C in wenigen Jahrzehnten gegeben. Erkennbar ist dies unter anderem in den Eisbohrkernen aus Grönland oder aus Isotopenmessungen in Sedimenten und Tropfsteinhöhlen. Auch die Gletscher in den Alpen zeigen den Forschern in den letzten Jahren immer deutlicher, dass deren Ausdehnung mindestens zur Hälfte dieser Zeit geringer war als heute, dass es also in diesem Zeitraum dort deutlich wärmer war, als heute.

Dass es um eine wissenschaftliche Begründung der 2-Grad-Marke nicht zum Besten steht, haben auch die drei Autoren indirekt zugegeben: „Zwei Grad und nicht mehr – diese Orientierungsmarke lässt sich auf vielfältige Weise wissenschaftlich untermauern, aber natürlich nicht letztendlich beweisen.“ Was aber bitteschön ist ein wissenschaftliches Untermauern ohne stichhaltige Beweise?

Hans Joachim Schellnhuber, der im Spiegel als einer der Väter des 2-Grad-Zieles geführt wird, wird dort ganz anders zitiert: „Bei Überschreiten der Zwei-Grad-Grenze, so verkündete der deutsche Umweltminister Norbert Röttgen (CDU) vor dem gescheiterten Kopenhagen-Gipfel, ‚wäre ein Leben auf unserem Planeten, wie wir es bisher kennen, nicht mehr möglich‘. Doch das ist wissenschaftlicher Unfug. ‚Zwei Grad sind keine magische Grenze, das ist ganz klar ein politisches Ziel‘, sagt selbst Hans Joachim Schellnhuber, Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK). ‚Weder kommt es bei einer stärkeren Erwärmung sofort zum Weltuntergang, noch sind wir bei einer geringeren Erwärmung auf jeden Fall gerettet. Die Wirklichkeit ist natürlich viel komplizierter.‘“

Vor diesem Hintergrund ist das propagieren von 2 Grad als absoluter Grenze wohl höchstens besseres Raten auf höherem akademischem Niveau. Bei Maßnahmen, die nicht weniger als den vollständigen Umbau unserer technischen Zivilisation bedeuten, sollte jedoch etwas mehr erwartet werden, als das vage Bauchgefühl einiger besorgter Wissenschaftler.

Die Große Transformation

Worum es den Autoren wirklich geht, erfährt man auch im Artikel in der Zeit. Denn, so schreiben die drei, selbst wenn der Klimawandel nicht wie prophezeit stattfinden würde, wären die von der Wissenschaft vorgeschlagenen Maßnahmen trotzdem von Vorteil. Sie sprechen dabei von einem Umbau der Gesellschaft, weg von fossilen Brennstoffen, hin zu einer „nachhaltigen“ Lebensweise.

Damit schreiben sie konsequent fort, was zwei von Ihnen (Schellnhuber und Leggewie) als  die „Große Transformation“ unserer Industriegesellschaft bereits im letzten Jahr gefordert haben (der ursprüngliche Ausdruck „globale Kulturrevolution“ wurde schnell wieder verworfen, er erinnerte wohl zu stark an gescheiterte Versuche den Menschen von oben verordnete Glückseligkeit zu bescheren). Bei einer Konferenz zur großen Transformation in Essen wurde im letzten Jahr auch die Frage aufgeworfen (und nicht abschließend beantwortet), ob Demokratien überhaupt noch die richtige Regierungsform darstellen, oder ob nicht mehr autoritäre Gesellschaftssysteme „flexibler“ auf die neuen Anforderungen reagieren können. Wenn man bedenkt, dass allein 4 der 8 Mitglieder des WBGU als  Vortragende an dieser Veranstaltung teilgenommen haben, dann entsteht durchaus der Eindruck, dass diese „Große Transformation“ mittlerweile so etwas wie einen Konsens im WBGU darstellt.

Was die „Große Transformation“ in der Praxis bedeutet, kann man schon heute bei den rasant steigenden Kosten für Energie erkennen. Energieintensiven Betrieben werden so lange die Produktionskosten erhöht, bis diese vollständig ins Ausland abwandern. Diese produzieren dann eben dort die Waren für uns – falls wir sie uns dann noch leisten können. Das verbessert unsere CO2-Bilanz, indem die Emissionen an einer anderen Stelle der Welt produziert werden. Global gesehen wird jedoch kein Gramm CO2 eingespart. Lediglich die Arbeitsplätze bei uns im Land sind danach „nachhaltig“ verschwunden.

Die Damen und Herren Professoren scheinen solche Details weniger zu stören. Wer über eine Professorenstelle ein sicheres Beamtengehalt mit Pensionsberechtigung bezieht, muss sich um die wirtschaftliche Zukunft unseres Landes wohl weniger Sorgen machen, als jene, die über ihre Arbeit in den produzierenden Betrieben das Gehalt auch der Professoren mit erwirtschaften. Diese hingegen können sich ihr Auskommen offensichtlich schon durch die Produktion möglichst vieler hohler Phrasen sicherstellen.

Wenn nichts mehr hilft wird das „Vorsorgeprinzip“ bemüht

Mangels vernünftiger wissenschaftlicher Begründungen wird dann einfach das Vorsorgeprinzip zur Rechtfertigung des 2-Grad-Ziels bemüht: „Wer das Vorsorgeprinzip über Bord wirft, weil er keine absolute Problemgewissheit vorfindet, ist töricht oder verantwortungslos.“ Das klingt engagiert und besorgt zu gleich. Ganz so, wie man es eben von einem Politiker erwarten würde, nicht aber von einem Wissenschaftler. Schließlich gibt es in der Wissenschaft kein „Prinzip der Vorsorge“. Es handelt sich dabei lediglich um einen griffigen PR-Slogan. Auch wenn das Vorsorgeprinzip 1992 auf dem „Erdgipfel“ in Rio de Janeiro einstimmig angenommenen angenommen und dadurch quasi zum globalen Richtlinie für umweltpolitische Entscheidungen erhoben wurde, handelt es sich dabei vor allem um ein Werkzeug, jegliche politische Willkür im Nachhinein zu rechtfertigen.

So wichtige Entscheidungen wie die Zukunft unserer Industriegesellschaft aber sollten vor allem auf einer fundierten Risiko-Nutzen-Analyse, anstatt auf diffusen Ängsten, beruhen. Die besten und am meisten detaillierten Informationen, die wir aus hunderten von Studien von tausenden Bohrlöchern, Kilometern von Eisbohrkernen und hunderttausende Wetterballon- und Sattelitenmessungen haben, zeigen uns aber, dass das Risiko einer katastrophalen Erwärmung äußerst gering ist und dass wir nur wenig von einer Reduktion der CO2-Emissionen profitieren würden. Und selbst wenn all die Katastrophenszenarien einträfen, wäre die seit Anbeginn der Zeiten vollzogene Anpassung nicht nur weitaus wirkungsvoller, sondern auch um Größenordnungen billiger, als alle Vermeidungsstratgien der großen Transformation.

Wenn der Beitrag der drei Professoren als Widerlegung des Spiegel-Artikels „Die Wolkenschieber“ gedacht war, dann ist dies gründlich daneben gegangen. Vielleicht sollte man auch der geistigen Elite in unserem Land mal wieder erklären, dass gute Absichten und ideologische Motive kein Ersatz für eine saubere wissenschaftliche Beweisführung sind.

Ein Kommentar von Rudolf Kipp, EIKE

Links

Der Spiegel – Die Wolkenschieber

FAZ – Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn

Novo Argumente – Diagnose: Klimafieber – Das “Zwei-Grad-Ziel”, dem sich die klimabesorgte Weltgemeinschaft unterzuordnen gedenkt, ist blanker Unsinn. Novo103 (11–12 2009), S. 54




Elektromobilität:Mit „nachhaltigem“ Unfug wird unserer Zukunft vernichtet: Maßlose Ressourcenverschwendung

Heutige Autos bestehen hauptsächlich aus Eisen/Stahl, Aluminium, Kunststoff, Kupfer (bis etwa 25 Kilogramm), Zink zur Stahlbeschichtung, Glas, Gummi und Gewebe für die Reifen sowie anderen Werkstoffen in kleinen Mengen. Wie Ulrich Grillo, Vorsitzender des Ausschusses Rohstoffpolitik im BDI in den VDI- Nachrichten beklagt, steuern wir auf eine Rohstofflücke zu. So steigt der Kupferanteil beim Elektroauto auf etwa 65 Kilogramm. Hinzu kommt die dafür geeignete Lithium- Ionenbatterie, die im Durchschnitt 50 Kilogramm Aluminium, 40 Kilogramm Kupfer, 10 Kilogramm Zink sowie Seltene Erden benötigen wird. Doch schon der Hybridantrieb treibt den Kupferanteil und das Wagengewicht in die Höhe. Beim milden Hybrid des Mercedes 400 sind es lediglich 75 Kilogramm, die der Basis aufgeschlagen werden müssen, bei stärkeren elektrischen Maschinen und größeren Batterien klettert das Zusatzgewicht erheblich höher und damit auch die Beanspruchung aller Bauteile. Die durch höheres Gewicht erzwungene schlechtere Beschleunigung muß durch den Elektromotor kompensiert werden. Energierückgewinn ist nur bei Verzögerung möglich. Bei konstanter Geschwindigkeit steigt dagegen der Rollwiderstand durch höheres Wagengewicht und damit der Verbrauch. „Zukunftsfähigkeit“ sieht anders aus. 

Dazu kommt, dass knapp die Hälfte der weltweit bekannten Lithiumreserven in einem bolivianischen Vorkommen liegen, zu dem China einen exklusiven Zugang anstrebt. Bei Seltenen Erden für Permanentmagnete  liegen 80 Prozent der Vorkommen auf chinesischem Boden und China strebt danach, auch die restlichen 20 Prozent zu kontrollieren, ebenso den Nickel- und Eisenerzmarkt. Der ungeheure Rohstoffbedarf Chinas habe seit 2004 den Schrottmarkt „leergesaugt“ berichtet Grillo und das würde noch schlimmer, weil China ab 2010 die Umsatzsteuer bei Einfuhr von Metallschrott erstatten wolle. Heute würden bei uns für die Metallproduktion gut 50 Prozent Schrott verwendet, bei Kupfer sind es etwa 54 Prozent. Der hohe Schrottanteil wäre wichtig, weil beim Metallrecycling gegenüber der Gewinnung aus Rohstoffen bis zu 95 Prozent der Energiekosten eingespart werden. Darum müsse Deutschland Sorge tragen, dass auch der Metallschrott in Deutschland bleibt. 

Elektroautos sollen mit „erneuerbarem“, also alternativem Strom aus Sonnendächern und Windmühlen betrieben werden. Der Energieexperte Professor Helmut Alt von der FH Aachen hat ausgerechnet, dass Benzin ohne Steueranteil rund 4 Cent pro Kilowattstunde kostet, Strom aus Sonnendächern 43 Cent und aus Windmühlen 12 Cent. „Wegen der begrenzten Stromspeicherfähigkeit heutiger Batterien müsste man im Winter auf die Autoheizung und im Sommer auf die Klimatisierung wohl komplett verzichten“ schreibt er. Wir fügen hinzu, dass der Elektromobilist möglichst auch nur am Tag fahren sollte und wenn es nicht regnet, um Strom für Licht und Scheibenwischer zu sparen. Die „Netzstützfunktionen“ durch Autobatterien nennt Alt „Spinnerei“. „Erneuerbare“ Energien (die natürlich nicht „erneuerbar“, sondern lediglich alternativ sind) und Elektroauto werden wohl für die meisten Autofahrer unbezahlbar sein“, schreibt Alt. Hinzu kommt, dass die künftigen Finanzminister mit absoluter Sicherheit dem fröhlichen Elektrotreiben nicht tatenlos zusehen werden, sondern den Strom zusätzlich mit Steuern belegen. Das Stromäquivalent von fünf Euro pro Liter Sprit wird dann ganz schnell überschritten (Alt) .

Es gibt nicht einen einzigen Grund auf den Verbrennungsmotor zu verzichten. Die Rohölreserven haben sich laut Esso von 2007 auf 2008 erneut leicht erhöht. Dabei ist das von BP entdeckte neue Erdölfeld im Golf von Mexiko und das vor Brasiliens Küste noch nicht eingerechnet. In Afrika sind gleich mehrere neue Erdölfelder entdeckt worden (FAZ vom 18.9.09.) Zudem wird der Kraftstoffverbrauch der neuen Autos weiter sinken, so dass auch der zusätzliche Bedarf von China und Indien allmählich seinen Schrecken verliert. Abgesehen davon kann der Transportsektor überhaupt nicht auf Dieselkraftstoff verzichten.  

Ist die Elektromobilität bereits eine sinnlose Ressourcenverschwendung und finanzielle Schreckensvision in der Zukunft, wird sie doch von den Windmühlen und Sonnendächern weit übertroffen. „Verdient Ihr Dach auch schon Geld?“ steht auf den Plakaten. Genau deshalb werden Solarzellen installiert, und der Stromkunde kann sich gegen die maßlose Einspeisevergütung nicht wehren. „Die Sonne schickt keine Rechnung“ heißt es. Sie nicht, aber der Stromversorger für eine Ware, die an Unzuverlässigkeit und miserablem Wirkungsgrad nicht mehr zu überbieten ist, wobei preiswerte Solarzellen zunehmend aus China kommen. Mit dem hochgelobten Wind steht es ebenso. Was wird da mit „installierten Leistungen“ geprahlt, die sich später als Windei präsentieren – und als Störfaktor. So erlebten wir in Mecklenburg im Spätsommer an einem sonnigen, aber windigen Sonntag einen Netzzusammenbruch. „Sowas haben wir hier öfter“, bemerkten Einheimische. Abgesehen davon sprechen Sonnendächer und Windmühlen jeder „Effizienz“ Hohn und sind an Ressourcenverschwendung nicht mehr zu überbieten. Da liegen und stehen zahllose Tonnen wertvoller Werkstoffe sinnlos in der Gegend herum und sind auch in der Zukunft nicht in der Lage, Kohle und Kernenergie zu ersetzen. Daß die Windenergie „grundlastfähig“ werden soll, können nur bösartige Ignoranten behaupten. Die zahllosen Solaranlagen liefern heute lediglich 0,6 Prozent des deutschen Strombedarfs, beim Wind sind es trotz einer „installierten“ Leistung von insgesamt 22.755 Megawatt auch nur 6,3 Prozent. Dabei müssen die Investitionskosten für Wind und Sonne verdoppelt werden, weil für die gleiche Leistung Kohle-, Gasturbinen- und Kernkraftwerke für die Regelenergie sorgen müssen. Wenn kein Wind, dann auch kein Strom – und nachts sind alle Sonnendächer tot. Rosige Aussichten also für die russischen Gaslieferanten!

Aufmerksame Beobachter werden übrigens feststellen, dass bereits die ersten Windmühlen- „Leichen“ in der Gegend stehen und sich selbst bei idealem Wind nicht mehr bewegen. Ihre Zahl wird zunehmen, weil die mit meist weit überzogenen Versprechungen geköderten Investoren entweder kein Geld mehr haben oder die Lust an den teuren Spielzeugen verloren. Sollte in unsere Regierung jemals wieder Realitätsbewusstsein einziehen gibt es nur einen Weg, nämlich das „Erneuerbare Energien Gesetz“ auslaufen zu lassen und die Technik künftig nicht mehr zu bevormunden. Im Gegensatz zu den Politikern wissen die Ingenieure genau was machbar ist und sich auch verkaufen lässt. So ist seit 1970 der spezifische Energieverbrauch – Energieverbrauch je Einheit des Bruttosozialprodukts – in Deutschland um über 50 Prozent gesunken. Dieser Prozess geht unablässig weiter.

Längst überfällig ist der Abbau des unsinnigen Subventionsberges, der auf jährlich rund 150 Milliarden Euro geschätzt wird. Damit könnten die öffentlichen Kassen in kurzer Zeit saniert werden. Aber da die durch Sachkenntnisse unbelasteten, ideologisch motivierten Politiker durch einen dichten Ring aus lieben Parteifreunden, Schmarotzern, Beratern und anderen Hyänen von der Realität abgeschirmt werden, die ausschließlich am Geld des Steuerzahlers interessiert sind, wird sich auch künftig an diesem „System“ nichts ändern. Wen interessiert schon das dumme Volk, das für immer höhere Belastungen keinen Gegenwert erhält?

FAZ Autor  Christian Bartsch für EIKE




Das Temperaturdilemma!

Was bedeutet überhaupt angepasst? Nun das GHCN (Global Historical Climate Network) nennt dies homogenisieren und versteht darunter Messfehler, Ortsveränderungen der Messstationen etc. zu entfernen. Hierzu werden die nächsten fünf Stationen ausgewählt, wenn sie we-nigstens eine 20 Jahre lange übereinstimmende Messreihe haben und wenn die Korrelation zwischen beiden 0.8 oder größer ist. Dies klingt sehr vernünftig, scheint aber in der Praxis anders gehandhabt zu werden. Einige Beispiele sollen dies illustrieren. 
1. Darwin zero (Australien) von Willis Eschenbach.

 
Die blaue Kurve beinhaltet die gemessenen Werte, während die rote aus der Homogenisierung folgt. Aus einer Abnahme von 0.7°C wurde ein Anstieg von 1,2°C pro Jahrhundert gemacht. Die nächste Station, die die obigen Kriterien erfüllt ist aber 500km entfernt. Eschenbach, der dies herausfand, spekulierte, dass dies ein Einzelfall sein könnte. Hier ist die ganze Story
http://wattsupwiththat.com/2009/12/08/the-smoking-gun-at-darwin-zero/:
Es gibt aber offensichtlich mehr Einzelfälle. 
Zum Beispiel Neuseeland. Die folgende Graphik stellt den angepassten Temperaturverlauf dar, welcher einen deutlichen Anstieg besitzt. 
 
 
Die ganze Dramatik verschwindet allerdings, wenn man sich die gemessenen Werte ansieht. 

Quelle: http://wattsupwiththat.com/2009/11/25/uh-oh-raw-data-in-new-zealand-tells-a-different-story-than-the-official-one/
 
Dies hat mich veranlasst selber die GHCN-Daten näher zu betrachten. 
Die folgende Graphik zeigt die gemessene und die korrigierte Kurve für Orenburg (früher Russland) im Juni. Die Stadt hat ihre Einwohner zwischen 1930 und 1960 verdoppelt und hat heute über eine halbe Million Bewohner. Laut Goggle befindet sich die Station jetzt 10km vom Zentrum entfernt. Dies lässt den Anstieg von 1.58°C durch den Wärmeinseleffekt wahrscheinlich sein. 

 
Die nächsten Stationen befinden sich in Aktjubinsk und in Uralsk und sind 212km bzw. 269km entfernt. Da nach dem Verfahren des GHCN der starke Anstieg eine Folge der Tempe-raturkorrektur mit den, zwar ziemlich weit entfernten, nächsten Stationen ist, ist in den fol-genden zwei Graphiken die jeweilige Temperaturdifferenz aufgetragen. Ein ausgemachter Aufwärtstrend ist aus keiner der beiden Darstellungen zu entnehmen. Woher die zusätzlichen 2.72°C bei dem Anstieg kommen, bleibt zumindest fraglich. 
 
 
Orenburg besitzt aber eine viel längere Temperaturreihe, die eine noch merkwürdigere Korrektur aufweist, wie die nächste Graphik zeigt. 
 
 
Wie man sich einen 70jährigen konstanten Temperaturabzug von 1.6°C erklären kann, bleibt wohl ein Geheimnis vom GHCN. Sieht man sich weitere korrigierte Reihen an, so lässt sich ein Trend erkennen. 


Dass die Anpassung vom GISS in die gleiche Richtung verläuft wundert niemand ernsthaft. 
 
 
Auch für diese Station sieht die Differenz der Temperaturen merkwürdig aus.
 
 
 
Allen ist aber gemeinsam, dass die Temperatur in der Vergangenheit nach unten in der jüngeren Zeit nach oben angepasst wird. Naiv würde man in Folge der Urbanisierung eher das Gegenteil erwarten. Der Verdacht, dass hier ein Trend hineinkorrigiert wurde, ist nicht von der Hand zu weisen. Dies wird auch durch die merkwürdige Selektion der Messstationen untermauert. 

 
 
Immer weniger statt mehr Stationen werden zur Bestimmung der globalen Temperatur ausgewählt, was besonders für die ländlichen gilt. 
Die Landfläche der Erde beträgt 148.490.000km2. Verteilen wir die derzeit (2008) noch verbliebenen rund 2.000 Stationen gleichmäßig, dann bestimmt jede Station die Temperatur für ein Gebiet von rund 75.000km2, was etwas größer als die zweifache Fläche von Baden-Württemberg ist. Mit anderen Worten ein Thermometer soll die Temperatur in BW und, sagen wir, im angrenzenden Hessen widerspiegeln. Die mittlere Jahrestemperatur beträgt z.B. in Freiburg 10.4°C, während der Feldberg nur 3.3°C aufweist. Welche Temperatur gilt nun für BW und Hessen? Da die Stationen in Wirklichkeit aber sehr inhomogen verteilt sind, gibt es für die größten Teile der Erdoberfläche gar keine belastbaren Aussagen. Diese Asymmetrie wird noch verstärkt, wenn man die Verteilung der verbliebenen Stationen betrachtet. 
 
 
Sie stehen überwiegend im dicht besiedelten Europa, an der chinesischen Ostküste und in den USA. In Sibirien gibt es Gebiete von der Größe Deutschlands, wo keine einzige Station zu finden ist. Dass dies nicht ohne Auswirkung auf die globale Temperatur ist, folgert unmittel-bar aus der nächsten Abbildung, die die Temperaturtrends für unterschiedlich stark bewohnte 

 
Gebiete Kaliforniens zeigen. Es gibt den erwarteten positiven Zusammenhang zwischen Urbanisierung und Temperaturänderung. Das GHCN muss eine negative Korrelation zwischen beiden Grüßen gefunden haben, die es aber bisher weder publiziert noch begründet hat. 
Kürzlich wurde eine Studie im „Geophysical Research Letters“ publiziert. Die Autoren kamen zu dem Ergebnis:
“After examining climate data extending back nearly 100 years, a team of Government scientists has concluded that there has been no significant change in average temperatures or rainfall in the United States over that entire period.”  (Hervorhebung durch mich)
Dr. Hansen, einer der führenden Klimahysteriker, sagte dazu:
“he had ”no quarrel” with the findings in the new study. He noted that the United States cov-ered only 1.5 percent of Earth. ”If you have only one degree warming on a global average, how much do you get at random” when taking measurements in such a relatively small area, he asked rhetorically.
Quelle: http://wattsupwiththat.com/2010/03/01/flashback-u-s-data-since-1895-fail-to-show-warming-trend/#more-16839
Wenn schon die USA mit der noch vorhandenen größten Anzahl von Stationen nicht aussagekräftig ist, woher kennt Herr Hansen dann eigentlich die globale Temperatur? Außerdem dürfte Herrn Hansen bekannt sein, dass selbst die amerikanischen Stationen überwiegend falsch messen, wie bei surfacestation.org nachgelesen werden kann. Hier nur die Graphik dazu. Bisher wurden knapp 82% aller amerikanischen Stationen untersucht. Gerade einmal 10% der Stationen haben einen tolerablen Fehler. Alle anderen messen zu hohe Temperaturen.  Da die „Welttemperatur“ durch die Dominanz der amerikanischen Stationen wesentlich geprägt wird, kommen Zweifel auf. 
 
 
Worin besteht aber nun das Dilemma? Das Dilemma besteht darin, dass offensichtlich nicht nur die Proxydaten manipuliert worden sind, sondern auch die schon fehlerbehafteten Messreihen und zwar so, dass im Mittel ein Temperaturanstieg im 20. Jahrhundert herauskommt. Es ist somit auf der einen Seite überhaupt nicht mehr klar, ob es eine mittlere globale Temperaturänderung gab und wenn ja in welche Richtung. Es scheint somit momentan nicht möglich zu sein eine Theorie zur Klimaentwicklung experimentell zu überprüfen und sie entweder zu verifizieren oder zu falsifizieren. Die Datenfälscher haben der Menschheit und der Klimaforschung einen Bärendienst erwiesen und sollten u. a. dafür belangt werden.  
Auf der anderen Seite zeichnete sich das 20. Jahrhundert durch eine besonders aktive Sonne aus. Dies müsste gemäß dem Inhalt der zwei Reporte „Klima, Sonnenflecken und kosmische Strahlung“ mit einem Temperaturanstieg verbunden sein, welcher durch ein Absinken in diesem Jahrhundert in Folge einer Ruhephase der Sonnenaktivität fortgesetzt werden sollte. In der nächsten Graphik ist die Stärke des interplanetaren Magnetfeldes (IMF) abgebildet. Man erkennt eine relativ ruhige Phase in den 70ger Jahren, zu der Zeit wurde der Kältekollaps pro-phezeit („Die Abkühlung hat schon hunderttausende Menschen getötet. Wenn sie weiter voranschreitet und keine Maßnahmen ergriffen werden, wird sie weltweite Hungernöte, weltweites Chaos und Weltkrieg hervorrufen und das kann alles noch vor dem Jahr 2000 eintreffen“, sagte zum Beispiel Lowell Ponte 1976 in „The Cooling“), und dann einen starken Anstieg, der mit einer Temperaturerhöhung verbunden war. 

Da das interplanetare Magnetfeld derzeit so niedrige Werte hat, wie sie noch nie gemessen worden sind, müsste es kälter werden. Ob dies global so gilt, ist aus dem obigen Grund nicht sicher. Zumindest stehen die reduzierte Sonnenaktivität und der Rekord bei der Schneebede-ckungder Nordhalbkugel nicht  im Widerspruch zu einander.   
 
 
          Rutgers University Global Snow Lab

2001-2010 was the Snowiest Decade on Record


Dies trifft aber nicht für die Vorhersagen der Klimamodelle zu, die eine Abnahme der Schneefälle prophezeiten oder für den englischen Wetterdienst (Met office), der basierend auf Modellrechnungen mit 80%er Wahrscheinlichkeit einen milden Winter prognostizierte. Die Realität hielt sich aber nicht daran. Es war der kälteste Winter seit mehr als 30 Jahren.
Dipl. Physiker Dr. Bernd Hüttner für EIKE
Die pdf Version finden Sie im Anhang

Related Files




Solarstrom-Förderung kostet Stromkunden 3 Mrd. Euro* im Jahr!

Hierbei geht es schlichtweg um den Schutz der Verbraucher vor einer nicht gerechtfertigten Belastung. Und das bedeutet nur eine eher bescheidene Dämpfung des zukünftigen Fördergeldanstiegs in Höhe von etwa 0,5 Mrd. Euro im Jahr. Die Belastung der Stromkunden wird auch nach dieser Maßnahme weiter stark ansteigen,“ so die VIK-Geschäftsführerin, Dr. Annette Loske. Lediglich neu hinzukommende Anlagen sollen nach den jetzigen Plänen geringere Vergütungen erhalten. Für sie sollen eindeutige Überförderungen verhindert werden. Für die bis dahin errichteten Anlagen wird der Verbraucher dagegen die mehr als lukrativen Vergütungen über einen Zeitraum von 20 Jahren weiter finanzieren müssen.

Abbildung: Vergleich der Gestehungskosten pro kWh für verschiedene Energieträger. Die Kosten für Solar- und Windstrom enthalten nicht die zwangsläufig entstehenden Kosten zum Betrieb der zwingend erforderlichen Gas-Pufferkraftwerke, die die unstetige Anleiferung in Sekundenschnelle ausgleichen müssen. 

Aufgrund der überhöhten Förderraten wachsen die Solarfelder und -dächer aktuell schneller als jeder Zielkorridor der Bundesregierung es je vorsah – um 60 Prozent allein im Jahr 2009. Den Betreibern bescheren sie überhöhte risikolose Gewinne zu Lasten der Stromkunden. Der drastische Mengenanstieg führt unausweichlich zu einer weiter deutlichen Steigerung der für 20 Jahre fixen Fördergeldzahlungen. Diese wird über die Stromrechnungen von den Kunden bezahlt.

„Ohne Kosteneffizienz im EEG entwickeln wir keinen Energiemix, der für den Industriestandort Deutschland tragfähig ist. In den parlamentarischen Beratungen dürfen die geplanten, moderaten Absenkungen nicht weiter entschärft werden. Eigentlich müssten viel mutigere Schritte ergriffen werden, um die Kosten für die Verbraucher nicht noch stärker explodieren zu lassen“, so Dr. Loske weiter. Der VIK hofft, dass Umweltminister Röttgen den Weg der Effizienzprüfung im EEG weiterhin konsequent geht. Nur so kann ein wirklich gangbarer Weg in ein regeneratives Zeitalter gestaltet werden.

Pressemitteilung des VIK vom 19.4.10

* Abschätzung: 3 Mrd. = 30 Euro/MWh x 400 TWh (Gesamtstrombedarf ohne EEG-Härtefälle x 25 Prozent Solaranteil

 

Der VIK ist seit 60 Jahren die Interessenvertretung von energieintensiven Unternehmen aller Branchen, wie etwa Aluminium, Chemie, Glas, Papier, Stahl oder Zement. Er berät seine Mitglieder in allen Energie- und energierelevanten Umweltfragen. Im VIK haben sich 80 Prozent des industriellen Energieeinsatzes und rund 90 Prozent der versorgerunabhängigen Stromerzeugung in Deutschland zusammen geschlossen.

Rückfragen erbeten an

Roland Schmied, VIK-Pressesprecher

Tel. 0201 / 8 10 84-15, Mobil 0171 / 38 35 297 oder  Fax -715

r.schmied@vik.de

 

Die VIK-Pressemitteilungen finden Sie auch unter www.vik.de, Stichwort Pressemitteilungen.



Oxburghs Trick beim Verstecken des Tricks!

Dieser  Oxburgh-Bericht besteht aus fadenscheinigen und beschämenden 5 Seiten.

Sie haben mich nicht interviewed, (so viel ich weiß, auch keinen weiteren CRU-Kritiker oder Zielpersonen). Der Ausschuss war am 22. März angekündigt worden und sein "Report" ist auf den 12. April datiert – drei Wochen durchgehend – weniger Zeit als der Parlamentsausschuss sich genommen hatte. Es gab keine Beweisaufnahme. Sie beziehen sich auf 11 CRU-Papiere, fünf über die Baumringe, sechs über CRUTEM. Bezeichnenderweise fehlen in ihren "Stichpro ben" die 1000jährigen [Temperatur-] Rekonstruktionen: Jones et al. 1998, Mann and Jones 2003, Jones and Mann 2004, usw.

Sie haben sich im Besonderen nicht weder mit einem der Vorfälle von willkürlichen [Temperatur-] Anpassungen ("Pfuschereien") beschäftigt, noch haben sie darüber berichtet, auch nicht über die einseitige Auswahl und das Löschen von widersprüchlichen Daten, noch haben sie meine Eingaben an das "Science and Technology Committee" und an das "Muir Russell Committee" erwähnt. Darüber werde ich später berichten, weil für deren Bearbeitung noch ein wenig Zeit nötig ist. Zunächst aber zu Oxburghs Trick beim Verstecken des "Tricks".

Schon lange vor Climategate wussten die Leser von Climate Audit, dass man auf die Erbse unter dem Hütchen aufpassen muss, wenn man es mit dem [CRU-]Team zu tun hat. Das gilt auch für Oxburgh von Globe International. [http://www.globeinternational.org/]

Oxburgh von Globe International geht auf den "Trick … zum Verstecken der Abnahme" in wolkigen Ausdrücken wie folgt ein:

Die CRU – Veröffentlichungen betonen wiederholt die Diskrepanz zwischen gemessenen und den auf Baumringdaten beruhenden Stellvertreter-Temperaturrekonstruktionen während des ausgehenden 20. Jh., aber die Darstellungen dieser Arbeit durch das IPCC und Andere haben es manchmal versäumt, darauf besonders hinzuweisen. Während wir dies für bedauerlich halten, sehen wir dieses Versäumnis nicht in den fachbegutachteten Papieren, die wir geprüft haben.

Ohne den berüchtigten "Trick … zum Verstecken der Abnahme" besonders zu erwähnen, tut Oxburgh den "Trick" als "bedauerliche Nachlässigkeit" des IPCC und Anderer ab.

Doch man passe [wie beim Hütchenspiel] auf die Erbse unter Oxburghs Hütchen auf!

Der Oxburgh-Bericht hat leider nicht auf die Tatsache hingewiesen, dass die CRU-Wissenschaftler Briffa und Jones zusammen mit Michael Mann die verantwortlichen Autoren für die "bedauerliche Nachlässigkeit" im Dritten Auswertebericht [IPPC TAR] waren. Leider wurde auch nicht erwähnt, dass der CRU-Wissenschaftler Briffa der verantwortliche IPCC-Autor für den entsprechenden Abschnitt im AR4 war.

Oxburgh gibt vor, dass der Fehler beim "IPCC und Anderen" gelegen hätte, aber das ist selbst ein Trick. Das CRU war bis unter die Halskrause in die entsprechenden IPCC-Darstellungen verstrickt, welche es "bedauerlicherweise vernachlässigt" hätten, die widersprüchlichen Messdaten in ihren Grafiken zu zeigen.

Es ist auch unwahr, dass die CRU-Autoren in ihrer Eigenschaft als IPCC-Autoren es "bedauerlicherweise verabsäumten" die abweichenden Messdaten in den IPCC-Grafiken zu zeigen. Die Klimagate-Emails zeigen, dass sie dies absichtlich taten – man schaue sich zum Beispiel "IPCC and the Trick" an [http://climateaudit.org/2009/12/10/ipcc-and-the-trick/], woraus sich ergibt, dass die CRU-Wissenschaftler sich bewusst waren, dass die Abnahme bei den Temperaturmessdaten die "Botschaft verwässern" würde, welche das IPCC aussenden wollte. Die hier schon vielmals herangezogene entsprechende IPCC-Darstellung sandte eine falsche Botschaft über den Wahrheitsgehalt der Stellvertreter-Temperaturrekonstruktionen.

Climate Audit – Leser wissen auch sehr wohl, dass das IPCC und Briffa kategorisch von einem AR4 Gutachter (von McIntyre nämlich) gebeten worden waren, die abweichenden Daten zu veröffentlichen. Briffa vom CRU weigerte sich und sagte, dass es "unangemessen" wäre, diese Daten zu bringen. Das war eine vorsätzliche Entscheidung in bezug auf den AR4, trotz der betonten Kritik.

Zugegeben, die "Abnahme" war in der "fachbegutachteten Literatur" veröffentlicht worden. Deswegen bin ich [McIntyre] ja erst auf den Trick gekommen – und lange vor Klimagate hatte ich als AR4-Fachgutachter das IPCC aufgefordert, den Trick nicht noch einmal im AR4 anzuwenden.

IPCC Darstellungen sind die Sprache, mit der die Wissenschaftler die Welt informieren. Klimatologen, die CRU-Wissenschaftler eingeschlossen, haben eine weit größere Verpflichtung für vollständige und wahre Veröffentlichungen in IPCC-Berichten als in der Spezialliteratur. Oxburgh gibt vor, dass (die teilweise) Veröffentlichung von abweichenden Ergebnissen durch das CRU in der Spezialliteratur genüge. Das genügt nicht. Es gab eine fortwährende Verpflichtung auf Veröffentlichung abweichender Forschungsergebnisse in den IPCC-Grafiken.

Die CRU-Wissenschaftler handelten als IPCC-Autoren. Die Beschwerden über den Trick entstanden um die Frage, auf welche Art und Weise CRU-Wissenschaftler ihre Pflicht als IPCC-Autoren erfüllten.

In dieser Hinsicht ist der Oxburgh-Bericht ein dürftiger Taschenspielertrick, mit dem die Öffentlichkeit glauben gemacht werden soll, dass der "Trick" nur "bedauerliche Nachlässigkeit" von Seiten des "IPCC und Anderen" gewesen wäre, der nichts mit dem CRU zu tun hätte. Mit anderen Worten, Oxburgh trickst selbst, um den "Trick" zu verstecken.

Wer einmal trickst … !

———————–

Nachtrag: Der Daily Telegraph schreibt:

Professor Hand sagte ausdrücklich, dass "unangemessene Methoden" von einer anderen Universität benutzt worden wären, um die berüchtigte "Hockeyschlägerkurve" zu zeichnen, welche den Anstieg der globalen Temperatur im Verlauf von mehr als 1.000 Jahren darstellte.

Wie bitte? Notiz an Oxburgh: Das CRU hat zum Beispiel in: Jones et al. 1998 und Mann and Jones 2003, seine eigene Hockeyschlägerkurve produziert. Aus irgendeinem Grund haben Oxburgh und sein Mitarbeiterstab es bedauerlicherweise verabsäumt, diese Artikel zu berücksichtigen.

Hier weitere Details:
* His name is Lord Oxburgh and, as Bishop Hill reports, he is:

  • President of the Carbon Capture and Storage Association
  • Chairman of wind energy firm Falck Renewables
  • A member of the Green Fiscal Commission