Welche Rolle spielen Treibhausgase ?- Teil 1

Seit gut 20 Jahren erzählen das IPCC und deren Anhänger, Treibhausgase (THG), die wir Menschen ausbringen, würden den Temperaturgang maßgeblich beeinflussen und damit das Klima auf der Erde steuern, weil Sonnenaktivität und Temperaturgang seit 30 Jahren auseinander laufen würden. Noch jüngst behauptete der Direktor des MPI-M, Prof. Marotzke: “Der größte Teil des beobachteten Anstiegs der mittleren globalen Temperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich (Wahrscheinlichkeit höher als 90%) durch den beobachteten Anstieg der anthropogenen Treibhausgaskonzentrationen verursacht.“ Die Sonne kommt als Verursacher der Erwärmung nicht mehr vor und findet keine Erwähnung. Vielleicht sollte Herrn Prof. Marotzke eine Studienreise in die Sahara und zum Nordpol spendiert werden, um zu erfahren, welche Kraft in der Sonne steckt und welche Erwärmung von ihr ausgeht. Der folgende Artikel, der auch als Lernbeitrag in Meteorologie für Herrn Prof. Marotzke dient, wird zeigen, dass zur Erklärung des Temperaturgangs, sowohl der leichten Erwärmung bis zum Ende des 20. Jahrhunderts, als auch die seit 10 Jahren zu verzeichnete Abkühlung, keine THG notwendig sind, sondern die Sonne über die Hadley-Zellen und von dort über die globalen Windsysteme das Wetter und die Temperaturen bis in die Gegenwart allein steuert.

Teil 1: Manipulationen zur Aufrechterhaltung der behaupteten Rolle der THG und  deren Aufdeckung – globaler Temperaturgang

In seinem EIKE-Beitrag "La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld" vom  24.01.2011 (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/) hatte der Autor folgende Abbildung gezeigt und textlich wie folgt hinterlegt.

 

Abbildung 1 “zeigt die sich ändernde Strahlungsabgabe (Variabilität, TOP = Top Of Atmosphäre) der Erde im Zeitraum 1984 – 2005 aus Satellitensicht. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen, wie sie jüngst wieder medienwirksam veröffentlicht wurden und das Jahr 2010 als wärmstes ausweisen wollen, gefälscht sind, weil die Temperaturreihen nicht zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde, die sich aus ihrer Temperatur ergeben, passen.  Siehe hierzu (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1).“ Anmerkung: Dieser Beitrag zeigte, dass die Temperaturreihen 2010 der WMO auf Manipulationen beruhen.

Da Abbildung 1 die sich ändernde Wärmeabstrahlung der Erde zeigt und nach Planck und Newton die Wärmeabstrahlung im direkten Zusammenhang zur Temperatur des abstrahlenden/abgebenden Körpers steht, zeigt die Abbildung, dass sie weder zum globalen Temperaturgang, noch zum globalen atmosphärischen CO2-Pegel passt (Abbildung 2).

 

Während sich die Abstrahlung der Erde und damit ihr Temperaturniveau von 1984 – 1997 in der Tendenz nicht ändern und erst ab 1997 – 2005 ansteigen, zeigt die Zeitreihe der globalen ermittelten (berechneten) Temperaturzeitreihe nach Jones, die als Grundlage der IPCC-Betrachtungen gilt, ab 1960 steil nach oben (Pfeil). THG als Erklärung scheiden von vorneherein aus, da diese nicht das volatile Verhalten, sprich die Schwankungen in der Abstrahlung erklären können. Dass es sich bei der Zeitreihe nach Jones um keine wahrheitsgemäße Wiedergabe des globalen Temperaturgangs handelt, dazu gleich mehr.

Anmerkung:

Ungeachtet der Trendverläufe muss erwähnt werden, dass globale Temperaturen generell nicht real sind – die Sahara-Temperaturen sind bekanntlich anders als die unsrigen – sondern statistisch berechnet werden, wozu komplexe Algorithmen (Formeln) verwendet werden. Wenn in diesem Artikel von Globaltemperaturen die Rede ist, so handelt es sich stets, wie auch beim IPCC, um statistisch ermittelte Werte.

Wenn die Abstrahlung der Erde als Maß ihrer Erwärmung, bzw. Abkühlung nicht dem vom IPCC ausgewiesenen globalem Temperaturgang folgt, durch was wird sie bestimmt? Die Antwort gibt Abbildung 3.

Abbildung 3 links zeigt die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“. Deutlich ist das gleiche Muster (Fingerabdruck, grüne Kreise) zu erkennen. Weiter ist sehr transparent zu sehen, wie der Ausbruch des Pinatubo in 1991 (blauer Balken), der die Erdtemperaturen für ca. 2 Jahre um bis zu 0,8°C senkte, die langwellige Erdabstrahlung (abhängig von der Temperatur) ebenfalls ins "Minus" lenkt, obwohl die Neutronenströme und damit die solare Aktivität hoch ist. Bereits Abbildung 3 gibt die entscheidenden Hinweise, was die Wärmeabstrahlung der Erde und damit ihr Temperaturniveau steuert.

Fälschungen der Temperaturreihen haben eine lange Tradition.

Schon mehrfach wurde bekannt, dass weltweite Zuträger des IPCC die Temperaturganglinien passend machten. Die bekanntesten Beispiele sind der sog. Hockey-Stick von Prof. Mann und die “Tricks“ die angewendet wurden, das heutige Temperaturniveau als besonders hoch ausfallen zu lassen (Climategate – EIKE berichtete ausführlich darüber). Ein Beispiel zur Erinnerung. Die Daten aus Baumringen, die bis weit ins 20. Jahrhundert keine Erwärmung auswiesen, wurden einfach ab Anfang des 20. Jahrhunderts abgeschnitten und durch gemessene Werte ersetzt. Was auf den ersten Blick manchem vielleicht harmlos erscheinen mag oder gar korrekt, ist jedoch dreiste Fälschung, da aus einer Methodik zum ermitteln des Temperaturganges (Baumringe) nur die Werte genommen wurden, die zum gewünschten Ergebnis passen (niedrige vorindustrielle Werte) und die Werte, die nicht passten (niedrige industrielle Werte), durch passende Werte ersetzt wurden. Die Messreihe aus Baumringen, ging bis ca. 1980 und nur die daraus ermittelten Werte sind auch miteinander vergleichbar (!) und zeigten, wie gesagt, keine Erwärmung. Die ab 1900 angesetzten, gemessenen Werte sind nicht (!!) mit den Werten aus den Baumringen vergleichbar, da sie vollkommen anders ermittelt werden. So etwas wird Manipulation genannt. Prof. Mann ging noch dreister vor, indem er zum einen Datenauswahl und statistische „Tricks“ vornahm und zum anderen, Bäume (Proxys) auswählte, die nur eine Wachstumsperiode von 6-8 Wochen im Jahr haben und daher auch nur 6-8 Wochen von 52 Wochen die Temperatur „sehen“. An mindestens 44 Wochen im Jahr daher für eine Temperaturaussage „blind“ sind. Der Autor mag sich jetzt ein Wortspiel zum IPCC und deren Mitläufern verkneifen.

Dank Herrn Prof. Ewert wurde weiter bekannt, dass das GISS (Goddard Institute for Space Science) in Abwandlung, sich weiter dieser Fälschungsmethodik verschreibt: Die Werte, die für das gewünschte Ergebnis brauchbar sind, werden belassen und die, die unbrauchbar sind, entfernt. Prof. Ewert fasste dies in seiner Untersuchung, GISS „korrigiert“ seine Temperaturdaten, zusammen. Die Manipulation wurde vom GISS in 2011, also knapp zwei Jahre nach Climategate vorgenommen. Nun verwundert es nicht mehr, dass ich zu dem angeblich so warmen Jahr 2010 auf EIKE schrieb, dass die Aussage der WMO zur andauernden Erwärmung, nicht der Realität entspricht. Herr Prof. Ewert konnte anhand der Überprüfung von über 800 Messstationen, massive Fälschungen beim GISS nachweisen. Hier zwei Beispiele:

 

Abbildung 4, Quelle: Prof. Ewert. Nur zwei Beispiele, wie durch Datenmanipulation das GISS eine künstliche Erwärmung zaubert. Links die Werte, die noch 2010 ausgewiesen wurden, rechts der neu designte Temperaturgang der „Künstler“ der Global-Warming-Fraktion. Diese Erwärmung ist in der Tat menschen-gemacht! 2011, knapp zwei Jahre nach Climatgate: “Ist der Ruf erst ruiniert, regiert sich´s völlig ungeniert.“ Ein wohl jedem geläufiges Sprichwort.

Wir Naturforscher unter den Klimaforschern oder besser gesagt, unter den Klimatricksern, brauchen weder THG, Tricks, Manipulationen oder gar Fälschungen,  noch Wahrscheinlichkeiten, um den Temperaturgang zu erklären. Hierzu reichen allein Naturbeobachtungen. Im Besonderen, die der Sonne und der globalen Wettersysteme.

Abbildung 5 zeigt die gemittelte, globale Temperaturentwicklung im Zeitraum von 1979 – Januar 2012. Der geglättete Kurvenverlauf zeigt eine Wellenform mit einer Periode von im Mittel 7,5 Jahren (http://www.climate4you.com/GlobalTemperatures.htm). Dies spricht für einen natürlichen Einfluss. Um es vorweg zu nehmen, es ist der "Kleine-Landscheidt-Zyklus" der Sonne. Der Autor berichtete in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ (Teil 3, Abbildung 43) darüber.

Weiter zeigte ich bereits am 24.01.2011 (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/), dass der globale Temperaturgang El Niño-Ereignissen unmittelbar folgt und welche solaren Ereignisse diese, wann auslösen. Dazu habe ich den Zeitraum betrachtet, der angeblich von der Sonnenaktivität abgekoppelt sein soll.

Abbildung 6 zeigt nach Solanki et al., dass anhand des TSI (Total Solar Irradiance) ab ca. 1980 Sonnenaktivität und globaler Temperaturgang (rot) auseinanderlaufen würden.

Nun ist der TSI grundsätzlich ungeeignet, eine Aussage über die solare Aktivität anzugeben. Dies mag auf den ersten Blick verwundern, da der TSI doch auch von Satelliten gemessen wird. Die Lösung ist jedoch denkbar einfach. Die Satelliten können nur das aufnehmen, wofür das Messgerät ausgelegt ist und die Messgeräte der Satelliten nehmen nur den Wellenlängenbereich zwischen 200 nm und 2.000 nm auf. Also nur einen kleinen Energiespektralbereich der Sonne. Dies ist der Teil, der auf die Erdoberfläche gelangt. Will man heutige, gemessene Werte des TSI mit rekonstruierten vergleichen, so bietet sich diese Vorgehensweise an, da der Proxy, der sich logischerweise auf der Erde befindet, natürlich auch nur den Teil der Sonnenaktivität sieht, der auf die Erdoberfläche gelangt. Nun ist das Wetter bekanntlich der Teil aus dem sich das Klima zusammen setzt und das Wetter wird nun einmal nicht auf der Erdoberfläche „gemacht“, sondern in der Tropo- und Stratosphäre und dorthin gelangt ein größeres Energiespektrum der Sonne. Von den indirekten Einsflüssen der Sonne auf die Erde (Wolkenbedeckung = Svensmark-Effekt) ganz zu schweigen. Der TSI blendet darüber hinaus gerade die Energiespektren aus der Sonne aus, die besonders variabel sind. So ändert sich der TSI über den Sonnenzyklus (Schwabe-Zyklus) kaum – nur 0,1 bis 0,2%. Beim UV-Anteil ist dies bereits gänzlich anders. Er ändert sich um bis zu 35% und beim Röntgenanteil, aus dem auf die indirekten Einflüsse der Sonne auf die Wolkenbedeckung geschlossen werden kann, um das 100-fache! Abbildung 7 zeigt das Sonnenspektrum und seine Reichweite in die Erdatmosphäre.

Abbildung 7 links zeigt das Sonnenspektrum nach Daten des High Altitude Observatory am NCAR (National Center for Atmospheric Research) und rechts, neben den Temperatur- und Dichtegradienten der Erdatmosphäre, die wirksamen Wellenlängenbereiche der Sonnenstrahlung und deren Eindringtiefe in die Atmosphäre, Quelle: (http://www.physorg.com/news198429352.html).

Von „Total“ kann also beim TSI keine Rede sein. Sein Wording ist demnach eine bewusste Mogelpackung. Soll die ganze Sonnenaktivität betrachtet werden, müssen andere Parameter ausgewertet werden. Einer davon ist die Korona, also die Sonnenatmosphäre. Diese zeigt im Aktivitätszyklus der Sonne interessante Eigenschaften. So springt sie plötzlich auf ihren nahezu doppelten Temperaturwert (Abbildung 9). Da die Korona der Teil der Sonne ist, der über den Sonnenwind direkt mit der Erde verbunden ist, liegt es nahe, sie mit dem Wettergeschehen der Erde in Relation zu setzen.

Abbildung 8 links (Quelle: http://www.ngdc.noaa.gov/stp/SOLAR/solarda3.html) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg auf der Erde, die Strahlungsleistung der Korona stark (ca. 25%) ansteigt. Der TSI-Wellenlängenbereich bildet die Koronatemperatur und damit ihr Energiespektrum gar nicht ab. Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die fragwürdige globale Temperaturentwicklung nach Jones. In der Satelliten-gestützen Zeitreihe aus Abbildung 5 ist der Anstieg in der Temperatur im Betrachtungszeitraum von 1979 – 1995 ebenfalls vorhanden, jedoch moderater.

Abbildung 9 unten zeigt die sich ändernde Koronatemperatur der Sonne. Deutlich zu sehen, dass nach dem Einschalten der Koronazusatzheizung (wenn die Koronatemperatur auf nahezu ihren doppelten Wert „springt“) ein El Niño ausgelöst wird und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Das blaue Rechteck gibt den Zeitpunkt an, ab wann nach einem Sonnenminimum im Schwabe-Zyklus, die Koronatemperatur auf nahezu ihren doppelten Wert (ca. 2 Millionen Kelvin springt). Da die Koronatemperatur nur aus dem Weltraum aufnehmbar ist und kontinuierliche Daten deshalb erst seit gut 20 Jahren vorliegen, wurden ihre „Schaltpunkte“ rekonstruiert. Dabei wurden die Zeitabstände (blaue und grüne Rechtecke) exakt beibehalten und betrachtet, ob diese mit weiteren El Nino-Ereignissen zusammen fallen. Dies ist eindeutig der Fall und zwar nach exakten Zeiten (!) 11 Monate, nachdem sich die Temperatur der Korona verdoppelte, erreicht ein starker El Niño sein Maximum.

Jedoch zeigt die El Niño 3.4-Reihe, dass im betrachteten Zeitraum, in dem laut IPCC-Anhängern, die Erdtemperaturen von der solaren Aktivität abgekoppelt sein sollen, noch mehr El Niño-Ereignisse stattfanden. Demnach muss es noch eine weitere solare Aktivität geben, die auf der Erde einen El Niño auslöst. Die Antwort, um welche solare Aktivität es sich handelt, gibt die Abbildung 10. Es ist die unmittelbare magnetische Aktivität der Sonne. Ihr solares magnetische Maximum.

 

Abbildung 10 zeigt nochmals die Abbildung 9. Darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El-Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“(http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm)

Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Der Autor möchte Ihnen dieses anhand der Sonnenwindaktivität weiter belegen (Abbildung 11).

 

Abbildung 11 (Quelle: http://www.leif.org/research/files.htm) zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von 1880 – 2009, nach Leif Svalgaard. Blau, aus dem IHV (Inter-Hour Variability-Index) und IDV (Inter Diurnal Variability) rekonstruiert, rot sind direkt gemessene Werte. Nun muss man wissen, dass der schnelle Sonnenwind entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. Koronalen Massenauswürfe, Coronal Mass Ejections (CME)) oder aus den polaren Löchern der Sonne stammt. Deren Aktivität wird durch das Polarfeld der Sonne (grüne Datenreihe von der Max Planck Gesellschaft) bestimmt. Darunter ist die Ausschnittvergrößerung für den Zeitraum 1980 – 2009 gezeigt. Werden nun die dort umrundeten Spitzen (starke magnetische Aktivität des Polarfeldes der Sonne) mit den grün-umrundeten Spitzen in der El-Niño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt die Polfeldaktivität Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“), Abbildung 12.

 

Abbildung 12 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Abschließend ist festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Dem Polarfeld der Sonne (schwache El-Niño)

Was hat nun ein im Pazifik stattfindendes El Niño-Ereignis mit den globalen Temperaturen zu tun? Wie Abbildung 13 zeigt, sehr viel, um nicht zu sagen, so gut wie alles. Warum dies so ist, gleich mehr.

Abbildung 13 zeigt nochmals den in Abbildung 5 gezeigten gemittelten, globalen Temperaturgang und dazu den El Niño 3.4, wie er von der NOAA (amerikanische Wetterbehörde) für La Niña/El Niño-Ereignisse verwendet wird. Deutlich ist zu sehen, dass jedes El Niño-Ereignis exakt mit den positiven Ausschlägen (Erwärmungsphasen) in der globalen Temperatur übereinstimmt. Das Gleiche gilt im umgekehrten Fall für seine Schwester La Niña.

Im Teil 2 erfahren Sie, dass El Niño-Ereignisse auf der ganzen Erde Auswirkungen haben und warum dies so ist und, wie die solaren Aktivitätsschwankungen die Hadley-Zellen moderieren und wie dies Auswirkungen auf der ganzen Erde hat. Weiter werden dazu die Erklärungen gegeben, warum dies ist und aus physikalischen Grundgesetzen gar nicht anders sein kann. THG werden zur Erklärung einer Erwärmungs- oder Abkühlungsphase nicht benötigt, da sie erkennbar keine Rolle spielen. In der Naturbeobachtung treten sie nicht in Erscheinung, einzig in Computerspielen des PIK oder sonstiger, am Fördertropf hängender Institute.

Raimund Leistenschneider – EIKE

Zum Abschluss mochte ich unseren Lesern noch ein anschauliches Beispiel zukommen lassen, welches von einem Vorkämpfer der wissenschaftlichen Aufklärung in Sachen THE und THG stammt und den Autor erreichte. Das Beispiel zeigt anschaulich, dass es in der Physik und damit Realität keinen THE gibt, da der Boden die Atmosphäre erwärmt und nicht die Atmosphäre – die dortigen sog. THG – den Boden:
"Sehr geehrter Herr Leistenschneider,
besten Dank für Ihre Überlegungen. Darf ich als kleiner Wetterfrosch eine Anmerkung machen, denn als Frosch kann man nur überleben, wenn man die Natur genauestens beobachtet und daraus Schlüsse zieht.
Heute am 27. März hatten wir in Oppenheim (128 m über NN) folgende Temperaturwerte:
07 Uhr: 200 cm 8,4 °C, 20 cm 7,7°C und -5 cm (Bodentemperatur) 9,4°C
10 Uhr: 200 cm 10,6°C, 20 cm 11,6°C und -5 cm 9,9°C
12 Uhr. 200 cm 14,1°C, 20 cm 16,2°C und -5 cm 12,6°C
Um 7 Uhr betrug die Globalstrahlung 9,0, um 10 Uhr 386,0 und um 12 Uhr 1352,0 Wh/m2. Diese Werte nach klarer Nacht lassen nur einen Schluss zu: Einen Treibhauseffekt gibt es nicht!
Die Bodenoberfläche ist nachts die Kühlfläche und am Tage die Heizfläche für die aufliegende Luft. Die Energiequelle ist die Sonne. Sie strahlt aber nur am Tage, während die Erde rund um die Uhr strahlt!
Und nun noch der Nachmittag. Während die 200 cm Temp. Von 19,3°C um 16 Uhr noch auf 19,7°C um 17 Uhr stieg, sank die 20 cm Temp. von 20,7°C auf 20,6°C. Kurz vor 17 Uhr wurde die Ausstrahlung größer als die Einstrahlung, die Bildung einer Bodeninversion hatte begonnen.
Dies noch zur Abrundung! Jedenfalls für eine Gegenstrahlung kein Hinweis, geschweige denn ein Beweis!
Mit freundlichen Grüßen
Wolfgang Thüne
Teil 2 finden Sie hier
Der vollständige Beitrag ist im Anhang als pdf herunter ladbar

Related Files




Der Winter 2012 war zu warm – Die Winter werden immer kälter

Nicht besser sieht es bei Prof. Dr. Rahmstorf auf „seiner“ KlimaLounge aus (hier). Allerdings hat er seine Statistik mit ein paar Blümchen aus seinem Garten geschmückt. Was dies mit Wissenschaft zu tun hat, wissen wir auch nicht. Deshalb für ihn ein paar Fakten:

1356 blühten an Weihnachten die Blumen und die Bäume bekamen Knospen. (Im Sommer 1304 trocknete übrigens der Rhein aus).

Im Jahr 1430 gab es überhaupt keinen Winter und das Getreide war bereits im April reif.

1617 blühten in Deutschland Ende Januar bereits die Tulpen.

1624 blühten um die Weihnachtszeit in Hildesheim Rosen.

Anno 1796 fing das neue Jahr mit einer recht angenehmen Witterung an und Mitte Januar waren schöne warme Sommertage, welche beinahe den ganzen Monat andauerten. Es war so warm, dass die Bäume anfingen auszuschlagen. In den Niederlanden zeigten die Bäume sogar schon Blüten. Man konnte bis Anfang Februar wie im Sommer spazieren gehen.

Am Neujahr 1898 blühten die Narzissen.

Vom Weihnachten 1909 bis Dreikönig 1910 flogen die Bienen wie im Sommer.

1948 maß die Meteorologische Anstalt auf St. Margarethen die bisher noch nie in einem Januar festgestellte Höchsttemperatur von 18,7°C.. Und weiter, dass Tagesmittel von 15,3°C entspricht der Normaltemperatur des Junianfangs. Sowie:

Anfang Januar 1664 war zu Beginn ein warmer Winter, aber am 22. Januar fing es heftig an zu frieren und dabei fiel auch viel Schnee, der sich über die zugefrorene Elbe und andere Flüsse legte. Dieser Wetterbericht des Jahres 1664 sollte uns sehr bekannt vorkommen, denn 2012 war es ganz genau so. Anfang 2012 recht warm, Herr Prof. Rahmstorf hat dazu Blümchen aus seinem Garten gezeigt, und um den 22. Januar kam dann die „Russenkälte“, wie diverse Medien titelten. Laut Prof. Rahmstorf soll dies nach den Untersuchungen des PIK, AWI und Leibniz-Institut auf den anthropogenen Klimawandel zurück zu führen sein, weil es durch diesen in der Arktis immer wärmer wird, was dann bei uns im Winter Kälte und Schnee bedeuten würde. Nun, bisher wussten wir nicht, dass der anthropogene Klimawandel bereits 1664 sein Unwesen treibte. So kann man von der Vergangenheit eingeholt werden.

Herr Prof. Rahmstorf  verwendet auf seiner KlimaLounge übrigens Deutschlanddaten ab 1750. Die gibt es gar nicht, zumindest nach Aussagen des DWD. Das Deutsche Reich wurde 1871 geschaffen, davor gab es nur eine Kleinstaaterei. Jeder Fürst hatte seine eigenen Stationen, gemessen wurde teilweise nach eigenen Normen und die Thermometer haben zumindest in Süddeutschland noch nach Reaumur gemessen. Erst mit der Reichsgründung gab es eine Vereinheitlichung der Maßeinheiten, auch das Meter wurde seinerzeit eingeführt. Der Deutsche Wetterdienst hat deshalb den Autoren schon einmal früher mitgeteilt, dass verlässliche Deutschlanddaten erst ab 1900 vorliegen. Die 20 Jahre davor, habe man überprüft und extrapoliert. Der DWD geht deswegen davon aus, dass seine Werte ab 1881 verlässlich sind. Davor gibt es nichts Verlässliches. Es sind spekulative Daten, vor allem, weil sehr viele Stationen darunter sind, die heute gar nicht mehr zu Deutschland gehören, d.h. auch Stationen sind darunter, die damals zu dem größeren Österreich gehörten wie Prag, Brünn, Zagreb, Budapest, usw. Bei den DWD-Daten ab 1881 sollen die damals deutschen Stationen, die aber jetzt außerhalb der Staatsgrenzen liegen, herausgestrichen worden sein, das behauptet zumindest der DWD.

Prof. Rahmstorf hat also wieder einmal seinen Beitrag mit der heißen Nadel gestrickt. Mit Wissenschaft oder gar korrekter Wissenschaft, hat sein Dargestelltes nichts zu tun. Aber dies zeigen bereits die vielen Blümchen im Bericht aus Rahmstorf´s Garten. Es zeigt sich einmal mehr, fehlen Wissen und Fakten, so muss auf Nebensächlichkeiten – Buntes – zurück gegriffen werden, um ersteres zu verschleiern.

Bereits unsere Überschrift weist auf ein vermeintliches Paradoxon hin. Wie kann ein Winter zu warm sein und dabei immer kälter werden. Nun, dank statistischer Gepflogenheiten, Churchill würde sagen, statistischer Tricks, ist in einer Statistik vieles unterzubringen.

Das Klima, welches im Gegensatz zum Wetter, keine reale Erscheinung ist, also in der Realität gar nicht existiert, ist ein vom Menschen gemachtes willkürliches Konstrukt, um Vergleiche anstellen zu können. Vor knapp 100 Jahren hat sich die Meteorologie auf einen Referenzzeitraum von 30 Jahren festgelegt und gesagt, dieses ist zukünftig als Klimazeitraum definiert. Der erste “Internationale klimatologische Referenzzeitraum“ begann 1931 und endete folglich 1960. An diesen schließt sich der zweite Internationale klimatologische Referenzzeitraum von 1961 bis 1990 an, an dem heutige Durchschnittswerte, z.B. Jahreswintertemperatur, verglichen werden. Nun ist den älteren von uns der Zeitraum von 1961 bis 1978 noch in guter Erinnerung. Dies war die Zeit, als in Wissenschaft, Medien und Politik ein Gespenst umging, nicht etwa das Gespenst einer drohenden Erderwärmung, nein, das Gespenst einer drohenden Eiszeit (Abbildung 1).

Abbildung 1 zeigt den Klimabericht aus Newsweek vom 28. April 1975, der eine drohende Eiszeit postuliert. In Deutschland tat sich Der Spiegel mit der Thematik hervor und titelte am 12.08.1974 zur vermeintlich drohenden Eiszeit, “Katastrophe auf Raten“. Damals hieß es: “Die Abkühlung hat schon hunderttausende Menschen getötet. Wenn sie weiter voranschreitet und keine Maßnahmen ergriffen werden, wird sie weltweite Hungersnöte, weltweites Chaos und Weltkrieg hervorrufen und das kann alles noch vor dem Jahr 2000 eintreffen“, sagte zum Beispiel Lowell Ponte 1976 in “The Cooling“ und Paul R. Ehrlich sechs Jahre früher zum selben Thema: “In zehn Jahren werden alle bedeutenden Lebewesen im Meer ausgelöscht sein.“ (http://www.prisonplanet.com/articles/february2007/130207globalwarming.htm)

Wie wir heute wissen, ist nichts dergleichen eingetroffen, außer, dass auch damals die Klimatologen und deren Anhang, die auf der Hysterie-Welle schwammen, gute Tantiemen einfuhren.

Warum es damals kälter wurde und anschließend wieder wärmer, zeigt Abbildung 2.

Abbildung 2: Die Sonne war in den 1960-und 1970-Jahren außerordentlich schwach in ihrer Aktivität und damit Energieabgabe.

Werden nun statistisch Werte von heute mit dieser kalten Epoche verglichen, müssen die Werte so lange wärmer sein, so lange, wie diese Kaltzeit nicht unterboten wird und folglich auch kühle Jahre als warm ausgewiesen werden.

Nimmt man hingegen die beiden letzten Dekaden und vergleicht diese miteinander, so ist festzustellen, dass von 1993 – 2002 die Winterdurchschnittstemperatur in Deutschland bei +1,4°C lag und von 2003 – 2012 bei nur noch +0,7°C liegt (nach Daten des DWD).

Demnach sind die Winter deutlich kälter geworden. Sie sehen, mit Statistik lässt sich alles und nichts sagen, getreu dem Ausspruch von Winston Churchill. “Ich glaube nur der Statistik, die ich selbst gefälscht habe.“

Damit sich unsere Leser selbst ein Bild machen können, zeigt Abbildung 3 die Wintertemperaturen von Deutschland im Zeitraum von 1882 bis 2012. Die Daten stammen vom DWD. Dabei handelt es sich um die Originaldaten, die noch nicht um den Wärmeinseleffekt bereinigt wurden. Siehe hierzu unser Beitrag (hier)

Werden die Jahre ab dem wärmsten global gemessenen Jahr betrachtet, so ergibt sich folgendes Bild.

Abbildung 4 zeigt die Wintertemperaturen in Deutschland von 1998 – 2012. Der Mittelwert liegt bei +1,2°C (grün). Insgesamt ist die Tendenz fallend. Auffallend ist der hohe Winterwert im Jahr 2007. Dies war auch das Jahr mit der größten arktischen Eisschmelze, was als Hinweis zu deuten ist, was die vergleichweise milde Wintertemperatur verursachte und weiter zeigt, dass die jüngst medienwirksam vorgestellten Untersuchungen des AWI, PIK und dem Leibniz-Institut: „Klimastudien sagen kältere Winter in Europa voraus“, nach denen es bei uns im Winter kalt werden soll, weil es in der Arktis warm wird, blühender Unsinn sind. Ist es in der Arktis warm, wie z.B. in 2007, so ist es auch bei uns im Winter warm.

Sie sehen, mit Statistiken lässt sich viel darstellen, aber nicht die Frage nach dem Warum beantworten. Hierzu bedarf es der notwendigen „Hintergrundinformationen“.

Abbildung 5a zeigt die AMO (Atlantic Multidecadal Oscillation) ab 1870. Zum einen ist ihr Verlauf zyklisch, mit einer Zyklusdauer von ca. 35 Jahren (bei der Darstellung des Hadley-Centers, mit der gewählten Nulllinie geht dies unter, in Abbildung 5b ist der zyklische Verlauf der AMO deutlich sichtbar). Sie folgt dem Brückner-Zyklus der Sonne und zum anderen, ist sie derzeit in ihrer Warmphase, die um 2007 ihr Maximum erreichte und derzeit immer noch hoch ist.

Abbildung 5b: Kleine Abbildung zeigt den Verlauf der AMO nach Rowan, T.S., and Daniel Hodson, „Atlantic Ocean Forcing of North American and European Summer Climate“, Science 309, 115-118, 2005 und die große Abbildung die AMO nach Dr. Landsea, wie diese mit der Hurrikantätigkeit korreliert. Der Autor berichtete in seiner EIKE-Reihe vom September 2011 “Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ darüber (hier). Eine positive, wie negative AMO-Phase dauert im Mittel ca. 33,5 Jahre. Die eigenartige Darstellung der AMO des Hadley-Centers in Abbildung 5a, mögen die Autoren nicht kommentieren. Die Rolle des Hadley-Centers in der Temperaturdarstellung ist jedoch spätestens seit Climategate hinlänglich bekannt.

Warme Wassertemperaturen bedeuten nun nichts anderes, als eine verstärkte Eisschmelze (beim arktischen Eis handelt es sich um gefrorenes Meerwasser – ist das Wasser warm, so hat Eis es schwer) und, bei Westwinden, milde Temperaturen in Deutschland, insbesondere im Winter. Wie Abbildung 6 zeigt, herrscht in Deutschland seit Mitte der 1960-Jahre im Winter eine Westwinddrift vor, was mildere Winter bedeutet. Dies wird sofort ersichtlich, wenn diese Information (Abbildung 6) mit Abbildung 3 verglichen wird. Vor dieser Zeit (Mitte der 1960-Jahre) gab es einige sehr kalte Winter in Deutschland. Ab Mitte der 1960-Jahre haben sich die unteren Werte teils deutlich angehoben – in Summe mildere Wintertemperaturen in Deutschland wegen der vorherrschenden Westwinddrift. Liegen dagegen in Deutschland Nord- oder gar Ostströmungen vor, so werden vergleichsweise kältere Winter gemessen, wie in 2009, 2010 und 2011 (Abbildung 4), als Deutschland unter einer lang anhaltenden Schneedecke begraben war oder Ende 01/12 und Anfang 02/12, als Deutschland unter einer Kälteglocke lag.

Abbildung 6: Deutlich ist zu erkennen, dass seit Mitte der 1960-Jahre die West-Wetterlagen im Winter zunahmen (was wärmere Winter bedeutet) und im Sommer dagegen abnahmen (was trockenere und wärmere Sommer bedeutet). Quelle, Sächsisches Landesamt für Umwelt und Geologie.

Während die Leser auf den diversen Klimahysterikaseiten mit Statistiken beaufschlagt werden, bekommen unsere EIKE-Leser die Hintergrundinformationen, die notwendig sind, um diese Statistiken ganzheitlich zu erklären. Hierfür bedarf es natürlich des entsprechenden Hintergrundwissens, dass bei EIKE durchgängig vorhanden ist, sowie die Bereitschaft, das Wissen ideologiefrei, ohne Abhängigkeit von irgendwelchen Lobbyistengruppen, wie NGO´s, zu verteilen. Inwieweit hiervon bei Personen, die vom Klimarummel, direkt oder indirekt, z.B. über Presseverträge, abhängig sind, ausgegangen werden darf, überlassen die Autoren unseren Lesern.

Eine der besten Aussagen zu den Klimaforschern und dem Anhang, welches sich um diese gebildet hat, um am Geldsegen zu partizipieren, stand in der Hannoverschen Allgemeinen Zeitung vom 15.02.2012:

“Die ganze Klimaforschung ist eine Erfindung von Klimaforschern.“

Treffender und kürzer kann wohl nicht ausgedrückt werden, um was es diesen Damen und Herren geht. Um die Bildung von willkürlichen Konstrukten, um daran Statistik zu betreiben, diese Statistik so hinzubiegen, dass sie für die eigenen Argumente passt, um anschließend über Zuwendungen wie Forschungsaufträge, Steuervergünstigungen, Subventionen u.v.m. treffend zu partizipieren, wie es der Cartoonist in Abbildung 7 zeigt.

Abbildung 7

Der Klimawandel ist längst zu einem gigantischen Wirtschaftsobjekt geworden, in dem sich diejenigen wieder finden, die am Markt, in der klassischen Marktwirtschaft keine Chance haben, einen „Blumentopf zu gewinnen“, um es einmal salopp auszudrücken. Hierzu zählen nicht nur sog. Wissenschaftler, die Forschungsgelder einsammeln und in Prunkbauten sitzen, die natürlich aus Steuergeldern bezahlt werden, sondern auch Journalisten, denen das fundierte Wissen für den sachgerechten Umgang mit einer Thematik offensichtlich fehlt. Wir sollten daher nicht falschen Propheten vertrauen. Solchen, die mit dem Anspruch einer besseren Welt antreten, denen es aber um nichts anderes, als um Macht, Geld und das eigene Ego geht. Der einzige Schutz der sich bietet, ist Information und Wissen. Dieser EIKE-Beitrag soll dazu dienen, das Wissen unserer Leser zu vertiefen.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

* Toralf Staud ist freier Journalist mit Schwerpunkten im Bereich Klimakatsrophismus und Kampf gegen rechts. Er ist Mitglied der Redaktion von “ wir-klimaretter.de und klima-luegendetektor.de

Dafür erhielt er 2008 die Auszeichnung in der Sparte Neue Medien – Dazu DUH-Vorsitzender Harald Kächele: „kritische Umweltberichterstattung in diesen Wochen so nötig wie nie“ – Umweltstaatssekretär Michael Müller (2008) verweist auf Bedeutung von engagiertem Umweltjournalismus für Umsetzung ökologischer Ziele
Er schrieb ferner einige IPCC fromme Artikel in „Die Zeit“, jüngst zur Causa Vahrenholt. Zudem war er Redakteur des Greenpeace Magazins.




Wie der Deutsche Wetterdienst seine Temperaturkurven warm macht und uns Deutschen mit dem Hitzetod der Erde droht

…Diese manipulierte Darstellung, man kann sogar sagen „Grafiktrickserei“ eines Hütchenspielers, dient neben der „politischen“ Ausrichtung seiner Führungsmannschaft, ausschließlich dem Ziel, die seit der Jahrtausendwende weltweit zurückgehenden Temperaturen „warm“ zu reden und die Märchenvorhersagen der aus unseren Steuergeldern bezahlten Erwärmungswissenschaftler namens Mojib Latif aus dem Jahre 2000 für die nächsten Jahrzehnte – wobei eines nun vorbei ist –  in Vergessenheit geraten zu lassen, wie z.B.: Deutschland wird in absehbarer Zeit keine Winter mehr erleben. Wie grotesk eine solche Aussage ist, sieht der Betrachter an der in Deutschland jüngst eingeführten Winterreifenpflicht. Winterreifenpflicht und Erderwärmung, der DWD et al. hält uns Deutsche offensichtlich für Volltrottel. Dass der DWD hier auf dem Holzweg ist, zeigt der folgende Artikel. 

Teil 1

In internen Mails gibt der DWD durchaus zu, dass die Temperaturen seit gut einem Jahrzehnt nicht mehr weiter ansteigen, so wie hier in einer Privatmail vom Sept. 2010:

„Weltweit ist 1998 immer noch das wärmste Jahr und in Deutschland ist es 2000. Das ist kein Geheimnis und das darf auch jeder wissen.“

Die Frage, die sich daraus ergibt: Warum sorgt der DWD nicht dafür, dass dies jeder weiß? Er macht sogar genau das Gegenteil. Der Deutsche Wetterdienst stellt aus seinen eigenen Daten „warme“ Grafiken her. Dies soll hier an folgender Presseveröffentlichung vom 26.7.2011 gezeigt werden.

 

Abbildung 1: Grafik des Deutschen Wetterdienstes, 1881 bis 2010 zeigen die gemessenen Jahresmittelwerte Deutschlands, mit der entsprechenden polynomischen Durchschnittskurve.  Ab 2011 gibt der DWD eine pessimistische und eine optimistische Prognose ab. In dieser ursprünglich vom DWD verwendeten Grafik wird mindestens fünfzehn mal getrickst, um sie „warm“ zu machen.

Anmerkung: Der DWD hat seine eigene Grafik 1 später deutlich verändert, insgesamt sogar verschärft. Insbesondere dadurch, dass suggeriert werden soll, dass die früheren Prognosen, die aus diversen Computerspielen stammen, gegenüber der Realität eine zu geringe Erwärmung auswiesen, was dann auch für die Zukunft zu erwarten ist. Also die Temperaturen der pessimistischen Prognose folgen sollen. Nun, auf Computerspiele wollen wir nicht eingehen. Was Computerspiele mit der Realität zu tun haben, weiß jeder, der schon einmal Computerspiele spielte. Da macht es keinen Unterschied, ob diese auf dem heimischen PC oder auf einem fulminanten Großrechner, mit Petaflop Rechenkapazität laufen. Das Ergebnis aus solchen Petaflops sind dann Penta-Flops, wie das Beispiel mit den Wintern in Deutschland, die es seit 2010 nicht mehr geben soll. Nun wir hätten solche Flopjongleure zum Schneeschippen anstellen sollen.

 

Abbildung 1b) Die ursprüngliche Grafik1 wurde nun durch diese ersetzt. Die Überschrift ist nun grob falsch.

Keinem, der die Seite schnell überfliegt, fallen die 8 großen Fehler auf, schon gar nicht den Menschen in Deutschland, die sich aus Zeitgründen mit der Thematik nur oberflächlich befassen. Dazu kann man auch Politiker, Presseleute und Behörden zählen, die sich neutrale Informationen beim DWD holen wollen. Die Temperaturkurve geht so nach oben, wie man es dann fast täglich in den deutschen Medien vernimmt. Im Gegensatz zu unseren Nachbarn, hat in Deutschland der investigative Journalismus abgedankt – von einer kritischen Hinterfragung, keine Spur. Das falsche Vorwissen um eine angstmachende Klimaerwärmung wird voll bedient.

Da die DWD-Daten zugänglich sind, kann aus diesen Originaldaten die Jahresmittelwerte Deutschlands ohne Manipulation generiert werden. Dabei entsteht die rote Kurve der Abb2.

 

Abbildung 2: Die offiziellen DWD-Jahresmittelwerte für Deutschland, rot. Die letzten 12 Jahresmittelwerte in Deutschland seit 1999 waren laut DWD: 9,5 / 9,9 / 9,0/ 9,6/ 9,4 / 9,0 / 9,0/ 9,5/   9,8/ 9,5/ 9,2/ 7,8C.

Auf die Zukunftsdarstellung von 2010 bis 2100 haben wir verzichtet, denn niemand weiß, wie sich das Wetter weiter entwickeln wird. Da helfen auch keine Supercomputer, da das Wetter ein sog. chaotisches System ist, dessen Vorhersage nur für max. 2 Wochen möglich ist und selbst für diese kurze Zeitspanne liegt der DWD noch oft genug daneben. Wer angesichts solcher physikalischen Randbedingungen Klimavorhersagen für die nächsten 100 Jahre anstellen will, der macht sich selbst zum Clown – zum Climaclown. Der CO2-Treibhauseffekt, auf den sich immer berufen wird, ist übrigens durch keinen einzigen Versuch nachweisbar, dass bedeutet: CO2 hat keine Wirkung auf das Klima, zumindest ist keine nachweisbar.

Auf den ersten Blick ist auf beiden Abbildungen ein Temperaturanstieg seit 1881 erkennbar, auf der DWD-Grafik ist der Tiefpunkt um 1970 jedoch nicht so deutlich ausgeprägt. Schon merkwürdig, hält sich der Betrachter vor Augen, dass in jener Zeit in der Politik, Medien und Wissenschaft das Gespenst der drohenden Eiszeit umging. Heute hat sich bekanntlich das Gespenst gewandelt und kommt in einem anderen Gewand daher. Seine Großmeister sitzen nun auch in der DWD-Führungsmannschaft. Übereinstimmend ist dann wieder der Anstieg ab 1975. Diesen Anstieg werden wir später hauptsächlich mit dem Wärmeinseleffekt (WI) erklären. Der WI ist denn auch das, was vom sog. menschengemachten Einfluss auf die Temperaturen übrig bleibt. Doch betrachten wir nun beide Abbildungen, also Abb1 und Abb2, welche aus den gleichen Temperaturwerten generiert wurde.

Wir haben 8 grobe Fehler und sieben weitere Tricks in der Grafik1 gefunden:

1) Das Jahr 2010 wird in der Trick-Grafik beim DWD nicht mit 7,8C oder 7,9C geführt, sondern mit 8,3 Grad. Bei der neuen Grafik 1b sind es sogar fast 9 Grad.

2) Die Kurve der letzten Jahre fällt nicht – die Temperaturen gehen bekanntlich zurück, sondern sie geht weiter leicht aufwärts, ununterbrochen bis 2010.

3) Die letzten 6 Werte (2005 bis 2010) hatten einen Mittelwert von 9,15°C. Die sechs Jahre davor waren 9,4°C.

4) Die durchgezeichnete Trendlinie der Abb1 müsste also ab 2004 anfangen von dem mittleren Höchstwert zu fallen und bei 2010 auf mindestens 9 C bzw. noch tiefer angekommen sein, weil das kalte Jahr 2010 die Trendkurve am Ende nach unten zieht. Das ist nicht der Fall, die getrickste DWD-Trendlinie in Abb1 geht weiter leicht ansteigend.

5) Ähnlich der IPCC-Kurve von 2007 gibt es bei der vom DWD getricksten Kurve ab 2011 in der Zukunft bis 2100 nur einen weiteren Anstieg.

6) Ganz rechts bei der Grafik1 beim Jahr 2100 wird geschickt zur weiteren Desinformation der Erwärmungsgläubigen ein Thermometer als y-Achse eingeblendet, das bei 24°C steht. Damit soll offensichtlich suggeriert werden, dass bei leichter Erwärmung in Deutschland im Jahre 2100 ein Jahresmittelwert von sage und schreibe 24°C erreicht werden wird. Und bei starker Erwärmung (obere Kurve) wohl der Hitzetod der Erde. Da eine solche Darstellung kein Zufall sein kann (so weit möchten wir nicht gehen und der DWD-Führungsmannschaft vorhalten, sie wüsste nicht was sie veröffentlicht), muss davon ausgegangen werden, da hier eine aus der Werbung bekannte Strategie angewendet wird, die der visuellen Manipulation, die sich dann unterschwellig in den Köpfen des Betrachters festsetzt. Also eine gezielte und bewusste Täuschung des Betrachters anstrebt.

7) Auf der rechten Hälfte der DWD-Grafik steht "pessimistisch" und "optimistisch". Beides sind in der Wissenschaft eigenartige Wörter und wohl wieder mehr aus der Werbebranche entnommen.  Die Autoren haben jedenfalls noch nichts davon gehört, dass Albert Einstein für seine Relativitätstheorien einmal eine optimistische Relativitätstheorie und eine pessimistische Relativitätstheorie abgegeben hat. Aber Einstein war auch ein gestandener Wissenschaftler und kein Medienclown. Was gänzlich fehlt, ist eine "realistische Prognose", bei der man zugeben müsste, dass niemand weiß, wie das Wetter wird. Der DWD weiß nur zu genau, dass eine realistische Prognose gar nicht abgegeben werden kann, nicht einmal eine Prognose selbst, sondern nur ein unbestimmtes Szenario. Nun Szenarien hat wohl schon jeder einmal erleben dürfen. Die Welt ist davon noch nie untergegangen.

8) Die Texterklärung des DWD zu dieser falschen Grafik ist dann vollkommen inakzeptabel. Im Text wird einfach davon ausgegangen, dass ein weiterer C02-Ausstoß zwangsläufig zu einer Erwärmung führen muss, mit all den Folgen, die alimentierte Erwärmungswissenschaftler sich gerne ausmahlen. Kein Wort davon, dass kein einziger Versuch einen C02-Treibhauseffekt beweisen kann. Der DWD, der sonst nicht einmal das Wetter für die nächsten zwei Wochen richtig vorhersagen kann, ist sich in der Textinterpretation für die nächsten 90 Jahre ganz sicher. Mit Wissenschaft hat dies nichts zu tun, eher schon mit Wahrsagerei.

Hier nochmals die erste Originalgrafik des DWD:

 

Wie dargelegt, gehen die Autoren von einer gewollten psychologischen Wirkung der DWD-Grafik auf den Betrachter aus.

9)  Da die Kurven mit dem Begriff "Prognose" beschriftet sind, gewinnen die Aussagen des DWD eine Aura des unumstößlichen und unangreifbaren. Die Suggestivkraft der Graphik soll den Eindruck erwecken, als stimmten die Zahlen, was eine Futuristik, nichts anderes ist eine Prognose, gar nicht leisten kann. So würde kein Betrachter auch nur einen Cent für die Prognose der kommenden Lottozahlen ausgeben. Für Klimapojektionen (das IPCC spricht übrigens von Projektionen und nicht von Prognosen, weil mit den Modellen eine Prognose gar nicht machbar ist – insofern ist die Aussage des DWD eine dreiste Falschaussage) werden hingegen zig Millionen unserer Steuergelder verschleudert. Die Prognosekurven sind daher ebenso fraglich wie suggestiv.

10) Ein weiterer Darstellungs-Trick der DWD-Leute funktioniert über die Zeitskala der Kurve: Der rechte Teil der Kurve, also ab 2010 bis 2100 ist im Maßstab um rund 40% gestaucht gegenüber dem linken Teil 1881 – 2010.  Das erhöht optisch den Kurvenanstieg der roten und der gelben Kurve um fast das Doppelte. Welche Reaktion stellt sich beim unbedarften Betrachter ein? Natürlich: die DWD Prognose gewinnt an Dynamik und Dramatik!

11) Die DWD-Darstellung "Künftig mehr heiße Tage" verkündet ihre Kernbotschaft in Lettern vom Bildzeitungs-Format. Das Auge des Lesers wandert von der Balken-Überschrift zu dem hellen Blitz ganz rechts, der an eine Atomexplosion erinnert, aber auch die heiße Sonne sein kann, die uns blitzartig verbrennt. Von dort gleitet der Blick zwangsläufig nach rechts auf das Thermometer, das ebenso weiß hervorsticht, wie die Überschrift und der Blitz. Und bleibt dort hängen an dem dicken roten Balken – der unfassbare 74 Grad verheißt! Das muss die Klimakatastrophe sein! Nur wer sich mit solchen Thermometern auskennt, der weis, dass die vordere Skala in Fahrenheit und die nach hinten gewandte in Celsius ist. Das Auge des „ungeübten“ Betrachters sucht nämlich spontan die vordere Skala, mit der Folge, dass ihm ein gehöriger Schreck in die Glieder fährt. Er nimmt – wie sollte er anders – die Zahl für bare Münze. Aber auch die Thermometerauswahl ist bewusst so gewählt.

12) Denn der DWD-Grafiker, der eine Thermometerdarstellung sucht,  stößt zwangsläufig auf hunderte Celsius-Thermometer, neben einigen Celsius-Fahrenheit-Thermometern. Der DWD-Zeichner wählt nicht das nahe liegende und gebräuchliche Celsiusthermometer, sondern das bei uns weniger verbreitete Celsius-Fahrenheit-Thermometer. Absicht oder Schusseligkeit? Nach 10 Sekunden des Nachdenkens klärt sich die Motivlage auf. Da der DWD eine Deutsche Einrichtung ist, müsste der Zeichner ein Celsius-Thermometer nehmen. Wenn er dennoch dieses bei uns ungebräuchliche Thermometer wählte, und dann noch die Fahrenheitskala nach vorne drehte, liegt wohl ein Willensakt vor. Ebenfalls für die Absicht des DWD spricht, dass die Bezeichnung "F" und "C" oben abgeschnitten ist, was dem Betrachter das Verständnis erschwert und damit den Angstfaktor verstärkt.

13) Weiterhin für bewusstes Handeln des DWD spricht, dass dutzende DWD-Mitarbeiter die Graphik gesehen haben müssen, bevor sie veröffentlicht wurde. Jeder von ihnen MUSSTE doch beim ersten Augenschein dieses ungebräuchliche und seiner Skalenbezeichnung beraubte und allemal zu hoch anzeigende Thermometer monieren und dafür sorgen, dass es umgehend mit einem kleinen Handgriff in der Graphik gegen ein vernünftiges ausgetauscht wird. So scheidet Schusseligkeit des Zeichners als Motiv für die Auswahl eindeutig aus.

14) Die billige Schreckensmethodik des DWD ist damit jedoch nicht zu Ende. Im Gegenteil – der Schreck geht weiter. Denn gleich links neben dem Thermometer verläuft die „pessimistische“ rote Kurve aus der Kurvengraphik heraus und landet just in dem tödlichen Atom- oder Sonnenblitz. Steil geht es bergauf, immer steiler und schneller wird sie, je näher man an 2100 kommt, das Jahr der Prophezeiung. Noch ein paar Jahre weiter, und die die Kurve wird ganz senkrecht in den Himmel schießen. Da kann uns auch die gelbe Kurve darunter nicht trösten, denn hier dauert es eben nur ein wenig länger, und nicht wir, die Kinder und die Enkel sind betroffen, sondern erst unsere Urenkel. Denn auch die gelbe Kurve hat den progressiven Trend, der uns zu Todgeweihten macht, wenn wir nicht schnellstens auf den Weg der Hohepriester des anthropogenen Klimawandels einschwenken. Oh sole mio – moribundi te salutant. Hierzu passt auch die jüngste Veröffentlichung des Max Planck Instituts der Meteorologie, die medienwirksam am 23.02.2012 verkündet wurde, die da so lautet, die Welt (2°C-Ziel) ist noch zu retten, wenn wir schnellstens den CO2-Zertifikatehandel (also das Karussell zum Gelddrucken) bedienen. Wenn nicht, dann droht der Welt der Überhitzungstod und den Meeren die Versauerung.

15) Bei einer Aussage mit einer derartigen Häufung von suggestiven Graphik-Elementen drängt sich der Verdacht der Täuschung auf, und die gesamte Darstellung (Zahlen und Graphik ) ist – bevor man überhaupt sachlich an das Zahlenwerk herangeht – somit insgesamt unter Vorbehalt zu stellen. Es handelt sich keineswegs um eine wissenschaftlich seriöse Arbeit, sondern um billige „Teufelsdarstellung“ aus dem Mittelalter.

Fassen wir zusammen:

1)      Durch diese hier dargestellten 15 Punkte gelingt es dem DWD, die seit dem Jahre 2000 anhaltende Abkühlung vor der deutschen Bevölkerung zu verheimlichen.

2)      Es soll vielmehr der Eindruck erweckt werden, als sei alles viel schlimmer geworden und die Erwärmung habe zugelegt in den letzten 10 Jahren und wird immer wärmer.

3)      Unser realistischer Temperaturverlauf in Abb2, dargestellt nach den Original-DWD-Temperaturmesswerten, zeigt seit 2001 keinen weiteren Anstieg mehr, sondern eine Stagnation und seit einem Jahrzehnt geht die Trendlinie nach unten.

4)      Betrachtet man nur die letzten 13 Jahre, dann ist der Abwärtstrend noch deutlicher:

 

Abbildung 3: Die letzten 13 Jahresmittelwerte in Deutschland seit 1999 waren laut DWD: 9,5 / 9,9 / 9,0/ 9,6/ 9,4 / 9,0 / 9,0/ 9,5 / aufgerundet 9,9/ 9,5/ 9,2/7,8 und 9,6°C. An der blauen Trendkurve sieht man deutlich: Wir haben in Deutschland einen Temperaturrückgang seit über einem Jahrzehnt. Aus diesem Grunde ist auch die Überschrift der neuen DWD-Grafik, siehe Abb1b grob falsch.

Teil II: Zum Wärmeinseleffekt (WI)

Der Temperaturrückgang seit 2001 ist aber noch viel stärker als in unserer roten, ohne Tricks dargestellten Kurve der Abb2 oder in Abb3 augenscheinlich wird. Der Wärmeinseleffekt der Städte und Bebauung wirkt der Abkühlung entgegen. Die Abkühlung ist daher in Wirklichkeit stärker. Die Thermometer (und übrigens auf Anfrage auch nicht die Leiter der Stationen) der Messstationen wissen nicht, ob die gemessene Temperatur vom Wetter oder von der Bebauung kommt. Sie messen die Fehler, die der WI verursacht, einfach mit. Die Bäume und Pflanzen in der freien Fläche, vor allem dort, wo der Mensch in die Natur noch wenig eingegriffen hat, bekommen von der Erwärmung weniger mit.

Siehe: http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/

Aus diesem Grunde haben Kowatsch/Leistenschneider die vom DWD ermittelten Daten wärmeinselbereinigt und dabei erhielten die Autoren die blaue Kurve der Abbildung 4.

Erklärende Literatur zur Berechnung des Wärmeinseleffektes.

Und: Link

Dieser wärmeinselbereinigte Temperaturverlauf soll hier etwas ausführlicher dargestellt werden, da er den Temperaturvergleich Deutschlands der letzten 130 Jahre viel realistischer wiedergibt.

 

Abbildung 4: Die aus den DWD-Originaldaten heraus gerechneten Temperaturen der Wärmeinselflächen in Deutschland. In rot die Temperaturreihe aus der Abb2 und in blau, die um den Wärmeinseleffekt korrigierten Daten Deutschlands.

Wie man leicht erkennt, hatte sich anfangs die Wärmeumgebung der Messstationen noch kaum verändert. Je mehr man sich jedoch der Gegenwart nähert, umso größer wird der Korrekturfaktor Wärmeinseleffekt, den man bei Temperaturvergleichen mit früher (1891) berücksichtigen muss. Vor allem in den letzten 40 bis 50 Jahren haben die Wärmeinseln in Deutschland sehr stark zugenommen. Momentan wird täglich ein Quadratkilometer „Grünland“ durch Bebauung zerstört und eine noch größere Fläche trockengelegt.

Die von uns Menschen herbeigeführte Erwärmung in den Wärmeinseln, die längst zu Wärmeregionen angewachsen sind, dort wo auch die Messstationen überwiegend stehen, wird irrtümlich einem menchengemachten C02-Treibhauseffekt angerechnet. Menchengemacht ist dabei lediglich der WI.

Auch die freie Fläche Deutschlands hat sich seit 1871 oft dramatisch verändert, durch Abholzungen, Landschaftszerstörung, Trockenlegung von großen Flächen, Straßen- und umfangreichen Feldwegebau. Die Flüsse sind durch die industrielle Nutzung wärmer geworden und bringen die Wärme in die Flussauen. Die Herbstnebel verschwinden. Die heutige Messstation am Frankfurter Großflughafen im Strahle der heißen Abgase hat ganz andere physikalische Bedingungen und ist nicht mehr mit der früheren Station auf einer Feuchtwiese im bewaldeten Spessart vergleichbar. Trotzdem werden die Jahresmittelwerte direkt verglichen und man stellt eine enorme „Klimaerwärmung“ fest.

Auf den Meeren kommt diese Inselwärme natürlich nicht an. Deshalb gibt es dort auch keine steigenden Temperaturtrendlinien in den letzten Jahrzehnten, siehe

Der Wärmeinseleffekt als maßgebender Treiber der Temperaturen

Gefühlte Intensität der Klimalüge…

Nähere Betrachtung der um den Wärmeinseleffekt bereinigten Kurve

 

Abbildung 5: In den letzten 120 Jahren sind die Temperaturen über Jahre gestiegen und gefallen. Seit zehn Jahren fallen sie wieder, trotz weiterem C02-Anstieg in der Atmosphäre.

Von einer Klimakatastrophe ist weit und breit nichts zu sehen. Diese Temperaturkurve zeigt eindeutig, dass C02 keinen Treibhauseffekt in Form einer ständig nach oben gehenden Erwärmung erzeugen kann, da die Mauna Loa CO2-Kurve stetig ansteigt. Diese von manchen Klimawissenschaftlern zum Glauben erhobene C02-Erwärmungs-Behauptung kann, wie bereits dargelegt, durch keinen einzigen Nachweisversuch gezeigt werden. Die C02-Theorie kann der Temperaturrealität nicht standhalten. C02 macht kein Klima heiß. In Versuchen kann lediglich gezeigt werden, dass CO2 erwärmt werden kann (für wahr, eine triviale Aussage), aber nicht, dass CO2 seine Umwelt erwärmt.

Temperaturmessstationen, deren Umfeld sich fast nicht änderte und bei denen daher kein WI vorhanden ist, zeigen denn ein gänzlich anderes Bild der Temperaturentwicklung. Eine solche Station ist z.B. „Dale Enterprise Virginia“. Neben den gleich gebliebenen Temperaturtrendlinien auf den Weltmeeren, ist diese Messstation ein weiterer Beweis für die Richtigkeit unserer Betrachtungen über die zeitlich sich summierenden  Wärmeinseleffekte.

In der folgenden Grafik sind die Temperaturdaten von Virginia mitten auf dem Land zu sehen, deren Umgebung  in den letzten 120 Jahren nahezu gleich blieb. Auch die Tagesmittelwerte*) wurden immer nach demselben Muster bestimmt und so die Jahreswerte ermittelt.

*) In Deutschland wurde gleich zweimal umgestellt. Zuerst in 2001 und dann nochmals in 2009 (jetzt wird halbstündlich gemessen). Allein durch die Messdatenumstellung in 2001 (Mittelwert wird aus 24 Stundenwerten ermittelt, gegen über drei Tagesmessungen, wobei der letzte Messwert einfach doppelt gezählt wurde) stiegen die Temperaturen statistisch um 0,1°C.

Die folgende Graphik zeigt den Temperaturverlauf dieser Station aus den Messdaten.

 

Abbildung 6: Aktueller Temperaturtrend: 0.24°C/Jahrhundert  http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station

Die Überraschung ist groß. Die vom IPCC behauptete globale Erwärmung der letzten 130 Jahren ist überhaupt nicht erkennbar bei dieser Station. Auch nicht bei den überwiegenden Flächen der Erde, den Meeresflächen. Nur für die ersten 20 Jahre ist ein Anstiegstrend erkennbar, was nicht verwundert, da 1850 die sog. Kleine Eiszeit zu Ende ging.

Fazit:

Wie sich das Deutschlandwetter und das Klima in den nächsten 50 Jahren weiterentwickeln wird, ist anhand von Klimamodelle oder sonstiger Rechenmodelle nicht zu ermitteln. Alle darauf beruhenden Prognosen oder Szenarien sind denn nur als Zufallsprodukte anzusehen.

Sicher ist dagegen, dass die Wärmeinseln in Deutschland, sich weiter ausbreiten werden und der Wärmeinseleffekt deswegen weiter zunehmen wird. Das hat mit einer globalen Klimaerwärmung jedoch nichts zu tun. Die großräumig geschaffenen Wärmeflächen, wo nun auch die Messstationen stehen, sind der Hauptgrund (zu über 50%) für die Wiedererwärmung nach der Kleinen Eiszeit, also nach 1850. Dies zeigen die folgenden Abbildungen:

 

Abbildung 4 (Quelle: EIKE) zeigt nochmals den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2011. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, wurde, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (gelber Bereich).

Als WI für Deutschland haben die Autoren einen Wert von +1,2°C ermittelt. Der DWD gibt in seiner Zeitreihe unter Abbildung 1 im gleichen Zeitraum einen Temperaturanstieg von +1,8°C an. Wird davon der Flächen-WI subtrahiert, ergeben sich +0,6°C Erwärmung, die übrig bleiben. Bekanntlich liegt die globale Erwärmung im 20. Jahrhundert, bei +0,7°C, was dem Wert von 0,6°C für Deutschland, nach Abzug des Flächen-WI sehr nahe kommt. Nun kann natürlich richtig eingewendet werden, dass ein globaler Wert nicht einfach mit einem Landeswert verglichen werden darf. Daher soll die zonale Erderwärmung betrachtet werden.

 

Abbildung 7 zeigt die aus GISS-Daten ermittelte zonale Temperaturerhöhung. Deutschland liegt zwischen dem 47- und dem 55-Breitengrad. Macht gemittelt: 51-Breitengrad. Greift man nun die zonale Temperaturerhöhung für den 51-Breitengrad in der Datenreihe ab, so liegt man bei ca. 0,7°-0,8°C, was der von uns ermittelten Temperaturerhöhung für Deutschland sehr nahe kommt und ein Hinweis ist, dass unsere Berechnung für den Flächen-WI Deutschland von +1,2°C richtig ist.

Wir stellen fest, die Erwärmung Deutschlands fand hauptsächlich in den Wärmeinseln statt, dort wo auch die Menschen leben. In diesen inzwischen zu großflächigen Regionen angewachsenen Wärmeinseln ist es tatsächlich wärmer geworden und die warmen Tage haben zugenommen. In den wenigen unveränderten Naturflächen, weitab von allen Wärmeinseln oder gar in den Meeren ist von einer Klimaänderung in Sinne von immer heißer, fast nichts angekommen. In den seit 100 Jahren fast unverändert gebliebenen Naturlandschaften wie Bayerischer Wald usw., macht immer noch der Mai die Bäume grün, ganz so wie das kleine Liedchen diesen Monat seit eh und je beschreibt. Insofern sind die aktuell in der deutschen Tagespresse kursierenden Behauptungen  "Nach UN-angaben hat sich die Erdatmosphäre in den vergangenen 15 Jahren so stark erwärmt wie nie zuvor" blühender Unsinn, wie Abbildung 8 belegt.

 

Abbildung 8 zeigt die Temperaturentwicklung in der Atmosphäre nach Satellitenmessung im Zeitraum vom 1979 bis Januar 2012. Gegenwärtig liegen die Temperaturen um -0,1°C niedriger als im Langzeitmittel. Eine Abkühlung in der Atmosphäre und keine Erwärmung! Angesichts der Realität drängt sich der folgende Satz auf “Ist der Ruf erst ruiniert, regiert sich´s völlig ungeniert.“ Mit anderen Worten, je mehr den Klimahysterikern ihre Felle davonschwimmen, weil die Natur ihre eigenen Wege geht, desto dreister werden die Falschaussagen, die von dort mit willfährigen Helfern in den Medien verbreitet werden. Getreu dem Motto eines Diktators eines 1000-jährigen Reichs, von dem die Aussage stammt “Eine Lüge muss nur oft genug wiederholt werden, dann wird sie geglaubt.“

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, gesunde Nahrungsmittel und ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz ist deshalb ein konsensfähiges Ziel aller Völker. Die weitere Zerstörung der Naturlandschaften muss z.B. verhindert werden, als Unsummen für Darbietungen von Clowns – Climaclowns auszugeben.

Josef Kowatsch, Hüttlingen.

Raimund Leistenschneider – EIKE




„Die Zeit“ – Eine Illusion, Leserbrief an die Chefredaktion und den Herausgeber

Betrifft: Ihr Artikel vom 26.01.2012, “Kälte aus dem All? Der RWE-Manager Fritz Vahrenholt zweifelt an der weiteren Erderwärmung“
Die Zeit versucht einmal mehr, den Spagat zwischen Auflagenstärke und Wahrheit zu bewerkstelligen. Ihrer „Biellmann-Pirouette“ in Richtung Auflagenstärke fiel dabei erst jüngst ihr Vorsitzender (Herausgeber), der Altbundeskanzler Helmut Schmidt zum Opfer, als Die Zeit seine Rede vor der ehrwürdigen Max Planck Gesellschaft zensierte und ihr nicht genehme Passagen dem Rotstift opferte (http://www.eike-klima-energie.eu/climategate-anzeige/forscher-als-betrueger-helmut-schmidt-fordert-ipcc-untersuchung-die-zeit-zensiert-altkanzler/). Dort forderte unser Altbundeskanzler: „Es scheint mir an der Zeit, dass eine unserer wissenschaftlichen Spitzenorgani-sationen die Arbeit des IPCC kritisch und realistisch unter die Lupe nimmt und so-dann die sich ergebenden Schlussfolgerungen der öffentlichen Meinung unseres Landes in verständlicher Weise erklärt“.

Doch nun zu dem „Paarlaufen“, welches das Männerduo Stefan Schmitt und Christian Tenbrock von Die Zeit dem deutschen Publikum darbietet. Bereits der „Mohawk“, der einfache Schritt also, missglückt. Wer sich in die Welt der Wissenschaft begibt, der sollte zumindest, auch wenn er dazu offensichtlich nicht in der Lage ist, deren Inhalte nachzuvollziehen und damit zu verstehen, die Autoren richtig schreiben können. Dies ist wohl das mindeste, was der Zuschauer von einem Pressevertreter erwarten darf. Der Astrophysiker, den die Paarläufer der Zeit bemühen, heißt Svensmark und nicht „Svendsmark“. Vermutlich haben sich die Paarläufer bei „ihrem Schritt“ gegenseitig auf den Füßen gestanden.

Nicht besser wird ihr “Butterfly“, der Einstieg in die Materie, sozusagen. Im Artikel ist über die Arbeiten Prof. Svensmark zu lesen, dass sie am CERN im dortigen “Cloud-Experiment“ überprüft würden: “Cloud erzeugt zwar Kondensationskeime, aber viel zu kleine.“ Für wahr eine grandiose wissenschaftliche Aussage. Was meinen die beiden Paarläufer, die Die Zeit ins Rennen ihrer Auflagenrettung schickte, mit “viel zu kleine“?

Kondensationskeime besitzen einen Durchmesser von einem halben Nanometer (nm) bis einigen Zehnmikrometern (μm). Durch kosmische Strahlung entstehen Vorläufer-Kondensationskeime (Clusters) und CN, = Condensation Nuclei von knapp 0,5 nm, womit sie im Spektrum der typischen Kondensationskeime liegen. Hier insbesondere solche aus Stoffwechselprodukten und Verbrennungsprozessen, die in diesen Größenordnungen von kleiner 1nm zu finden sind. Diese Vorläufer-Kondensationskeime bleiben nicht lange (ms) allein, sondern schließen sich, wie die Paarläufer der Zeit, zu Paaren zusammen. Fachlich, CCN = Cloud Condensation Nuclei, mit einer Größe von 1 – 2 nm (auch “Kritische Cluster“ genannt), womit sie erstklassig als Cloud Droplets dienen. Für elektrisch geladen Kondensationskeime, wie sie beim Svensmark-Effekt entstehen, ermittelte das CERN einen Faktor von bis zu 10. Also eine bis zu zehnfach bessere Wirkung!

Übrigens sind kleine Kondensationskeime generell besser geeignet als größere und nicht, wie die beiden verunglückten Paarläufer der Zeit suggerieren möchten, dafür “viel zu klein“. Dies liegt an dem trivialen Grund, dass kleinere Teilchen länger in der Atmosphäre verbleiben. Ihre Verweilzeit dort demnach größer ist und daher auch ihre Verteilungsrate. Dies deshalb, weil sie sich mit immer kleinerem Durchmesser mehr und mehr wie Gase verhalten. Sich auf das Themenfeld der Wissenschaft zu begeben, ist eben nicht so ganz einfach. Übrigens hat der Autor auf EIKE bereits vor über einem Jahr nachgewiesen (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/), dass die Temperaturen in den letzten 30 Jahren allein von der Sonne, über El Niño/La Niña gesteuert werden, was im Januar 2012 das Max Institut für Meteorologie (MPI) für El Niño/La Niña bestätigte (http://www.spiegel.de/wissenschaft/natur/0,1518,808536,00.html). Dass solare Aktivität und Temperaturgang auf der Erde nicht voneinander abgekoppelt sind, zeigt die Tatsache, dass sich die Stärke des solaren Magnetfeldes im 20. Jahrhundert (bis zur Jahrtausendwende) um 100% vergrößerte und dadurch die kosmische Strahlung auf die Erde um 15% abgeschwächt wurde.

Vollends scheitern beide mit ihrem “Flip“. Werfen sie doch Herrn Prof. Vahrenholt vor, er würde von Interessen geleitet und hätte z.B. vor vier Jahren, in 2008, ganz anders “gedacht“. Bekanntlich entwickelt der Mensch sich durch sein Wissen und seine Kenntnisse weiter. Dies ist offensichtlich bei Die Zeit nicht der Fall. Dort ist dann die Zeit stehen geblieben, während dessen sich andere weiter entwickeln. Nun, wäre auch interessant zu erfahren, wie die beiden Paarläufer heraus gefunden haben, was Herr Vahrenholt denkt oder “gedacht“ habe. Dass es mit dem Denken der Zeit-Akteure nicht groß bestellt sein kann, zeigt weiter, dass sie einen Lobbyisten der Windenergie in Sachen Windenergie zu Wort kommen lassen, einer, auf Kosten des Steuerzahlers, hoch subventionierten Branche (Stromerzeugungskosten bis zu 4-fach höher als aus “dreckiger“ Kohle).

Vorbildlich, wenn ein Marktunternehmen, wie die RWE uns Bürger damit nicht auch noch belastet, sondern sich an den Regeln der Marktwirtschaft orientiert. Auf Grund der Energiedichte, wie der Verfügbarkeit und Bedarf (der Wind bläst nun einmal nicht so, wie die Stromabnehmer dies gerne hätten – Wind und Stromabnahme passen nicht zusammen), hat Windenergie, obwohl etwa 28 GW-Leistung installiert sind, nur einen Anteil der zur Verfügung gestellten Leistung von ca. 5 GW. Dies sind sage und schreibe 18% der installierten Leistung. 23 GW sind demnach umsonst installiert, also hinaus geworfenes Geld. Mehr gibt die Auslastung der Windenergie nicht her, weil der Wind über Deutschland nicht öfter bläst. Bei den “dreckigen“ Kohlekraftwerken ist Nennleistung gleich Nennleistung, sofern diese vom Netz abgerufen wird. Selbst solch triviale Zusammenhänge vermögen unsere Zeit-Paarläufer nicht zu erkennen. Aber der Autor möchte nicht zu hart ins Gericht gehen, da auch Zeit-Journalisten ihr privates Vermögen anlegen müssen. Da bieten sich natürlich hoch subventionierte Branchen, die über unsere Steuergelder über sicheres Geld verfügen, lukrative Renditen an und wer möchte nicht, dass sich seine eigene Geldanlage vermehrt. Insofern ist das Arrangement der beiden Zeitläufer erklärbar, abgesehen davon, dass es in Die Zeit passt.

Während sich die Welt weiter dreht – von investigativem Journalismus bei Die Zeit  keine Spur! Die Zeit steht still. (Abbildung, Quelle: www.photaki.com)

Die Zeit, ein Begriff, der in der Naturwissenschaft nicht existent ist, da dort keine Zeit existiert (siehe Spektrum der Wissenschaft 09/10 und 10/10) und die Zeit nur eine Illusion ist. Könnte sein, dass für Die Zeit diese naturwissenschaftliche Betrachtung ebenfalls Gültigkeit besitzt. Mit dem Artikel und den Darbietungen der beiden Zeitläufer ist Die Zeit dieser Betrachtung ein gutes Stück näher gekommen.

Raimund Leistenschneider – EIKE

#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */




„Klimafakten“ und die Definition der Wahrheit – oder ist Wahrheit Ansichtssache?

Im Netz gibt es eine weitere Seite, die die Bürger mit Fakten, im speziellen Fall, „Klimafakten“, informativ an die Wahrheit, das Wahre, die Realität also, heranführen möchte. „Klimafakten“, endlich eine Seite, die Fakten liefert, was denn nun los ist mit unserem Wetter und Klima oder ist damit etwa gar nichts los? Fakten sollen bekanntlich Realitäten, Wahrheiten aufzeigen, bzw. liefern. Die Enttäuschung über die Zeitvergeudung bei näherer Betrachtung war indes nicht unerheblich oder mit dem geflügelten Satz zu umschreiben „Außer Spesen, nichts gewesen“, was nun wieder einen direkten Zusammenhang zu dem jüngsten Klimarummel in Durban liefert, den die Politik, unterstützt von diversen Instituten, wie dem PIK veranstaltet, um unser Bestes zu wollen. Nicht unser Geld, wie jetzt vielleicht mancher zu denken glaubt, nein, unser Klima und damit unsere Lebensgrundlagen, zu retten (sofern sich das Klima von uns Menschen überhaupt retten lässt). In Anbetracht solch geistiger Verwandtschaft lag es nahe, einen Blick auf die Personenliste zu werfen, die die „Wahrheitsseite“ betreibt. Und in der Tat, bekannte Personen, die die Politik mit „Wahrheiten“ beliefert und mit ihr zu sonnigen, urlaubsbekannter Orte, Entschuldigung, heißt natürlich von Klimagipfel zu Klimagipfel jetten, sind dort aufgeführt. Für wahr, eine glaubwürdige, will heißen, unabhängige „Elite“, die sich dort zusammen findet, um uns Bürgern im Land, die Wahrheit, also Fakten zu liefern. Unser EIKE- Artikel möchte exemplarisch ein paar der dort zu findenden „Wahrheiten“ unter die Lupe nehmen.
Ganz vorne steht die Aussage: “97 Prozent der Klimaforscher sind überzeugt, dass der Mensch den Klimawandel verursacht“ und weiter “Es ist wissenschaftlich gesichert und gut belegt, dass der Mensch Hauptverursacher der bereits laufenden globalen Erwärmung ist.“ Warum braucht man dann noch eine „Wahrheitsseite“ im Netz, betrieben von so bekannten Personen wie Rahmstorf – war dass nicht der Rahmstorf, der sich Wissenschaftler nennt und zuweilen Wissenschaft mit einem Wettbüro verwechselt (http://www.scilogs.de/wblogs/blog/klimalounge/klimadaten/2008-05-08/die-klimawette).
Doch zurück zum obigen Zitat. In der Kommunikationswissenschaft wird solches mit einem „Totschlagargument“ gekennzeichnet. Unter Wikipedia steht dazu folgendes:

„Totschlagargumente sind inhaltlich nahezu leere Argumente, also Scheinargumente, bloße Behauptungen oder Vorurteile.“ Wikipedia liefert hierzu Beispiele wie „Jeder vernünftige Mensch weiß, dass …“, oder „Das ist doch allgemein bekannt.“

In der Wissenschaft werden üblicherweise Fragen gesucht, deren Beantwortung diskutiert und Für und Wider gegeneinander „abgewogen“. Von einer weiteren Person, die der Netzseite ein wissenschaftliches Renommee gibt, Prof. Marotzke, MPI, stammt folgende Aussage:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“

Bravo! Herr Prof. Marotzke, wann dürfen Ihre Leser Ihre Einschätzung zu der Güte der Klimamodelle auf „Klimafakten“ lesen. Zum weiteren Inhalt von „Klimafakten“.
Einer der dortigen Berichte befasst sich mit Temperaturreihen und diverser Institute, die diese Reihen zusammenstellen. Nun, seit Climategate weiß die Welt, wie dort Klimawissenschaft durch Taschenspielertricks ersetzt wurde. EIKE berichtete ausführlich darüber. Wissenswertes darüber ist auch unter der Internetseite vor Prof. Watts oder in der Studie “Surface Temperature Records: Policy Driven Deception?“ (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf), oder  hier zu finden (http://surfacestations.org/).
Da die Betreiber der Netzseite „Klimafakten“ explizit auf die Güte der GISS-Reihen verweisen, eine kleine Kostprobe, was es mit dieser Güte auf sich hat:

Abbildung 1 (Quelle: http://icecap.us/images/uploads/GHG_Model_failure_AO.pdf) zeigt die GISS-1980-Datenreihe (blau) und zum Vergleich, für exakt denselben Zeitraum, die GISS-Datenreihe 2010 (rot), in der auf wundersame Weise, der Temperaturverlauf gänzlich anders ist. Zum Vergleich ist darüber hinaus die Abweichung der Satellitenmessungen (+0,26°C) für 2009 eingetragen.
Weiter weiß der EIKE-Leser bereits, dass sich über 50% aller weltweiten Temperaturmessstationen des GHCN (erstellt die globalen Temperaturreihen) auf Flughäfen befinden und mittelbar und unmittelbar von den bis zu 600°C-heißen Jetabgasen beaufschlagt werden. Für globale Temperaturaussagen, die sich im Zehntel-°C-Bereich befinden, für wahr eine mehr als fragwürdige Darbietung. Und man braucht nicht weit zu gehen, um solch eine „Gütestation“ zu finden.
 
Abbildung 2 zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von Antony Watts gezeigt.
 
Abbildung 3 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände Frankfurt (roter Pfeil).
Der mittlere Temperaturhub, der sich durch den Flugbetrieb ergibt und durch die direkte, wie die indirekte Beaufschlagung über Wirbelschleppen erfolgt, liegt bei ca. +2,5°C, wie EIKE berichtete.
Optimisten könnten nun anführen, dass immerhin noch fast die Hälfte der Stationen brauchbar ist, doch leider weit gefehlt, wie der angegebene Link http://surfacestations.org/ und Abbildung 4 und 5 zeigen.
 
Die Messstation befindet sich direkt gegenüber einem Parkplatz in nur 2-3 m Entfernung zur Motorabwärme der Fahrzeuge. Unmittelbar gegenüber der Messhütte ist im Abstand von 3m gerade ein Messfahrzeug des Deutschen Wetterdienstes geparkt. Der Autor möchte nun nicht so weit gehen und fragen, ob immer dann dort Fahrzeuge abgestellt werden, wenn gerade einmal wieder Rekordtemperaturen benötigt werden. Auf jeden Fall verwundert es wohl niemanden mehr, dass gerade die Station in Karlsruhe immer unter den Temperaturrekordhaltern in Deutschland platziert ist.
 
Geradezu abenteuerlich die Aussage von „Klimafakten“ zum  Wärmeinseleffekt (WI), der angeblich heraus gerechnet würde und überhaupt sehr gering sei. Erstens wird der WI weder von dem GISS, noch vom DWD heraus gerechnet, mehr noch, die Stationsleiter des DWD kennen auf Anfrage nicht einmal den WI ihrer Station! Und zweitens ist er alles andere als gering, wie die Bundesanstalt für Geowissenschaften und Rohstoffe bestätigt.

Abbildung 6 verdeutlicht am Beispiel der USA für den Zeitraum von 1910 bis 2000 den WI der Temperaturmessungen. Regionen mit geringer Einwohnerzahl weisen niedrige Temperaturen und fast keinen Temperaturanstieg auf, wogegen in Ballungsräumen eine signifikant höhere Durchschnittstemperatur und ein deutlicher Temperaturanstieg  zu verzeichnen ist, Quelle: Klimafakten, S. 212, der Bundesanstalt für Geowissenschaften und Rohstoffe. Die Bundesanstalt für Geowissenschaften und Rohstoffe nennt ihre Ausarbeitung übrigens ebenfalls „Klimafakten“.
In der folgenden Abbildung sind die wissenschaftlichen Untersuchungen zum Wärmeinseleffekt für Asien, Nordamerika, Europa und Deutschland aufgelistet. Leicht erkennbar, dass die Stadttemperatur deutlich von der Umgebungstemperatur Land abweicht, also verfälschte Werte liefert. Abbildung 7 zeigt die Temperaturunterschiede von Städten gegenüber dem Umfeld.

Abbildung 7, Quelle: Christian-Dietrich Schönwiese, Klimatologie, Stuttgart, 2003
Das gleiche Bild bei der Untersuchung des international hoch angesehenen Klimawissenschaftlers Dr. Spencer.

Abbildung 8: In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen. Bei Änderungen von geringen Bevölkerungsdichten ist dieser proportional am stärksten, d.h. hier tritt die größte Erwärmung auf. Da im 20. Jahrhundert weit mehr kleinere Ansiedlungen in ihrer Bevölkerungsdichte zunahmen, als große Städte, die darüber hinaus noch einen geringeren Erwärmungstrend beim Zuwachs der Besiedlung ausweisen, liegt hier ein weiterer Fakt, warum die Temperaturen ab der zweiten Hälfte des 20. Jahrhunderts, als die Bevölkerungszahlen deutlich zunahmen, vergleichweise stark anstiegen.
Zum gleichen Ergebnis kommen wir bei EIKE. EIKE hat erstmals die für Deutschland richtige Vergleichstemperaturkurve veröffentlicht, in der der WI flächendeckend heraus gerechnet wurde.

Abbildung 9 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich).
Nicht besser ist die Aussage über den sog. Konsens. Dieser so oft bemühte Konsens besteht und bestand zu keiner Zeit und basierte zu allen Zeiten seines Aufkommens auf einer glatten Lüge. EIKE berichtete darüber (http://www.eike-klima-energie.eu/climategate-anzeige/phoenix-runde-teil-ii-kein-prima-klima-ist-die-welt-noch-zu-retten-ein-faktencheck/). Auch hier bringen die Klimaalarmisten Realität und Fiktion durcheinander:
Der Präsident der amerikanischen Akademie der Wissenschaften, Prof. Seitz schrieb im Wallstreet Journal vom 13. August 1996 die folgenden Passagen (deutsche Übersetzung: EIKE):

“In der vergangenen Woche veröffentlichte das Intergovernmental Panel on Climate Change nach fünf Jahren seinen ersten Bericht mit dem Titel „Die Wissenschaft vom Klimawandel 1995“ [The Science of Climate Change 1995]. Das IPCC wird von Vielen als beste Quelle für wissenschaftliche Information über den menschlichen Einfluss auf das Erdklima angesehen. Der Bericht wird ganz gewiss als jüngste und höchstautoritative Aussage über die Erderwärmung begrüßt. Entscheidungsträger und die Weltpresse werden den Bericht wahrscheinlich als Basis für wichtige Entscheidungen über die Energiepolitik ansehen. Er wird einen großen Einfluss auf die amerikanischen Öl- und Gaspreise und auf die internationale Wirtschaft ausüben.“

“Dieser IPCC-Bericht genießt wie alle anderen sein hohes Ansehen vor allem deshalb, weil er von Fachleuten begutachtet [peer reviewed] ist. Das heißt, er wurde von einem internationalen Expertengremium gelesen, diskutiert, geändert und gebilligt. Diese Experten haben ihren Ruf in die Waagschale gelegt. Doch der Bericht ist nicht, wonach er aussieht: Es ist nicht die Version, die von den beitragenden Wissenschaftlern genehmigt wurde, die auf der Titelseite aufgeführt sind. In meinen über 60 Jahren als Mitglied der amerikanischen Wissenschaftler-Gemeinde einschließlich meiner Tätigkeit als Präsident der „Academy of Sciences“ und der „American Physical Society“ habe ich keine bestürzendere Korruption des Verfahrens der Expertenbegutachtung [peer review] erlebt, wie bei der Entstehung dieses IPCC-Berichts.“

“Der Vergleich des von den beitragenden Wissenschaftlern genehmigten Berichts mit der veröffentlichten Version zeigt, dass zentrale Änderungen durchgeführt wurden, nachdem die Wissenschaftler zusammengesessen und die für den Schlussstand gehaltene Version begutachtet und gebilligt hatten. Die Wissenschaftler hatten angenommen, dass das IPCC seine eigenen Regeln einhalten würde – einen Regelsatz zur Steuerung seiner eigenen Tätigkeit. Keine der IPCC-Regeln erlaubt es, einen wissenschaftlichen Bericht zu verändern, nachdem ihn das Gremium der wissenschaftlichen Mitarbeiter und das gesamte IPCC selbst akzeptiert hat.“

“Die wissenschaftlichen Mitarbeiter hatten im November [1995] in Madrid den Bericht „The Science of Climate Change“ angenommen; das gesamte IPCC hatte im Folgemonat in Rom zugestimmt. Aber mehr als 15 Abschnitte im Kapitel 8 waren nach der wissenschaftlichen Überprüfung und Billigung des vermeintlichen Schlusstextes verändert oder gelöscht worden. Kapitel 8 ist das Schlüsselkapitel für das Darstellung der wissenschaftlichen Beweise für und gegen einen menschengemachten Einfluß auf das Klima.“

“Nur einige der Änderungen waren kosmetischer Natur, nahezu alle Hinweise auf die Skepsis vieler Wissenschaftler wegen der Behauptung, dass der Mensch einen Haupteinfluss auf das Klima generell und im Besonderen auf die Erderwärmung hätte, wurden entfernt.“

“Die folgenden Passagen enthalten Beispiele aus dem gebilligten Bericht, die aber aus der vermeintlichen expertengeprüften Version gelöscht wurden.“
„Keine der oben zitierten Studien hat einen klaren Beweis erbracht, dass wir den beobachteten [Klima-] Wandel auf die Zunahme von Treibhausgasen zurückführen können.“ „Bislang hat keine Studie den gesamten oder einen Anteil [des Klimawandels] auf anthropogene [menschengemachte] Ursachen zurückführen können.“ „Jegliche Behauptungen von positiver Entdeckungen über signifikante Klimaveränderung werden wahrscheinlich kontrovers bleiben, bis die Ungewissheit über die gesamte natürliche Veränderlichkeit des Klimasystems vermindert ist.“
“Die gutachtenden Wissenschaftler benutzten genau diese Sprache, um ihre eigene Aufrichtigkeit und die des IPCC zu wahren. Ich bin nicht in der Lage, zu sagen, wer die Hauptänderungen am Kapitel 8 gemacht hat. Doch der Hauptautor des Berichts, Benjamin D. Santer, muss vermutlich dafür verantwortlich gemacht werden.“
“IPCC-Berichte werden häufig als „Konsens“ bezeichnet. Wenn sie aber zur Kohlenstoff-Besteuerung und zu Beschränkungen des Wirtschaftswachstums führen, werden sie ganz sicher eine schwere zerstörerische Wirkung auf die Weltwirtschaft entfalten. Was auch immer die Absicht der Leute war, die diese bedeutenden Änderungen machten, sie täuschten Politiker und die Öffentlichkeit darüber, dass es wissenschaftliche Beweise für die menschliche Verursachung des Klimawandels gäbe.“
“Wenn das IPCC noch nicht einmal seine eigenen Regeln einhält, dann sollte das gesamte IPCC-Vorgehen aufgegeben werden, oder zumindest der Anteil, bei dem es um die wissenschaftlichen Beweise für den Klimawandel geht. Und die Regierungen sollten sich verlässlichere Quellen zur Beratung in dieser wichtigen Frage suchen.“

Die Fälschung der Kyoto-Vorlage durch Santer, warf ein ernstes Problem auf, wenn auch nicht für die Politiker und Staatsoberhäupter, die letztendlich ein solches Konstrukt unterschrieben und sich im wahrsten Sinne des Wortes, verschaukeln ließen. Das Problem bestand darin, dass sich von den ca. 2.000 Unterzeichnern, etwa 1.500 Wissenschaftler weigerten, den von Santer eigenmächtig geänderten Entwurf zu unterzeichnen. Wo sollte nun das IPCC die Unterschriften herbekommen. Hartmut Bachmann hat hierzu Unglaubliches recherchiert und veröffentlicht.
Hartmut Bachmann war u. a. Präsident eines Wirtschaftsinstitutes in den USA und leitete zur Zeit der Erfindung der Klimakatastrophe, also vor ca. 25 Jahren, als CEO und Managing Director eine US-Firma, die sich exklusiv mit Klimafragen beschäftigte. Er war als Kommissar des US Energy Savings Programms präsent bei zahlreichen Meetings und Verhandlungen in den USA, welche die Geburt des IPCC, des späteren Weltklimarates, zur Folge hatten.
Auszug aus dem Bericht von Hartmut Bachmann, “Wer waren die Unterzeichner des gefälschten Weltklimaberichtes?“ vom 02.08.2011:

“Um der hypothetischen Klimakatastrophe entgegenzusteuern sollen alle Nationen der Erde das angebliche Klimagift CO2 durch entsprechende nationale Gesetze bekämpfen. Dieser Auftrag an die Völker der Erde wurde vor Jahren durch die UNO beschlossen. Sie ordnete via ihres Ablegers UNEP für Dezember 1997 eine Weltklimakonferenz in Kyoto in Japan an. Den geladenen Delegationen sollte der neueste Weltklimabericht des IPCC vorgelegt werden.“
“Dieser zweite IPCC-Bericht von Ende 1995 beinhaltete die Schlüsselinformationen für die Verhandlungen, die dann 1997 zur Annahme des Protokolls von Kyoto durch den UNFCCC führen sollten. Dieser Bericht war vor Publikation peer-rewied. Nachdem alle an diesem Bericht beteiligten so genannten Wissenschaftler ihn durch ihre Unterschrift abgesegnet und in Umlauf gebracht hatten, kam Dr. Ben Santer, ein relativ kleines Licht innerhalb der UNO – UNEP – IPCC – Organisationen daher, und löschte alle Textteile, die darauf hinwiesen, dass es wahrscheinlich „KEINE“ Mensch-gemachte Klimaerwärmunf gäbe.“
„Ohne Löschen dieser Aussagen war das lange eingefädelte Billionengeschäft mit der Klimakatastrophe in Gefahr, was anlässlich der nächsten Weltklimakonferenz in Kyoto von der Weltgemeinde abgesegnet werden sollte. Also strich Santer die entsprechenden hinderlichen Passagen.
“Kyoto rückte in Eile näher. Ein von Santer präparierter (gefälschter) schockierender Weltklimabericht lag nunmehr vor. Er sollte die Delegationen animieren, ohne viel Rückfragen und Aufhebens nach Kenntnisnahme des Inhaltes des Klimaberichtes ruck-zuck das so genannte Kyoto-Protokoll, das Endprotokoll der Tagung, zu unterzeichnen. Damit war der Weg frei, mittels nationaler Gesetze den weltweiten kostenträchtigen Kampf gegen das angebliche Umweltgift CO2 zu beginnen. Das gigantische Geschäft der Menschheit erhielt das internationale Limit zum Start. Und nun konzentrieren Sie sich bitte: Der den Delegationen vorzulegende jetzige Klimabericht war nunmehr nicht von gewünschter Anzahl von Wissenschftlern unterzeichnet, da so genannte originäre peer-Reviewer sich weigerten, den von Santer geänderten IPCC-Bericht in der jetzigen „gefälschten“ Form zu unterzeichnen, bzw. die Mitarbeit beim IPCC gekündigt hatten.“


Abbildung 10, zeigt nach Daten der EnBW, wie sich die CO2-Emissionen Chinas von 1990 – 2010 entwickelten und wie sie sich bis zum Jahr 2020 entwickeln werden. Dazu im Vergleich, die europäischen CO2-Emissionseinsparungen nach dem Kyoto-Verträgen. Deutlich ist erkennbar, dass alle EU-Maßnahmen wirkungslos bleiben und die ganzen Gelder zur Reduzierung verschwendet sind.

“In Kassel gab es damals ein Klimainstitut (Center for Enviromental Systems Research University of Kassel) dessen Chef Prof. Joseph Alcamo von UNO, UNEP und IPCC ausgesucht wurde, die Interessen dieser Organisationen bezüglich Klima in Deutschland (Vorbereitung gigantischer Geschäfte) wahrzunehmen. Seinen in Kyoto wartenden Assistenten gab Prof. Alcamo am 9. Okt. 1997 zur Beschaffung der entsprechenden Unterschriften unter den gefälschten IPCC-Bericht folgenden Auftrag, den ich Ihnen hier komplett zur Kenntnis bringe:“
”Sounds like you guys have been busy doing good things for the cause. I would like to weigh in on two important questions–Distribution for Endorsements. I am very strongly in favor of as wide and rapid a distribution as possible for endorsements. I think the only thing that counts is numbers. The media is to say: „1000 scientists signed“ or „1500 signed“. No one is going to check if it is 600 with PhDs versus 2000 without. They will mention the prominent ones, but that is a different story. Conclusion – Forget the screening, forget asking them about their last publication (most will ignore you.) Get those names! Timing — I feel strongly that the week of 24 November is too late.”
”1. We wanted to announce the Statement in the period when there was a sag in related news, but in the week before Kyoto we should expect that we will have to crowd out many other articles about climate.”
”2. If the Statement comes out just a few days before Kyoto I am afraid that the delegates who we want to influence will not have any time to pay attention to it. We should give them a few weeks to hear about it.”
”3. If Greenpeace is having an event the week before, we should have it a week before them so that they and other NGOs can further spread the word about the Statement. On the other hand, it wouldn’t be so bad to release the Statement in the same week, but on a different day. The media might enjoy hearing the message from two very different directions.”
”Conclusion — I suggest the week of 10 November, or the week of 17. November at the latest.
Mike — I have no organized email list that could begin to compete with the list you can get from the Dutch. But I am still willing to send you what I have, if you wish.

Best wishes, Joe Alcamo“

“Wie wurde nun die Beschaffung der Unterschriften dort in Kyoto Ende Nov.-Dez. 1997 bewerkstelligt, damit die nichts ahnenden Teilnehmer der Delegationen den Bericht akzeptierten? Zur Tagung in Kyoto strömten zehntausend geladene Gäste und ebenso viele Klimamitläufer herbei. Alle wollten am Geschäft beteiligt werden.“
„So war es kein Kunststück fast 2000 Unterschriften von Greenpeace Gesandten, Lobbyisten, Angestellten umliegender Hotels, Tagesgästen, Schuhputzern und Tellerwäschern und rumstrolchenden Mitessern einzusammeln und sie als wichtige Wissenschaftler die letzten Seiten des Weltklimaberichts unterschreiben zu lassen, der dann in Kopie an alle anwesenden Delegationen verteilt wurde, um Schockwirkungen und Bereitschaft zur Unterschrift unter das endgültige Kyoto-Protokoll zu produzieren.
“So lernte das Klima in Kyoto das Laufen und bewegte sich mittels der entsprechenden internationalen Klimagesetzte dahin, wofür es 11 Jahre lang – seit 1986 – zur Entwicklung gigantischer weltweiter, lang anhaltender Geschäfte mittels entsprechender Aktivitäten der Medien und der Wissenschaftler vorpräpariert worden war.“

Der anthropogene Klimawandel ist der größte Wissenschaftsschwindel und Wissenschaftsskandal der Neuzeit. Es muss an dieser Stelle die Feststellung getroffen werden, dass im IPCC tlw. eine dominante Gruppe von Betrügern am Werk ist, die gezielt Politik, Medien und Gesellschaft hinters Licht führen. Der ehemalige französische Wissenschaftsminister Claude Allegre bezeichnete die IPCC als “Ganz gewöhnliche Mafia.“
Der „Wissenschaftlicher Beirat“ von „Klimafakten“, wie man sich dort bezeichnet und deren Terminus auf Kompetenz hoffen lässt, schreiben zum Klima:

“Alle bekannten natürlichen Faktoren, die das Klima beeinflussen, wirken entweder über viel längere Zeiträume (z.B. die Verschiebung der Kontinente über Millionen von Jahren oder Unregelmäßigkeiten in der Umlaufbahn der Erde in Zig-Tausend-Jahres-Zyklen), oder sie haben sich innerhalb der vergangenen Jahrzehnte nicht signifikant verändert.“

Es hat den Anschein, dass der „wissenschaftliche Beirat“ von „Klimafakten“ noch nicht etwas von der variablen Sonne gehört hat, bzw. nicht deren vielfältige Facetten kennt. Auf EIKE ist hierzu ein 8-teiliger Artikel erschienen, mit dem der „Wissenschaftliche Beirat“ seine Kenntnisse erweitern kann: (http://www.eike-klima-energie.eu/klima-anzeige/teil-1-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/). Dort ist die folgende Abbildung zu sehen, die zeigt, wie sehr die variable Sonne allein und auf kurzen Zeitskalen das Klima auf der Erde für die letzten 30 Jahre bestimmte. Zur Erinnerung, der Hauptsonnenzyklus hatte in 2003 sein 200-jähriges Maximum und seinen Anstieg parallel zum leichten Temperaturanstieg auf der Erde.
Auszug:

Abbildung 11 oben zeigt die Temperaturdatenreihe UAH (Satellitendaten). Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa, die übrigens keinerlei Übereinstimmung mit dem Temperaturgang aufweist. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El-Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

Abbildung 12 zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird (ganz oben). Die mittlere Datenreihe, die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur der Sonne (http://rst.gsfc.nasa.gov/Sect20/A5a.html). Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den „Sprung“ der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum. Zu sehen ist, dass nach jedem Einschalten der Koronazusatzheizung (untere Datenreihe) ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Darüber hinaus zeigt Abbildung 12 die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft (http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).
Die beiden Abbildungen legen den Schluss nahe, dass die Erdtemperaturen im Betrachtungszeitraum El-Niño-gesteuert sind (Abbildung 11, zum dominanten Einfluss auf die Erdtemperaturen, siehe auch die Arbeiten von Prof. Brönnimann, ETH, “Pazifik ließ Europa frieren“, Spektrum der Wissenschaft 03/05) und jeder El Niño wiederum, durch die Sonnenparameter gesteuert wird. Die Sonne bestimmt demnach ganz allein den Temperaturgang auf der Erde, oder wie Herr Dr. Gunter Tiersch am 09.11.2011 in seiner Wettervorhersage so trefflich bemerkte: „Ohne die Sonne geht gar nichts“. Irgendwelche Treibhausgase spielen erkennbar keine Rolle, so dass anhand der solaren Aktivität auch eine Aussage getroffen werden kann, wohin sich die Erdtemperaturen bewegen werden (http://www.eike-klima-energie.eu/climategate-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/).
Wie plausibel sind nun die auf „Klimafakten“ vorgebrachten „Fakten“, also „Wahrheiten“, die einen anthropogenen THE belegen sollen, denn, ein Grundgesetz der Quantentheorie lautet, dass es Energiequanten immer nur für gebundene Bewegungen gibt. Im Bohr´schen Atommodell sind dies die Elektronenbahnen. In einem Molekül (z.B. CO2) sind jedoch noch andere Bewegungen und mit ihnen, andere Energiezustände möglich: Drehung (um den Schwerpunkt), sowie Schwingung der Atome gegeneinander. Daraus ergeben sich eine Vielzahl von Energieniveaus und damit Energiespektren, die aus Rotationsenergie und Schwingungsenergie, sowie der Elektronenenergie bestehen. Lediglich letztere führt zur Emission von IR-Strahlung. Wie sich aus Berechnungen ergeben, liegen die Abstände der Stufen für die Elektronenenergien, für die Oszillationsenergien, als auch für die Rotationsenergien bei Molekülen (CO2) um Größenordnungen auseinander, wobei die kleinsten Energiequanten die Rotationsquanten sind, deren Linien am dichtesten zueinander sind. Man spricht hier von Rotationsquantenzahlen. Deshalb können diese absorbiert werden, ohne das Schwingungs- oder Elektronenzustand sich ändern.

Rotationsquantenzahl

Die Rotationsquantenzahl bestimmt dabei die Rotations-Schwingungsübergänge bei einem Absorptionsexperiment und beschreibt die Drehungen um die Molekülachse. Absorbiert ein Molekül dabei Strahlung, geht es von einem, durch die Rotationsquantenzahl J beschriebenen Zustand in den nächst höheren, durch J + 1 beschriebenen über. J = 0 gibt den nicht rotierenden Molekülzustand und J = 1 den langsamst möglichen rotierenden Zustand wieder. Nach der Quantenmechanik sind nicht alle denkbaren Übergänge zwischen den Energieniveaus erlaubt, sondern nur die mit einer sog. „Auswahlregel“. Die Auswahlregel für Rotationsübergänge bei 2-atomigen Molekülen lautet denn: Δ J = ± 1. Dies bedeutet nichts anderes, als dass nach der Bohr’schen Frequenzbedingung nur bestimmte Frequenzen absorbiert werden können.
Aus der Kenntnis der Rotationsspektren lässt sich übrigens auch nachweisen, warum N2 und O2-Moleküle nicht strahlen können. Damit elektromagnetische Wellen abgestrahlt werden können, muss eine periodisch bewegte elektrische Ladung vorhanden sein. Damit durch Änderung des Rotationszustandes eines Moleküls Ausstrahlung hervorgerufen wird, muss demnach während der Umdrehung auch elektrische Ladung bewegt werden. Nun fallen aber bei (symmetrischen) O2/N2-Molekülen die Schwerpunkte von positiver und negativer Ladung zusammen und liegen wegen der Massensymmetrie immer in der Rotationsachse. Daher haben solche dipollosen Moleküle kein Rotationsspektrum. Voraussetzung für das Auftreten von Rotationsspektren ist also, dass ein Dipolmoment während der Rotation seine Lage im Raum ändert.
Während niederenergetische Anregungen keine höher energetischen Anregungen hervorrufen können, ist dies im umgekehrten Fall stets gegeben. Die häufig im sichtbaren (zwischen 0,8 μm bis 0,4 μm) liegenden Elektronenspektren enthalten immer auch Änderungen des Oszillations- und des Rotationszustandes eines Moleküls. Demnach lässt sich das Spektrum eines Moleküls in drei Hauptbereiche unterteilen:
a) nur Änderung der Rotationsenergie, λ > 20 μm (langwelliges Infrarot)
b) zusätzliche Änderung der Schwingungsenergie, λ = 20 μm bis 1 μm (Infrarot)
c) zusätzliche Änderung der Elektronenenergie, λ < 1 μm (sichtbar bis ultraviolett)
Mit den Werten aus der Plank´schen Strahlungskurve und dem Wien´schen Verschiebungsgesetz: 6000 K etwa 0,5 μm, 300 K etwa 10 μm ergibt sich zwangsläufig, welche Prozesse in der Atmosphäre vorliegen können und welche nicht! Eine Gegenstrahlung gibt es daher nicht!
Im Bereich um 15 μm liegt demnach Oszillations- und Rotationsanregung vor und somit entsteht auch kein Strahlungs- oder Gegenstrahlungsfeld.
Dadurch wird deutlich, warum die durch den Erdboden erwärmte Atmosphäre stets kälter als dieser ist (Invasionswetterlagen ausgeschlossen, aber die werden nicht einmal von der IPCC als Beleg für den THE herangezogen) und den Erdboden nicht erwärmen kann, da Massen (Überwindung Trägheitsmoment) bewegt werden und somit die möglich abzugebende Energie immer kleiner als die aufgenommene ist. Zu Punkt c) müssen Energieniveaus überwunden werden, womit sich der Energiezustand eines Atoms ändert (z.B. durch Absorption). Bei der Rückkehr in den Grundzustand wird die vorher absorbierte Energie wieder in exakter Größe abgegeben, wonach das emittierte Photon natürlich zu groß sein müsste, als das vorher absorbierte. Nun „fallen“ Atome nicht direkt in ihren Grundzustand zurück, sondern dies geschieht über eine „Leiter“ zurück und nur ein Teil der „Energiewegstrecke“ ist durch Photonenemission(en) begleitet. Wie oben beschrieben, führen hochenergetische Anregungen, bei denen Photonen emittiert werden, immer auch zu niederenergetischen Anregungen, d.h. stets auch zu Molekülschwingungen und Rotationen, so dass das Energieniveau des emittierten Photons immer kleiner als das absorbierte ist. Abgesehen davon, dass bei 15 μm „lediglich“ Oszillations- und Rotationsanregung vorliegt.
Weiter hat Einstein einen Strahlungsansatz für Moleküle erarbeitet (1917), dessen Struktur mit dem Strahlungsgesetz vom Planck vereinbar ist. Einstein verwendete nicht nur Absorption von Molekülen, sondern auch die spontane Emission von Strahlung durch Moleküle und darüber hinaus auch noch die vom Strahlungsfeld induzierte Emission. Nur dadurch gelangte Einstein zur Struktur der Planckschen Strahlungsfunktion, wie sie Voraussetzung der Schwarzkörperstrahlerbetrachtung ist. Milne (1928) erweiterte die Arbeit Einsteins, damit eine seiner wesentlichen Annahmen überprüfbar ist. Dies ist die Gültigkeit des lokalen thermodynamischen Gleichgewichts. Wer nun behauptet, dass CO2 IR-Strahlung absorbiert und die absorbierte Energie wieder 1:1 an die Luft abgibt (Absorption also gleich Erwärmung ist), hat anscheinend Planck, Einstein und Milne nicht verstanden. Ob in diesen Gegebenheiten der Grund zu finden ist, warum der THE sich beharrlich seiner Überprüfung und Bestätigung im Versuch entzieht? Ohne experimentelle Überprüfung bleibt der THE eine wissenschaftliche These, jedoch kein wissenschaftlicher, bzw. physikalischer Effekt, der beispielsweise im Versuchsaufbau nachgestellt oder gar bestätigt werden könnte.
Dass der „Wissenschaftlichen Beirat“ sich weniger der Wissenschaft, als der, von dem IPCC vorgegebenen Linie widmet, zeigt weiter die folgende Passage:

Die beobachteten Temperaturveränderungen in der Atmosphäre ähneln jenen, die bei einem verstärkten Treibhauseffekt zu erwarten wären: So erwärmt sich zur Zeit die unterste Atmosphärenschicht (bis ca. zehn Kilometern Höhe) bei gleichzeitiger Abkühlung der oberen Atmosphärenschichten (über zehn Kilometern Höhe).“

Was der „Wissenschaftliche Beirat“ mit einem Treibhauseffekt verwechselt, ist nichts anderes, als das gewöhnliche Gegenläufigkeitsprinzip zwischen Troposphäre (<10 km) und Stratosphäre (>10 km). Auf der Internetseite Atmosphärenphysik der Uni Wuppertal ist folgendes festgehalten:

Tägliche Temperaturänderungen in der Stratosphäre sind nahezu regelmäßig denen in der Troposphäre entgegengesetzt mit etwa gleichen Beträgen. D.h. eine Erwärmung in der Troposphäre hat eine Abkühlung in der Stratosphäre zur Folge und umgekehrt. Dieses Verhalten ist als Gegenläufigkeitsprinzip bzw. stratosphärische Kompensation bekann. Die Temperaturkonstanz bzw. -zunahme hat ihre Ursache in der Strahlungskühlung durch den Wasserdampf in der oberen Troposphäre und Tropopausenregion und in der Erwärmung durch Absorption solarer Strahlung in der oberen Stratosphäre.“

Ein weiterer „Kalauer“, den der „Wissenschaftliche Beirat“ von „Klimafakten“ vorlegt:

“Direkte Strahlungsmessungen zeigen eine Zunahme der von der Erde ausgehenden langwelligen Wärmestrahlung (Harries 2001) und einen Anstieg der langwelligen Strahlung, die bei klarem Himmel aus der Atmosphäre auf die Erde einfällt und nur von Treibhausgasen stammen kann, da die Sonnenstrahlung kurzwellig ist. (Philipona 2005) – beides kann nur mit dem Treibhauseffekt erklärt werden.“

Diese Aussage sagt nichts anderes, als dass die Erde und damit THG*) eine Energiequelle ohne die Sonne sind und die Erde sich von sich selbst aus erwärmen würde, was gegen Grundprinzipien der Thermodynamik verstößt. Wie jeder weiß, wird darüber hinaus die kurzwellige Sonnenstrahlung durch die Atmosphäre selbst und die Bodenwärmeflüsse gewandelt. Vom PIK ist der Autor nichts Besseres gewohnt.
*) Sog. Treibhausgase, wie auch der postulierte Treibhauseffekt (THE), basieren auf vielleicht plausiblen (siehe Fazit) aber letztlich willkürlichen Annahmen und Festlegungen. Eine dieser willkürlichen Annahmen ist die Basis des THE, die sog. globale Temperatur der Erde ohne Atmosphäre von -18°C, anhand derer der sog natürliche THE berechnet wird. Anhand einer gemessenen und dann gemittelten globalen Oberflächentemperatur von +15°C läge der sog. natürliche THE bei 33°C (15°C – -18°C). An dem sog. natürlichen THE setzt der sog. anthropogene THE an. Stimmt der erstere nicht, so ist folglich auch der letztere falsch.
Berechnet wird die fiktive Temperatur der Erde ohne Atmosphäre anhand der Annahme eines Strahlungsgleichgewichts (eingehende Strahlung = ausgehende Strahlung) und nach S&B nach der Formel:

Während die „Solarkonstante“ recht gut ermittelt werden kann, wurde als planetarische Albedo einfach der gleiche Wert (0,3), wie für eine Erde mit Atmosphäre angesetzt, was nicht nur willkürlich (lässt sich nicht messen), sondern auch beliebig falsch ist. Nach Weichert (Fig. 25, S. 102) teilt sich die Albedo auf 0,21 (Wolkenanteil), 0,07 (Atmosphäre) und 0,02 (Boden). P. Kupfer/W. Kuttler (1998) definieren die Albedo als Rückstrahlung der Gesamtstrahlung (betrachten also das gesamte Strahlungsspektrum) und kommen ebenfalls auf einen Wert von 0,3 – 0,31 (in ihrer Arbeit auf S. 68). Sie teilen die Albedo auf, in 15,6% im sichtbaren Bereich, 10,8% Infrarotbereich und 4,2% im UV-Bereich. Bereits 1977 ging Michail Budyko in seinem Buch “Climatic Change“ von einer Albedo ohne Atmosphäre von 0,07 aus. Selbst die Vertreter der Deutsche Meteorologische Gesellschaft schreiben in einer Stellungnahme aus dem Jahre 1995 zu den “Grundlagen des Treibhauseffekts“ über die (fiktiven) -18°C: “Dabei ist eine planetare Albedo von 30 %, wie sie für das System Erde/Atmosphäre gilt, angenommen worden, d. h. die dem System zugeführte Sonnenenergie ist genauso groß wie in Wirklichkeit. Nimmt man eine realistische Albedo der Erdoberfläche von 15 % an, so ergibt sich für die mittlere Erdoberflächentemperatur ein Wert von -5,5° C.“
Selbst das IPCC gibt zu, dass die angesetzte Albedo von 0,3 für eine Erde ohne Atmosphäre falsch ist. Anhand der Energieflüsse von Trenberth (Abbildung 13), die als Grundlage für das Strahlungs(un)gleichgewicht der Erde dienen, ist die Albedo aufgeteilt in Boden und Atmosphäre, wobei der reflektierte Anteil der Atmosphäre mit 79 W/m2 deutlich über dem reflektierten Anteil den Bodens mit 23 W/m2 liegt. Wird dieser Wert in Relation gesetzt, so ergibt sich für eine Erde ohne Atmosphäre eine planetarische Albedo von 9,5%, was übrigens dem Wert der tatsächlichen Mondalbedo mit 0,11 (11%) sehr nahe kommt. Wird dieser realistische Wert in die obige Gleichung eingesetzt, so ergibt sich eine Temperatur für die Erde ohne Atmosphäre von 272 K, gleich -1°C. Der sog. natürliche THE von 33°C ist somit nach Trenberth auf nur noch 16°C zusammen geschrumpft. Mit diesem Wert, zugleich auch all die anderen vermuteten Werte, die die unterschiedlichen Treibhausgase am sog. postulierten THE haben sollen. Er basiert zudem auf Annahmen, die in der Realität auch nicht annähernd erfüllt sind**).

Abbildung 13 zeigt die Energieflüsse nach Trenberth, 2009.
**)
·    Die planetare Albedo von 0,3 gilt nur für eine Erde mit Atmosphäre
·    Das planetare Emissionsvermögen ist mit ca. 0,67 deutlich geringer als 1
·    Eine gleichförmig verteilte Oberflächentemperatur gibt es nicht
·    Die Rotation wird nicht berücksichtigt (dazu müsste eine Energiefluss-Bilanzgleichung für die Oberfläche eines jeden Gitterelements aufgestellt und gelöst werden)
·    Speicherung von Energie im Erdboden bleibt unberücksichtigt
Soviel zu den „Fakten“ („Wahrheiten“), den die Betreiber von „Klimafakten“ propagieren.
Die NASA als Weltraumbehörde, nicht das Goddard Institute for Space Studies, das sich vorrangig mit Klima-Computerspielen beschäftigt (siehe obige Aussage von Prof. Marotzke zu den Klimamodellen), der Teil der  NASA, der das Erbe von Werner von Braun angetreten hat, widerlegt m.E.n ganz eindeutig die These vom Treibhauseffekt und die obige Aussage („Direkte Strahlungsmessungen zeigen…“) der erhöhten langwelligen Wärmeabstrahlung, die auf THG basieren soll, wie Abbildung 14 zeigt.

Abbildung 14, Quelle: (http://isccp.giss.nasa.gov/projects/browse_fc.html) zeigt die sich ändernde Strahlungsabgabe der langwelligen IR-Strahlung (Variabilität, TOP = Top Of Atmosphere) der Erde im Zeitraum von 1984 – 2005. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen manipuliert (z.B.: über Auswahl – EIKE berichtete darüber) sind, weil diese zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde nicht passen (Abbildung 15).

Abbildung 15 zeigt den Vergleich der langwelligen Erdabstrahlung, die bekanntlich das Produkt (Resultat) der globalen Erdtemperaturen ist und der globalen Temperaturentwicklung selbst, linke Abbildung, Quelle: www.Klimafakten.de. Während die globalen Temperaturen seit 1975 stetig steigen (zumindest gibt die Zeitreihe dies vor), ist die longway IR-Abstrahlung bis ca. 1998 konstant und steigt erst ab 2001 erkennbar an. In jenen Jahren (bis 2003) hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum.

Abbildung 16 links zeigt die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“ im Vergleich der langwelligen IR-Abstrahlung, also Erderwärmung. Es ist überdeutlich das gleiche Muster (Fingerabdruck, grüne Kreise) zu erkennen, was zeigt, dass zum einen, die eingangs zitierte Aussage aus „Klimafakten“ unhaltbar ist und zum anderen, einzig die Sonne („Ohne die Sonne geht gar nichts.“ Dr. Tiersch) die Erdtemperaturen steuert. Weiter ist sehr transparent zu sehen, wie der Ausbruch des Pinatubo in 1991 (blauer Balken), der die Erdtemperaturen für 2 Jahre um ca. 0,8°C senkte, die langwellige Erdabstrahlung (abhängig von der Temperatur) ebenfalls ins Minus lenkt, obwohl die Neutronenströme und damit die solare Aktivität hoch ist.
Fazit:
Anspruch und Wirklichkeit passen nicht zusammen. Die Herausgeber der Netzseite „Klimafakten“ schreiben vollmundig:
Für den Klimaschutz gibt es keine Patentrezepte. Umso mehr kommt es in der Debatte über die besten Wege zum Klimaschutz auf eines an: dass die grundlegenden Fakten stimmen. Deshalb haben die Mitglieder des Wissenschaftlichen Beirats alle Texte auf dieser Website vor der Veröffentlichung überprüft. Darüber hinaus aktualisieren wir die Texte regelmäßig.“
Unser Artikel zeigt, dass „überprüfen“ (lesen), allein nicht ausreicht. Sachverstand und Wissen als Grundlage der Wissenschaft, und das kritische Hinterfragen, sind nun einmal durch nichts zu ersetzen.
Abschließen möchte der Autor mit einer Aussage von Prof. Dr. John S. Mattick aus S.d.W. 03/05, S. 62, die, wie der Autor meint, die derzeitige Auseinandersetzung zum sog. THE recht treffend beschreibt, auch wenn die Aussage ursprünglich aus dem Wissenschaftszweig der Molekularbiologie stammt: “Unbewiesene Annahmen entwickeln manchmal ein Eigenleben, was besonders in der Naturwissenschaft unangenehme Folgen haben kann. Am Anfang geht es gewöhnlich nur um eine plausible oder einfache Erklärung der Befunde. Wenn sie keine offensichtlichen Mängel aufweist und ihr Wahrheitsgehalt nicht unmittelbar überprüfbar ist, mutiert sie aber oft zum Glaubenssatz. Neue Beobachtungen werden dann passend interpretiert. Irgendwann aber muss das Dogma unter der Last eklatanter Widersprüche zusammenbrechen.“
Raimund Leistenschneider – EIKE