“The result has obvious consequences also for the models’ warming expectations for the 21st century because, to make these models consistent with our proposed adjusted temperature record, their projected warming should be reduced by about 40% for all emission scenarios.”
Professor Scafetta ist niemand der sagt, es gäbe keinen anthropogenen Klimawandel. Er gehört zu den Wissenschaftlern, die tatsächlich am Thema interessiert sind und nicht bemüht sind, Forschungsarbeiten zu produzieren, die beim IPCC Wohlgefallen finden. Ein Wohlgefallen, das gemeinhin mit Forschungsgeldern belohnt wird. Als ernsthafter Wissenschaftler steht Scafetta vor einem Problem. Diesem:
Die Abbildung, die Roy Spencer monatlich fortschreibt, zeigt die Temperatur, die in der Troposphäre gemessen wird. Die Daten werden bei der Universty of Huntsville, Alabama gesammelt und als Datensatz bereitgestellt. Scafetta hat sich diesen Datensatz besorgt und zudem hat er sich den Datensatz der Climate Research Unit der University of East Anglia (CRU-TS4.04) besorgt, der Temperatur-Messdaten für Messstationen weltweit kompiliert, die wiederum als Grundlage dienen, auf der die CMIP-Modelle des IPCC berechnet werden. Auch diese Daten, das komplette Datenset für CMIP-5 (Coupled Model Intercomparison Project Phase 5), mit dem die düsteren Prognosen des IPCC erstellt werden, hat sich Scafetta besorgt und dann angefangen, zu vergleichen.
Von den Klimamodellen, so schreibt Scafetta, werde erwartet, dass sie in der Lage seien, globale und lokale Klimavariationen, wie sie durch unterschiedliche Bewölkung, Flächennutzung, und -versiegelung, Aeorosole in der Luft und vieles mehr verursacht werden, adäquat abbilden. Das Problem: Sie tun es nicht. Sie tun es nicht einmal ansatzweise. ALLE, ausnahmslos alle Klimamodelle, die das IPCC vertreibt, überschätzen die Erwärmung, die sich seit 1940 ergeben hat (siehe Abbildung oben), und zwar um ein Vielfaches, was insofern rätselhaft ist, als die Klimamodelle angeblich so kalibriert sind, dass sie die vergangenen Temperaturen akkurat abbilden. Das tun sie offensichtlich nicht, und es kommt noch dicker: Scafetta findet, dass unterschiedliche Modelle des IPCC lokale Unterschiede quasi nach Lust und Laune produzieren, ohne Systematik, widersprüchlich, zufällig.
Normalerweise werden Modelle, die beliebige Ergebnisse auf lokaler Ebene produzieren, in den Mülleimer geworfen. Normalerweise. Aber die Modelle, die das IPCC verbreitet, um es dadurch Milliardären zu ermöglichen, dass sie ihren Reichtum steigern, sie dienen nicht dazu, die Realität akkurat abzubilden, sie dienen dazu, politische Munition zu liefern, mit der man dann nicht nur die Klimawandel-Hysterie anheizen kann, sondern mit der es auch möglich ist, diejenigen, die darauf hinweisen, dass der menschliche Einfluss auf das Klima, sofern er überhaupt in relevantem Ausmaß vorhanden ist, z.B. im Vergleich zum Einfluss der Sonne eher irrelevant ist, zu diskreditieren.
Wie schlecht die Modelle des IPCC sind, das zeigt die folgende Abbildung:
In beiden Abbildungen sind Klimamuster dargestellt. Beide Abbildungen unterscheiden sich darin, dass unterschiedliche Klimamodelle des IPCC zum Einsatz gekommen sind. Wären diese Modelle auch nur ansatzweise reliabel, dann müssten die Farbmuster in beiden Abbildungen identisch sein. Sie sind es offenkundig nicht. Sie sind willkürlich und widersprüchlich. Die Modelle sind absoluter Junk – oder, in der zurückhaltenderen Formulierung von Scafetta:
“…is shown in Fig. 6, which indicates that the various models show very different local patterns that contradict each other while they are supposed to reproduce climatic patterns on a 60-year period also locally.”
Nun stellt man solche Berechnungen nicht an, um zu zeigen, dass die Klimamodelle des IPCC Junk sind. Das ist allgemein bekannt, wird nur von Aktivisten und Politdarstellern aus den unterschiedlichsten Motiven heraus ignoriert. Nein, solche Berechnungen werden auf Basis einer Hypothese darüber angestellt, warum die Modelle des IPCC so daneben sind, wobei die Hypothese sich nicht auf die politische Motivation bezieht, die ist nicht fraglich, denn wenn jemand Hysterie verbreitet und gleichzeitig das Heilmittel gegen die Hysterie feilbietet, dann können nur Motive der eigenen Bereicherung oder Boshaftigkeit, der Wunsch, andere zu schädigen, dahinter stehen, nein, die Hypothese hat die Fehler, die systematischen Fehler zum Gegenstand, die – absichtlich oder unabsichtlich – in Klimamodelle integriert sind und dazu führen, dass die Erwärmung so hoffnunglso überschätzt wird.
Die Hypothese, die Scafetta gebildet hat, sieht Urban Heat Islands im Mittelpunkt. Es ist schön eine solche Hypothese zu lesen, denn rund 60 Jahre nachdem Garrett Hardin mit seinem Artikel, “The Tragedy of the Commons” darauf hingewiesen hat, dass die meisten Probleme, vor denen die Menschheit steht, eine Folge von ÜBERBEVÖLKERUNG sind, 60 Jahre später setzt sich wieder das Bewusstsein durch, dass die Menge, in der Menschen den Planeten bevölkern, vielleicht das eigentliche Problem sein könnte. Urban Heat Islands (UHIs) entstehen durch Urbanisierung und mit UHIs wird im Wesentlichen umschrieben, dass nächtliche Winde die Luft der Städte, die sich tagsüber aufheizen, ins Umland bringt und dafür sorgt, dass auch das Umland aufgeheizt wird. Die globale Temperaturzunahme, so die Hypothese, ist zumindest in Teilen auf solche UHIs zurückzuführen.
Messbar wird dieses Phänomen über die Minimaltemperaturen, denn im Gegensatz zu dem, was MS-Medien so gerne verbreiten, sind es nicht die Maximaltemperaturen, die in den letzten Jahren gestiegen sind, sondern die Minimaltemperaturen. Aus beiden, den Maximal- und den Minimaltemperaturen für die 2,5 Kilometer mal 2,5 Kilometer großen Flächen, die die Grundeinheit vieler Klimamodelle bilden, berechnet Scafetta den Diurnal Temperature Range (DTR), also die tägliche Temperaturspannweite für die jeweiligen Messeinheiten, die gleichmäßig über die Erde verteilt sind und stellt auf dieser Grundlage zunächst fest, dass die Klimamodelle des IPCC nicht in der Lage sind die Veränderung in den DTR, die sich in den 60 Jahren bis 2014 ergeben haben, abzubilden.
DTR sind ein direktes Ergebnis der Urbanisierung, der sich daraus ergebenden Urban Heat Islands, und die Erwärmung der letzten Jahrzehnte schlägt sich darin nieder, dass die tägilche Temperaturspannweite um Städte herum geringer geworden ist. Das ist zunächst einmal eine Hypothese, aber eine, die Scafetta schnell bestätigen kann. Die daraus folgende Beobachtung, dass Klimamodelle des IPCC diese Veränderung nicht erfassen, dass sie willkürliche und in jedem Fall in Richtung einer erheblichen Überschätzung der Erwärmung gehende Ergebnisse produzieren, führt zum Masterstroke: Wenn es in Klimamodellen einen “Erwärmungs-Bias” gibt, dann sollten diese Modelle die globale Erwärmung in Gegenden, in denen es keine Urban Heat Islands gibt, die die Überschätzung reduzieren, erheblich überschätzen, dann sollten die Modelle deutlich von den Messdaten abweichen. Scafetta prüft diese Hypothese für Grönland und siehe da, das Ergebnis ist dramatisch:
Die rote Linie bildet die Beobachtungsdaten ab, die blaue Linie gibt die Modell-Simulation wieder, die auf Basis dieser Beobachtungsdaten errechnet wurde. Die Abweichung ist erheblich.
“Thus, the models (which are calibrated to reproduce, on average, the observed global warming trend since 1900) hindcast almost twice the warming than what has been recorded in Greenland since 1930-1950.
In den Modellen des IPCC wird die tatsächliche Erwärmung eben einmal verdoppelt. Wer daran wohl ein Interesse haben könnte?
Aber damit ist Scafetta noch nicht am Ende. Nachdem er gezeigt hat, dass die Erwärmung, die in den Klimamodellen des IPCC berechnet wird, die tatsächliche Erwärmung um ein Vielfaches übertreibt, selbst dann, wenn tatsächliche Beobachtungsdaten den Ausgangspunkt der Modellierung bilden, nachdem er gezeigt hat, dass in der Erwärmung, die die Klimamodelle abbilden, nicht klimatische Erwärmung enthalten ist, die sich als Ergebnis von Urbanisierung einstellt, geht Scafetta daran, den entsprechenden Fehler, der in den Klimamodellen des IPCC enthalten ist, zu quantifizieren.
Das Ergebnis sieht so aus:
Die grünen Linien, es sind 106 an der Zahl, geben die Entwicklung der globalen Temperatur an, wenn die unterschiedlichen Modelle des IPCC genutzt werden, um die entsprechende Modellierung vorzunehmen. Die orange Linie stellt den Mittelwert der 106 Modelle dar. Die rote Linie zeigt die tatsächlich in der Troposphäre gemessene Temperatur, und die schwarze Linie zeigt die Rekonstruktion der Temperatur, die Scafatta auf Grundlage der Daten aus East Anglia vorgenommen hat. Wie von Geisterhand geführt, kommen alle Modelle des IPCC im Verlauf der Zeit zu Temperaturen, die weit über den tatsächlichen Temperaturen liegen, während die Berechnung von Scafetta die tatsächliche Temperatur, die über den Datensatz der University of Huntsville zugänglich ist, sehr gut abbildet.
Daraus ergibt sich nur ein Schluss: Die von Scafetta formulierte Hypothese, dass in den Modellen des IPCC nicht nur die globale Temperatur als viel zu hoch berechnet wird, sondern die Ergebnisse auch deshalb falsch sind, weil der Einfluss, den Urbanisierung und daraus entstehende Urban Heat Islands auf die globale Temperatur haben, nicht berücksichtigt wird, ist bestätigt. Fehlt noch die Angabe, um wie viel sich die Panik-Zahl der Erwärmung die das IPCC so gerne verbreitet, reduziert, wenn diese Fehler aus dem Modell beseitigt werden:
“In the light of the above findings, and under the assumption that the SST [Sea Surface Temperature] warming since 1940–1960 is accurate, the models can be scaled on the SST record and used to estimate an expected land warming. Corrected in such a way, we determined that 25–45% of the recorded 0.97±0.05 °C land warming from 1940 to 1960 to 2000–2020 is likely due to urbanization and other unidentifed non-climatic factors biasing the available climatic records.”
Mit anderen Worten: Unter der Annahme, dass die Temperaturangaben, die in den Modellen des IPCC für die Meeresoberfläche enthalten sind, korrekt sind, eine Annahme, die dem IPCC sehr entgegen kommt, beläuft sich der Fehler in den Modellen des IPCC auf mindestens 25%-45% im Verlauf der letzten 60 Jahre. Im Durchschnitt, so schreibt Scafetta einige Zeilen weiter, überschätzen die Modelle des IPCC die tatsächliche Erwärmung des Planeten um 40%. Und diese Schätzung von Scafetta basiert auf der Annahme, dass die Modellierung der Temperatur der Meeresoberfläche richtig ist, eine Annahme, die man nicht machen muss. Scafettas Schätzung von 40% ist somit eine sehr konservative Schätzung. Die tatsächliche Übertreibung liegt vermutlich deutlich darüber.
In jedem Fall wird uns nicht nur im Hinblick auf SARS-CoV-2 absoluter Unfug erzählt, wird nicht nur im Hinblick auf SARS-CoV-2 mit falschen Zahlen hantiert, auch im Hinblick auf die angebliche Klimakrise basiert die gesamte Geschichte auf mehr oder weniger frei erfundenen Zahlen. Dass man die Erfindung dann als Resultat einer Modellierung verkauft, ist nur sympbolische Kosmetik.
Scafetta, Nicola (2021). Detection of non-Climatic Biases in Land Surface Temperature Records by Comparing Climatic Data and their Model Simulations. Climate Dynamics.
Der Beitrag erschien zuerst bei ScienceFiles hier
Auf welchen Referenzwert bezieht sich Spencers „Erwärmung um genau 0,21°“ (1. Diagramm)?
Gilt dieses noch als Temperaturstagnation? Darf ich den Begriff „Hiatus“, der in den vergangenen Jahren ein starkes Gegenargument darstellte, noch gebrauchen? Im Grönland-Diagramm sprechen die Beobachtungsdaten dafür, wenn auch etwa ab 2001 und nicht 1998, wie für den Hiatus allgemein angenommen…
michael haarig schrieb am 12. März 2021 um 9:33
Die Null-Linie ist der Mittelwert der Jahre 1991-2020 …
Sprachliche Überschätzung:
Wenn die Erwärmung um 40%+ überzeichnet wird – wo wird sie da um ein „Vielfaches“ übertrieben?
Dann sehe ich auch nicht, daß „alle Modelle des IPCC im Verlauf der Zeit zu Temperaturen, die weit über den tatsächlichen Temperaturen liegen“. Schau ich mir den unteren Rand der grünen Fläche an, liegen die Werte sowohl unter Scafettas schwarzem wie auch unter dem roten Graphen der gemessenen Temperaturen!
„die globale Temperatur als viel zu hoch berechnet“
„Die tatsächliche Übertreibung liegt vermutlich deutlich darüber.“
gleichzeitig aber „beläuft sich der Fehler in den Modellen des IPCC auf mindestens 25%-45%“
Es muß ja nicht mit den gleichen Methoden der Übertreibung und sprachlicher Manipulation gearbeitet werden wie sie der „Gegner“ benutzt.
Ansonsten ein weiterer hoffnungsvoller Beitrag, der zeigt, daß nicht erst seit SARS-CoV-2 betrogen wird, und auch das Klimapanikszenario unter Agenda zu verbuchen ist.
Aus CO2 wurde CoV2 – V für den nächsten Verblödungsschritt!
Für die Stefan Boltzmann Freunde hätte ich hier einmal eine interessante Aufgabe: ———- Auf der der Sonne zugewandten Seite wird die Erdhalbkugel ja gerne entsprechend der Leistungsdichte des parallel einfallenden Sonnenlichts platt und zur Scheibe gemacht. Nun kann ja die Scheibe beim besten Willen mit ihrer Oberfläche nicht mehr die Masse eines halbkugeligen schwarzen Körpers repräsentieren. ———- Wir stellen uns in einer uns unbekannten Galaxie einmal einen würfelförmigen Himmelskörper vor, dessen Drehachse mittig durch zwei gegenüberliegende Würfelflächen verläuft und die auf der von der Umlaufbahn um eine Sonne aufgespannten Fläche senkrecht steht. Die Außerirdischen haben es geschafft, dass dieser Würfel-Himmelskörper über einen Tag von 24 Stunden (12 Stunden Tag, 12 Stunden Nacht) genau 8 Positionen annimmt in denen er jeweils 3 Stunden verweilt. Er springt bei seiner Umdrehung alle 3 Stunden um 45° Grad um seine Drehachse weiter, um in der neuen Stellung wieder 3 Stunden zu verharren. ———- Und jetzt wird es hoch interessant, wenn man die auftreffende Strahlung auf der Tagseite zur abgegebenen Strahlung während Tag und Nacht setzt. ———- Selbst wenn man kleine Fehler bei der Berechnung macht, wird man schnell feststellen, dass man bei unserem sich kontinuierlich drehendem kugelförmigen Himmelskörper die Tagseite nicht einfach mal entsprechend der Vorstellung der Urmenschen zur Scheibe machen darf. Wer sich damit beschäftigen will, kann ja dann den Würfel schrittweise weiter umformen, so dass sich durch steigende Zahl der sich ergebenden Flächen mehr und mehr eine Kugel bildet (so etwas Ähnliches macht man erfolgreich bei der Finite-Element-Methode in der Mechanik). Wäre doch einmal etwas für die Modellierungsspezialisten vom PIK. Wenn es zu schwierig wird, könnte man dort ja Greta zur Hilfe holen.
Lieber Herr Puschner,
ich verstehe nicht, wo ihr Verständnisproblem liegt. Wenn Sie es genauer erläutern würden, könnte ich Ihnen vielleicht helfen.
Viele Grüsse,
Lara Fischer
P.S.: Trauen Sie sich ruhig! Es ist nichts dabei.
@Lara Fischer
Das erste Verständnisproblem liegt in der Umformung eines schwarzen Körpers (Körper => Masse behaftet) für die Berechnungen nach S. Boltzmann von einer Halbkugel auf auf eine Scheibe (Projektionsfläche des einfallenden Sonnenlichts).
Wäre schön, wenn Sie da weiter helfen könnten. MfG PP
Das ist eigentlich ganz einfach.
Der Körper wird nicht umgeformt. Das von der Sonne kommende Licht fällt praktisch parallel auf der Erde ein. Der von der Sonne abgewandte Erdschatten ist daher in erster Näherung zylindrisch. Sein Durchmesser ist gleich dem Durchmesser der Erde.
Denkt man sich diesen Zylinder auf der zur Sonne weisenden Seite fortgesetzt, so wird klar, dass die Energie, die in diesem Zylinder, parallel zu dessen Achse, von der Sonne in Richtung Erde fließt, von der Erde erst mal aufgehalten wird. Klar, im Erdschatten ist es ja dunkel. Man kann daher berechnen, wie viel Energie die Erde pro Zeiteinheit von der Sonne empfängt.
Bei genauerer Betrachtung stellt heraus, dass durch die Rotation der Erde, die durch die hohe Wärmekapazität der Erdkruste bedingte „thermische Trägheit“, durch die Strömung der Ozeane und andere Effekte, die empfangene Energie (allerdings etwas ungleichmäßig) über den Globus verteilt wird. Klar, denn sonst hätten wir nachts sehr tiefe Temperaturen.
Ich hoffe, das hilft Ihnen weiter. Viele Grüße!
P.S.: Wenn sich die Erde sehr schnell drehen und die Erdachse senkrecht zur Bahnebene der Erde stehen würde, dann wäre die Temperatur der Erdoberfläche überall auf demselben Breitengrad gleich.
Ihr [gedachter] Zylinder hat einen Kernschatten dessen Rand mit dem Terminator der Tageshälfte zusammenfallt; gefällt mir.
Hallo Frau Fischer, nur auf einer runden Fläche von 1600 km fällt die Sonnenstrahlung senkrecht ein. Dann nimmt sie nach allen Richtungen ab, zu errechnen über den sin des Winkels. Da kommt dann in der Arktis so gut wie nichts mehr an.
Rechnet man aus wie warm es da sein dürfte wegen der Einstrahlung, kommt man drauf das es da ja viel zu warm ist! So rechnet Herr Rahmstorf und sagt die Arktis würde sich stärker erwärmen! Aber diese Leute lassen die Konvektion einfach weg!
sehr sehr einfach erläutert, aber so geht das. Nicht nur über Strahlung.
beste Grüße
w.Zeugner
ist doch m.E. gar nicht so schwer zu verstehen. Nehmen Sie ein Blatt weißes Papier, das frontal beleuchtet wird und betrachten sie es aus unterschiedlichem Winkel Es bleibt immer gleich hell weiß. Gilt auch für angestrahlte Kugel. Drum ist der Mond auch am Rand genauso hell wie in der Mitte. Apropos Mond. Er wird häufig vergessen. Wir sehen ihn nachts und vom Mond gesehen leuchtet die Erde ziemlich hell. Es gibt einen wechselseitigen Strahlungsaustausch, nicht zu viel zwar aber auch nicht zu vergessen.
@Reiner Müller
…. dann müsste ja die Ausdehnung des schwarzen Körpers gar keine Rolle spielen, wenn die Projektionsfläche bleibt, aber die Masse durch z. B. extrem spitzen Auswuchses in Richtung der Strahlungsquelle 1000 Mal größer ist als die der ursprünglich angestrahlten Halbkugel?!
Schwarzer Körper und schwarzes Loch – den Unterschied brauch ich nicht erklären. Wird oft in einen Topf geschmissen. Die Farbe eines realen Körpers ist die Summe aller zurückgestrahlten Frequenzen. Ist abhängig vom Kristallgitter und von Refexionen. Ob schwarz, weiß, rot oder sonstwie – alle Mineralien werden zu Staub vermahlen weiß. Wenn Sie jetzt Ruß einwenden, dann zerkleinern Sie mal durchsichtigen Diamant. Auch ein schwarzer Körper strahlt sämtliche mit Licht aufgenommene Energie wieder ab, wenn auch zeitlich verzögert und in anderen Frequenzen. Frequenzen die wir nicht sehen sind trotzdem vorhanden.
Sehr geehrter Herr Puschner, genau so ist es. Das Strahlungsgesetz nach Stefan und Boltzmann bezieht sich auf ideale Oberflächen, die zumindest für die Dauer der Temperatur-Messung eine konstante Strahlungsleistung aufweisen. Körper bzw. Masse sind nur von Nöten, um diese Konstanz zu gewährleisten.
Die Versuche das Stefan-Boltzmann-Gesetz auf die Erde mit ihrer dynamischen Oberfläche ( Biosphäre ) anzuwenden, erscheinen mir wie die wahnhaften Versuche ein Perpetuum mobile 3. Art erfinden zu wollen.
Ein kurzer Kommentar zur 6. Grafik, erkenntlich an dem grünen Band. Das grüne Band zeigt 106 IPCC-Modelle der mittleren globalen Temperatur der Erdoberfläche. Die rote Zickzacklinie zeigt die gemessene Temperatur in der Troposphäre an. Diese Temperatur ist bekanntlich geringer als auf der Erdoberfläche. Ich sehe in der Grafik eher eine Bestätigung der IPCC-Prognosen, denn eine Widerlegung.
Weil sie in der Grafik etwas sehen wollen, was so nicht gemeint ist.
Die Modelle geben die Temperatur so an wie wir sie klimatisch Messen.
Das heisst da wo die Modelle eben versagen.
Es handelt sich um Anomalien und nicht um Absolutwerte. Ob man Anomalien der oberflächennahen Lufttemperatur und jene der Troposphäre vergleichen kann, glaube ich schon, allerdings nur, wenn der Bezug synchronisiert wurde, was vermutlich gar nicht so einfach ist.
Ich fände jedenfalls einen Vergleich der oberflächennahen Werte vom Modell und der Wirklichkeit besser, weil die Modelle eben genau diesen Wert ausrechnen sollen.
Noch interessanter ist natürlich die Frage, wie weit zonale Vorhersagen stimmen. Weil sich die Qualität eines Modells nur hier zeigen kann, ein Treffer eines einzigen Durchschnittswerts über alles kann auch Zufall sein.
Ich frage mich übrigens, wie ein Modell eine Anomalie berechnen kann? Anomalien kann man meiner Meinung nach doch nur im Nachhinein aufgrund von erfolgten Absolutmeßreihen bestimmen, oder?
Auch Modelle können als eigentliche Ergebnisse zunächst nur Absolutwerte errechnen. Über die kann man zwar schon eine Anomalie bilden, deren Bezug hat aber mit der Realität nichts zu tun.
Wenn man beide Bezüge aber gleichsetzt, findet mit hoher Wahrscheinlichkeit eine Parallelverschiebung einer ganzen Kurve statt. Hat jemand diesbezügliches Insider Know How, wie hier gearbeitet wird?
Sie sind da leider nicht ganz auf dem Laufenden. Ein Rahmstorf vom PIK kann als einziger weltweit Temperatur-Anomalien messen, weil das besser und genauer geht, als Absolutwerte. Wenn das jemand nicht glaubt, erzählt er allen Ernstes das Märchen von der Hütte auf dem Berg, deren Höhe man ja auch genau messen kann, ohne zu wissen, wie hoch der Berg eigentlich ist. ———- So etwas nennt man Glanzleistungen eines Scharlatans, der immer noch so tut, als würde er wissenschaftlich arbeiten. Aber er hat ja Freunde beim Club of Rome und seine Schwester verkauft CO2 freien Schmuck. In seiner Welt scheint das zu genügen.
Wie soll denn ein „Klimamodell“ funktionieren, wenn kein Wettermodell funktioniert und deshalb noch nicht einmal das Wetter des nächsten Tages vorhersagen kann? Trefferquote so zwischen 85 und 90%. Ich weiß noch wie ein Meteorologe auf ner großen Segelfliegerversammlung behauptete, daß einem bestimmten Tag es zwar so aussehe, daß man die 500 km und mehr gen Frankreich fliegen könne, das aber nicht stimme.Witzigerweise flog unsereiner an dem Tag mal eben die 500 mit dem Segelflieger und hätte noch locker 300 bis 400 weiter fliegen können. Allerdings wäre das sehr teuer geworden mit zwei Übernachtungen für mich und die drei Rückholer mit dem PKW plus Anhänger und Tempo-80-Limit.Fakt ist: Die zur Verfügung stehenden meteorologischen Datensätze sind nicht ausreichend. Und welcher Meteorologe weiß schon wie sich in Norddeutschland das Wetter aufgrund der Variabilität der Pflanzenwelt und der Untergründe verhält. Die Lüneburger Heide ist relativ hoch und trocken und damit das beste norddeutsche Segelfluggebiet. Beste Thermik und höchste Cumuluswolken findet man da.
Nach den Klimamodellen des IPCC können Segelflieger eigentlich täglich um die Erde fliegen, weil stetig steigende Temperaturen ewige Thermik verspricht. Am besten nachts, wenn die Rückstrahlung am stärksten ist. Oder habe ich als ehem. Segelflieger da etwas falsch verstanden?
Ja, das ist das besondere an der IPCC Klimamodelierung, darin gibt es so etwas wie Thermik nicht, nur Strahlung rauf und Gegenstrahlung wieder runter und dann wird es unten warm….
Ach ja, und wer das anders sieht ist ein „Klimaleugner“, nur damit Sie Bescheid wissen….
Zu ähnlichen Ergebnissen ist auch Roy Spencer mit einem ganz anderen Ansatz gekommen:https://www.drroyspencer.com/2021/02/urban-heat-island-effects-on-u-s-temperature-trends-1973-2020-ushcn-vs-hourly-weather-stations/Ein weiteres interessantes Paper von Nicola Scafetta ist „Reconstruction of the Interannual to Millennial Scale Patternsof the Global Surface Temperature“, atmosphere mdpi (ist im Internet frei verfügbar). Hierin wird von zyklischen natürlichen Ursachen für Temperaturveränderungen ausgegangen, ohne die exakten Ursachen zu bestimmen. Es werden über eine Frequenzanalyse dominierende Frequenzen für Temperaturänderungen bestimmt. Durch die nachfolgende Frequenzsynthese können sowohl Temperaturänderungen in nachfolgenden, nicht bei der Analyse berücksichtigten, Jahren „vorausgesagt“ werden. Auch können vergangene Ereignisse, wie die MWP, nachvollzogen werden.Zu guter letzt noch ein bißchen Verschwöhrungstheorie: Unter https://skepticalscience.com/understanding-adjustments-to-temp-data.htmlkann man sich unter figure 8 die Effekte der Homogenisierungs-Algorithmen bei NOAA anschauen. Die Webseite „scepticalscience.com“ gehört zu den „Guten“.
Die CO2-basierten Klimamodelle des IPCC sind im Grunde unglaublich naiv und haben mit der Physik fast nichts zu tun.Sie ignorieren auch völlig die natürlichen zyklischen Klimaschwankungen astrophysikalischer Natur, wie sie seit Jahrmillionen existieren. In den letzten 8000 Jahren ist der CO2-Gehalt von 260 auf 412 ppm gestiegen – und die Temperatur um fast ein Grad C gefallen. Alleine diese Tatsache (neben anderen) ist ausreichend, um die CO2-Hypothese als Unsinn aufzuzeigen. Die bis heute unbewiesenen IPCC-Modelle entstanden in den 80er-Jahren, als Temperatur und CO2-Gehalt parallel anstiegen. Nur ist Korrelation keine Kausation. Das wurde übersehen oder ignoriert, trotzdem davor – in der Zeit zwischen 1940 und 1975 – die Globaltemperatur zurückging, trotz CO2-Anstieg. Die CO2-Hypothese war damit von Anfang an fragwürdig und bis heute fehlt ein sachlicher Beweis. Sie basiert laut IPCC-Bericht auf „confidence“. Trotzdem wurde zur Propagierung des (angeblich schädlichen) CO2-Einflusses der IPCC gegründet mit sowohl politischer wie ideologischer Motivation. Letztere wird am besten charakterisiert durch die Feststellung von Maurice Strong,IPCC_Funktionär und „Vater des Kyoto-Protokolls“:
„Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der Industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?”
Die Politik hatte ebenfalls großes Interesse an der Förderung von Klima-Ängsten, mit denen sie ihre Agenda fördern konnte. Dazu gehören die Erfahrungen „Angst macht Macht“ und „Angst macht Geld“.
Dazu die freimütige Feststellung von Joschka Fischer: „Man muss den Leuten nur fortwährend Angst einflößen, dann kann man ihnen praktisch immer mehr Steuern und Abgaben aus der Tasche ziehen.“ (Quelle: Buch Einsichten eines Schwarms, F. Heintger, 2015)
Tatsächlich hat Deutschland heute die höchsten Strompreise der Welt – und zwei Drittel davon sind staatliche Abgaben und Steuern – jetzt auch noch zusätzlich eine CO2-Steuer.
Klima und Klimawandel wurden von Ideologen und der Politik okkupiert und für ihre Zwecke mißbraucht. Seriöse (kritische) Klimatologen können sich nicht mehr äußern ohne Konsequenzen befürchten zu müssen, das geht heute höchstens noch nach ihrer Pensionierung.