Tropische Nächte machen die Hamburger ganz wirr im Kopf

Der jüngste „Hamburger Klimaentscheid“ wird der alten Hansestadt einen würdigen Platz neben den weltweit führenden Städten Schilda und Jerewan mit seiner berühmten Radiostation sichern.

 

Von Manfred Haferburg

Die Freie und Hansestadt Hamburg ist als Stadtstaat ein Land der Bundesrepublik Deutschland und mit knapp zwei Millionen Einwohnern der zweitgrößte Stadtstaat der Bundesrepublik. Hamburg blickt auf eine traditionsreiche Geschichte als Hafenstadt zurück und sieht sich mit seinem großen Umschlaghafen als „Tor zur Welt“. Speicherstadt und Kontorhausviertel sind Teil des UNESCO-Weltkulturerbes. Die Stadt freut sich, mit der Reeperbahn die „sündigste Meile der Welt“ zu haben. Gleich um die Ecke liegen die womöglich noch sündigeren 100 Meter der Herbertstraße. Hamburg ist auch stolz auf seine „Elbphilharmonie“, die durch Verdoppelung ihrer Bauzeit und Verzehnfachung ihrer Baukosten schon vor ihrer Inbetriebnahme große Berühmtheit erlangte. Doch nun wird wohl der „Hamburger Klimaentscheid“ der alten Hansestadt einen würdigen Platz neben den weltweit führenden Städten Schilda und Jerewan mit seiner berühmten Radiostation sichern.

Der Hamburger Klimaentscheid, offiziell „Hamburger Zukunftsentscheid“, war ein Volksentscheid am 12. Oktober 2025, bei dem die Hamburger über eine Verschärfung des Klimaschutzgesetzes abstimmten. Die Volksentscheid-Initiative forderte: Klimaneutralität bis 2040 (statt bisher 2045), Verbindliche jährliche CO2-Minderungsziele und Sozialverträglichkeit aller Klimaschutzmaßnahmen. Der Klimaentscheid war initiiert von Fridays for Future Hamburg, NABU, ver.di und dem Mieterverein Hamburg und wurde unterstützt von über 160 Organisationen, darunter FC St. Pauli, Greenpeace und BUND. Über 106.000 gültige Unterschriften wurden für das Volksbegehren gesammelt.

Die Wahlbeteiligung entsprach rund 535.000 Abstimmenden von insgesamt etwa 1,32 Millionen Wahlberechtigten. 455.387 Stimmen wurden per Briefwahl abgegeben, und nur 80.261 Hamburger gingen am Wahltag in die Abstimmungsstellen.

Geschätzte 200 neue Beamtenstellen

Tja, liebe vergnügungssüchtige Hamburger, jetzt habt Ihr den grünen Salat. Weniger als jeder zweite Hamburger nahm überhaupt am Entscheid teil, der Rest ging lieber zum „Rendezvous der Träume. Surrealismus und deutsche Romantik“, einer Ausstellung in der Hamburger Kunsthalle. Oder zur Vernissage zeitgenössischer Kunst mit biologischen Anklängen: „VIELSCHICHTIG – Zellen · Gewebe · Struktur“. Manche gingen zur Comedy-Show mit dem Entertainer Mario Barth oder zum Benne Singer-Songwriter-Konzert mit emotionalen Texten, oder gar zum Bigband „Operation Grand Slam“, mit Jazz- und Swing-Klängen vom Feinsten, oder zum Chorkonzert „Music be the food of LOVE“ – Eintritt frei. Man konnte auch zu OLIVIAS WILDEN JUNGS – Party Special auf der großen Freiheit mit Strip-Show und Lounge für Frauen gehen – ideal für Junggesellinnenabschiede, zur Mamma Mia Party, dem ABBA-Feeling mit ausgelassener Tanzstimmung pilgern. Das klingt alles verlockend, man muss auch Prioritäten setzen können. So lag dann auch die Wahlbeteiligung bei eher mageren 40,6 Prozent.

Das Ergebnis überraschte selbst die Initiatoren: 53,2 Prozent Ja-Stimmen. Das notwendige Zustimmungsquorum von 20 Prozent wurde überschritten und das neue Gesetz – „Das tritt nach meiner Kenntnis… ist das sofort… unverzüglich“ in Kraft, hätte Günter Schabowski gesagt und einen Monat nach der Abstimmung gemeint. Die Folgen für die Freie und Hansestadt werden dem Anlass des Schabowski-Zitats durchaus vergleichbar sein. Denn das Ergebnis beinhaltet verheerende  Ziele.

Ab sofort ist es per Gesetz in Hamburg erforderlich, den CO2-Ausstoß um 70 Prozent bis 2030 und um 98 Prozent bis 2040 zu senken. Es sind Jahresemissionsmengen und Sektorenziele einzuführen und jährliche Schätzbilanzen zur Kontrolle der Zielerreichung durchzuführen. Dazu werden geschätzte 200 neue Beamtenstellen benötigt.

Hamburg haarscharf in der Linkskurve

Hamburgs Geschicke werden von einem SPD-Oberbürgermeister namens Peter Tschentscher geführt, der in einer Koalition mit den Grünen die Geschicke der einst so stolzen Hansestadt lenkt. Die Wahlergebnisse der SPD haben sich zwar seit dem Jahr 2000 bis zur Wahl 2025 auf 22,7 Prozent halbiert, die CDU hat ein Drittel der Hamburger Wähler auf nunmehr 20,7 Prozent verloren. Die Grünen hingegen haben sich im selben Zeitraum auf 19,3 Prozent fast verdoppelt. Die Linke hat sich im selben Zeitraum von zwei auf 14,5 Prozent versiebenfacht. SPD-Linke, Grüne und Linke haben großen Einfluss in Hamburg, das einen ziemlichen Linkskurs eingeschlagen hat. Auch der Einfluss der überwiegend linken Medien ist nicht zu unterschätzen.

Hamburg gilt als einer der bedeutendsten Medienstandorte Deutschlands mit einer wirtschaftlich starken Medienlandschaft. Der Norddeutsche Rundfunk (NDR) hat seinen Hauptsitz in Hamburg und produziert u.a. die Tagesschau, Tagesthemen und das Hamburg Journal. Auch das ZDF und DeutschlandRadio betreiben Landesstudios in Hamburg. Spiegel, Zeit und TAZ-Nord sind in Hamburg zu Hause. Auch Luisa Neubauer, das deutsche Gesicht von „Fridays for future“, lebt in Hamburg. Sie engagiert sich stark für Klimaschutzprojekte und war eine zentrale Figur beim Hamburger „Zukunftsentscheid“ zur Klimaneutralität bis 2040. Auch die üblichen Verdächtigen wie BUND, NABU, ver.di, und die Hamburger Kunsthalle und Kulturszene machten an der Spitze mit. Lustigerweise trieben bei der Entscheidung der Mieterbund sowie der FC St. Pauli ebenfalls gegen die ureigensten Interessen ihrer Mitglieder ihr Unwesen.

Seit 2011 führt Hamburg den Titel „Umwelthauptstadt Europas“. Die Hamburger fürchten sich zunehmend vor dem Klimawandel, beklagen eine zunehmende Zahl von Sommertagen und tropischen Nächten und ihren Auswirkungen auf die Konzentrationsfähigkeit der Stadtbevölkerung. Auch haben sich die Hamburger einreden lassen, dass der Meeresspiegel bis zum Jahr 2100 um 1,5 Meter ansteigt. Das sind, wenn ich richtig rechne, ganze zwei Zentimeter pro Jahr und man müsste es eigentlich mit einem Zollstock nachmessen können. Da kann es schon mal vorkommen, dass man verschreckt das funkelnagelneue Großkraftwerk Moorburg abschaltet und vorsorglich in die Luft sprengt, eine Tragikomödie, die wir hier auf der Achse in dem Beitrag „Im Sumpf von Moorburg“ beschrieben haben.

Da wollen wir mal den von den tropischen Sommernächten konfusen Hamburgern etwas in praktische Sprache übersetzen, wozu sie sich selbst da gerade gesetzlich verpflichtet haben, was also „unverzüglich – ab sofort“ gerichtlich einklagbar ist.

In Hamburg wird gerade die Aufklärung rückabgewickelt

Fangen wir mit der Zeitskala im Jahr 2030 an, was ja sehr überschaubar ist. In etwa vier Jahren muss! Hamburg jetzt seinen Kohlendioxid-Ausstoß um 70 Prozent verringern.

Wer erzeugt in Hamburg eigentlich wie viel CO2? Den Löwenanteil davon macht die Industrie (Raffinerien, Metallverarbeitung, Chemie) mit 30 Prozent aus. Dann folgen die privaten Haushalte (Heizung und Strom) 25 Prozent, dann Gewerbe (Handel, Dienstleistung, Büro, Gastronomie) mit 20 Prozent, dann der Verkehr (PKW, LKW, Hafenlogistik, Luftverkehr) 20 Prozent und zuletzt die Sonstigen (Abfall, Müllverbrennung, Kläranlagen und Tierhaltung) mit fünf Prozent.

Davon soll in vier (4) Jahren jeder Sektor 70 Prozent einsparen. Und der normale Hamburger Bürger ist ja mit fast allen Gebieten verquickt. Und in 15 Jahren soll alles CO2 verbannt sein. Per Gesetz, auch wenn das physikalisch unmöglich ist. In Hamburg werden gerade Gesetze gemacht, die den Naturgesetzen widersprechen. Viel Glück dabei.

Was bedeutet das für die Hamburger?

Was nun folgt, werden viele nicht glauben. Nicht glauben wollen. Es ist einfach zu verrückt. Aber die Ungläubigen sollten die Geschichte „Im Sumpf von Moorburg“ lesen. Das hat auch niemand für möglich gehalten. Und es ist doch geschehen.

Die Umsetzung der Ergebnisse des Hamburger Klimaentscheids bedeutet für den durchschnittlichen Hamburger Haushalt in den nächsten vier bis vierzehn Jahren: Abschaffung des PKW mit Verbrenner, Kauf eines Elektroautos, Umbau der Heizung auf Wärmepumpe oder Mieterhöhung um drei bis vier Euro pro Quadratmeter, das sind so 350 Euro pro Monat höhere Mietkosten für eine durchschnittliche Wohnung. Dazu kommt die Unbezahlbarkeit des Stroms, für viele Verlust des Arbeitsplatzes. Warum? Weil viele Arbeitsplätze verschwinden. Sie können dann aber Rikscha-Fahrer werden. Oder Lastenfahrradführer. Oder CO2-Kontrolleur.

Die Waren des täglichen Bedarfs werden unbezahlbar. Weil Brötchen dann mit teurem Strom oder noch teurerem Wasserstoff gebacken werden. Und Fleisch wegen des Schweinefurzes oder des Kuhrülpsers verboten ist. Modische Kleidung? Zu viel CO2! Urlaub? Fliegen geht nicht – CO2. Höchstens eine Wanderung ins renaturierte ehemalige Hafengebiet. Und krank sollten sie lieber nicht werden. Sie wissen schon – Arznei aus der Chemie? Nee, die ist weg. Dieselnotstrom im Krankenhaus bei Blackout? Diesel verboten, Wasserstoff knapp und zu teuer.

Im Industriebereich müssen die Raffinerien, die chemische Industrie und Metallurgie aus Hamburg verschwinden, denn Wasserstoff wird es nicht geben oder er ist mit Wirkungsgraden von 15 bis 18 Prozent nicht bezahlbar. Auch der Hamburger Hafen muss abgewickelt werden. Vielleicht wird es ja ein schöner Yachthafen für Ausländer? Oder ein schönes renaturiertes Moorgebiet?

Der gesamte Verkehrsbereich muss umgestellt werden – beim Lieferverkehr auf Lastenräder, im Personenverkehr auf Rikschas, beim Fernverkehr auf indische Bahn-Verhältnisse. Müll kann nicht mehr abgeholt und schon gar nicht verbrannt werden. Es wird aber auch kaum noch welcher entstehen, weil es nichts mehr zu kaufen gibt. Dosen- und Flaschenpfand wird obsolet, weil es keine Blechdosen und Plastikflaschen mehr gibt. Und damit entfallen auch solche genialen Ideen wie an Plastikflaschen unlösbar angebrachte Schraubdeckel.

Da bleiben keine grünen Wünsche unerfüllt. Und genau deshalb wird die Umsetzung dieses Irrsinns auch nicht zu Ende geführt, weil die Hamburger rebellieren werden, wenn sie erst mal merken, dass sie auf dem besten Wege sind, ihre Existenzen zu zerstören. Dann merken sie nämlich auch, dass Klimaschutz und sozialverträglich nicht zusammenpassen. Der Staat hat kein Geld, das er verteilen kann, es sei denn, er hat es jemandem weggenommen. Es bleibt ein ehernes Gesetz: „irgendwann geht den Sozis immer das Geld der anderen aus“. Das gilt auch in der Freien- und Hansestadt Hamburg.

Die Frage ist nur, was wurde bis zum Abbruch des Klimairrsinns alles schon nachhaltig zerstört. Man betrachte nur die Energiewende, bei der der Point of no return schon überschritten ist.

Was nützt es der Welt, wenn Hamburg Harakiri begeht?

Eine weitere ketzerische Frage stellt sich: Ist „menschgemachtes Kohlendioxid“ wirklich ein Treiber des Weltklimas, das sich seit Äonen auch ohne Menschen ständig ändert? Oder ist es wahr, was Trump sagt: Der menschgemachte Klimawandel ist nur ein Betrug, mit dem ein Geldumschaufelbagger Unsummen aus den Gärten kleiner Leute in die Schatzkammern einiger Oligarchen befördert? Stimmt es, dass es selbst in Europa mittels der „Erneuerbaren“ ein paar Millionäre zu Milliardären gebracht haben?

Selbst wenn die Theorie vom menschgemachten Klimawandel  stimmen würde, nützt der Klimaschutz-Selbstmord der Stadt Hamburg in irgend einer Weise dem Weltklima? Kurze Antwort: nichts, rien, nothing, nada, nitschewo, کچھ نہیں, 什麼都沒有, कुछ नहीं, hakuna kitu…. Europa erzeugt heute sechs Prozent des weltweiten CO2-Ausstoßes. Deutschland ungefähr 1,6 Prozent. Hamburg etwa 0,0275 Prozent. Noch Fragen?

Dröhnende Stille im Saal. „Doch, es bringt etwas!“ Ein Ruf von Luisa, der Luisa von der „Fridays for Future“-Fraktion, schneidet durch die Stille. Sie läuft nach vorn und schnappt sich das Mikrofon vom Rednerpult. „Doch, es bringt uns etwas! Wir ziehen die CO2 Ziele um 10 Jahre vor. Das vermindert den Anstieg des Hamburger Meeresspiegels um 20 cm! Ist das nichts? Die ganze CO2 emittierende Welt muss ihre Deiche bis 2100 um 150 cm erhöhen, das kostet! Wir hier in Hamburg aber, müssen die Deiche nur um 130 cm erhöhen, weil wir ja die Klimaziele zehn Jahre früher erreicht haben. 20 cm weniger Meeresspiegelanstieg, als die anderen. Wenn die anderen sehen, dass der Meeresspiegel bei uns weniger ansteigt, dann werden sie begreifen, das Klimaschutz wirkt und sinnvoll istWir sind dann ein Vorbild für die Welt“.

Spricht’s und klebt sich zwecks Unterstreichung der Bedeutung ihrer Aussage mit Sekundenkleber am schönen hölzernen Rednerpult fest, das noch aus der Vor-Klimazeit stammt. Doch im Hintergrund taucht schon der Hausmeister mit der Laubsäge auf, um Luisa schonend vom Rednerpult zu lösen. Alles wird gut. Auch in Hamburg.

 

Manfred Haferburg wurde 1948 im ostdeutschen Querfurt geboren. Er studierte an der TU Dresden Kernenergetik. Im KUUUK-Verlag veröffentlichte er seinen auf Tatsachen beruhenden Roman „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Immer weiter schönreden

Schönreden hat ja auch seine guten Seiten, es tröstet und beruhigt, wenn es einem wirklich schlecht geht. Allerdings, an die Ursachen einer Krise kommt man so nicht heran. Das ist wohl ein Grund, warum Cicero jetzt in einem Artikel entschlossen ausruft: „Die Zeit des Schönredens ist vorbei“. Deutschlands Wirtschaft – Die Zeit des Schönredens ist vorbei | Cicero Online

Von Peter Würdig

Eine Kommission von Experten

Die Hoffnung von Cicero stützt sich dabei auf die Tatsache, dass die Bundeswirtschaftsministerin Katherina Reiche eine Kommission von Experten (und einer Expertin !) einberufen hat, die jetzt ein Gutachten herausgebracht hat. Nun fragen wir uns, ist die Zeit des Schönredens wirklich vorbei, und dazu wollen wir uns dieses Gutachten doch mal näher ansehen. Das Original gibt es hier: bundeswirtschaftsministerium.de/Redaktion/DE/Downloads/W/wachstumsagenda-fuer-deutschland.pdf?__blob=publicationFile

Der Titel des Gutachtens lautet: „Eine Wachstumsagenda für Deutschland“, und die Experten sind Veronika Grimm, Justus Haucap, Stefan Kolev, Volker Wieland. Ganz allgemein kann man sagen, dass das Gutachten viele interessante und beachtenswerte Feststellungen enthält, wobei ich mich als technischer Physiker auch soweit einschränken muss, dass ich nicht alle dort aufgeführten Hinweise fachlich bewerten kann.

Die Lage der Wirtschaft

Cicero meint dazu: „Die deutsche Wirtschaft steht mit dem Rücken zur Wand“, und im Gutachten drückt man das etwas gemäßigter aus: „Die deutsche Volkswirtschaft stagniert seit dem Jahr 2021.“ Die im Gutachten genannten Zahlen sind sicherlich zutreffend, doch die nüchterne Aufzählung dieser Zahlen trifft nicht die wirkliche Brisanz der Entwicklung. Ebenso kann man nicht von einer „schleichenden Deindustrialisierung“ sprechen, die ist seit einigen Jahren voll im Gange. Wir erleben in der letzten Zeit fast täglich Nachrichten von Firmen, die entweder in das Ausland abwandern oder Teile der Produktion schließen, dieses verbunden mit dem Verlust von Arbeitsplätzen in großer Zahl. Was soll es einem der Betroffenen, der also seinen Arbeitsplatz verloren hat, sagen, wenn er sieht, dass im Gutachten ein Diagramm mit der Vermögensentwicklung von Milliardären besprochen wird ? So etwas wird auf Unverständnis stoßen.

Andere Punkte, die im Gutachten behandelt werden, wie etwa „Technologiedefizite, schwache Innovationskraft“ oder „Verteilung der 1.276 Einhörner auf der Welt“ haben sicherlich eine gewisse Bedeutung.

Der Elefant im Raum

Aber diese Aufzählungen treffen eben nicht den entscheidenden Kern, der die jetzige wirtschaftliche Misere herbeigeführt hat, mit anderen Worten, der Elefant im Raum wird nicht wahrgenommen. Wir erleben seit Merkels Atomausstieg 2011, dass wertvolle Industriesubstanz vernichtet wird, während brauchbarer Ersatz weder vorhanden noch überhaupt in Sichtweite ist. So wurde z.B. jetzt das Kraftwerk Moorburg in Hamburg zerstört, und Kühltürme eines Kernkraftwerks sollen in den nächsten Tagen gesprengt werden. Diese fatale Agenda geht unwidersprochen weiter. Um im Bilde zu bleiben, das ist wie auf einem Schiff, dass die Rettungsringe über Bord wirft während der sichre Hafen noch in weiter Ferne liegt.

Die Energiepolitik

Um es klar zu sagen, die Ursache für die wirtschaftliche Fehlentwicklung ist die falsche Energiepolitik, die die Preise für Energie so in die Höhe getrieben hat, dass die Unternehmen im internationale Wettbewerb nicht mithalten können. Im Gutachten wird das zwar immerhin richtigerweise angedeutet. Es heißt da: „Energieintensive Branchen etwa werden in Deutschland auf absehbare Zeit unter erheblichen Kostennachteilen leiden …“, aber das trifft eben nicht nur energieintensive Branchen, denn es gibt ja fast kein Produkt der Wirtschaft, in dem der Preis für Energie nicht eine mehr oder minder große Bedeutung hat. So hat also die alleinerziehende Mutter ein Problem, wenn die Preise für Lebensmittel weiter steigen, da ja auch für Düngemittel und Transporte erheblich Energie benötigt wird. Im Text wird dazu auch noch ganz richtig angesprochen, „…sofern sich die deutsche und die europäische Energie- und Klimapolitik nicht dramatisch ändert.“, aber in den im Gutachten am Ende aufgeführten „Fünf Hebel für ein neues Wachstumsmodell“ fehlt dazu eine klare Aussage.

Die Kernenergie

Im Gutachten wird ganz zu Recht der Ausstieg aus der Kernenergie ktizisiert („Der Ausstieg aus der Kernenergie ist zudem ein gutes Beispiel für den Verlust an Resilienz, …“), aber in den fünf Hebeln fehlt wiederum eine klare Aussage zum Ausstieg aus dem Ausstieg. Außerdem fehlt in diesem Absatz auch der Hinweis auf die fatalen Folgen des Kohle-Ausstiegs. Zwar gibt es die Klima-Psychose auch in der EU und (noch) in einigen anderen wichtigen Ländern der Welt, aber den Doppel-Ausstieg aus „Kohle“ und „Atom“ gibt es nur in Deutschland, die übrigen 193 Staaten der UNO machen das nicht mit. Ganz im Gegenteil, in China werden in einem Monat mehr neue Kohlekraftwerke aufgebaut als Deutschland in einem ganzen Jahr vernichten kann, und das machen die in China ganz richtig!

Sicherheit im Energie-Bereich ?

Nun haben wir in Deutschland durch Subventionen von vielen Milliarden Euro einige Tausend Windkraftanlagen und wohl Millionen von PV-Anlagen, jedoch gibt es keine Einzige dieser EE-Anlagen, die verbrauchsgerecht Energie liefern kann, alle diese Anlagen brauchen ein Backup-Kraftwerk, das den ständig schwankenden Output laufend ausgleicht. Das machen im Moment die noch bestehenden Reste der Kohlekraftwerke, wenn das nicht reicht muss auch noch Import aus Frankreich oder Polen dazukommen. Da diese Kohlekraftwerke alle zerstört werden sollen, sieht der Plan von Katherina Reiche Gaskraftwerke vor, die mit grünem Wasserstoff betrieben werden sollen. Nun hat Katherina Reiche angemahnt, und das ist ihr Verdienst, dass man auch auf die Kosten der Energiewende schauen muss, aber für ihre eigenen Pläne hätte sie auch mal zum Taschenrechner greifen müssen. Das hat sie unterlassen, denn nach diesen Vorstellungen käme ja eine ganz irrsinnige Teuerung im Energie-Bereich auf Deutschland zu. Auch hierzu gibt es im Gutachten keine Gedanken.

Mehr Brüssel ?

Zum Ende des Gutachtens muss man noch ein weiteres Fragezeichen setzen, es wird da gefordert: „Fünftens: Europäische Integration vertiefen.“ Nun hat die europäische Integration auch ihre Vorteile, etwa wenn die Lade-Anschlüsse von Handys genormt werden, aber der Hang zur Verbots- und Kommandowirtschaft kommt verstärkt aus Brüssel, siehe dazu etwa das Verbrenner-Verbot. Da sollte man doch sehr kritisch prüfen, in welchen Bereichen wir die Integration vertiefen sollen und und in welchen lieber nicht.

 




Klimarettung Plan A: Nichtstun, im Zweifel anpassen Teil 4

Mein verhindertes Video-Gespräch mit Prof. Gerd Ganteför

Die Treibhaushypothese wird Stück für Stück mit Beweisen, Fakten und Logik widerlegt. Das mag nicht jedem gefallen, ist aber, bis zum Gegenbeweis, korrekt. Es wird nachgewiesen, dass dieses nur hypothetische Gebäude – bildlich gesprochen- ein Fundament hat, was auf Sand ruht, der seinerseits im Sumpf liegt.

Von Michael Limburg

Ein Bild, das Bücherregal, Buch, Im Haus, Person enthält. KI-generierte Inhalte können fehlerhaft sein.

Ganteföhr Movie 3

Videoausschnitt ca. 3 Minuten lang, aus dem Gespräch mit Herrn Model mit Prof. Gerd Ganteför, zum Thema Klimawandel und Treibhauseffekt. Von Herrn Model vorgestellt mit den Worten: „In dieser Folge im Modelhof begrüßen wir Prof. Dr. Gerd Ganteför – Physiker, Autor und einer der unbequemsten Stimmen in der Klimadebatte“. ALLE ZEITANGABEN IM FOLGENDEN BEZIEHEN SICH DAS HIESIGE VIDEO, FALLS DAS GELÖSCHT WERDEN SOLLTE IN KLAMMERN, AUF DAS ORIGINAL.

Anmerkung. Alle Klimamodelle bedienen sich der Gleichungen, die man zur Berechnung des Wetters verwendet. Im Normalfall läuft ein System über alle oder einen Teil der Gitterboxen der Erde über 20 Minuten. Damit die nicht „in den Wald laufen“, werden Parametrisierungen (so nennt man den Eingriff von Hand der Programmierer) vorgegeben, Das zwingt das Programm innerhalb bestimmter vorgegebener Grenzen zu bleiben. Niemand weiß, warum das Modell, das tut, aber es ist so.

Um also zu verhindern, dass das Modell eine zu hohe oder zu niedrige Temperatur auf Grund dieser oder jener CO2 Vorgabe errechnet, werden viele der Vorgaben berechnet und deren Ergebnis dann einer Mittelwertbildung unterzogen. Die folgende Grafik zeigt, was dabei herauskommt, und – nicht vergessen – niemand weiß warum!

Ein Bild, das Text, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 12: Darstellung der Ausgabe eines Klimamodells für die Berechnung der Wintermonate der USA, die sich mit einer Eingabe deren Starttemperatur um 3 x 10-14 K unterscheiden. Die Ausgabe schwankt dann von + 5 K bis zu + 1 K. Die Eingangstemperatur wäre vergleichbar mit dem Durchmesser eines Atomkerne (z. B. von Uran). Die haben einen Durchmesser bis zu  Metern.

Doch das ist noch längst nicht alles. Wir sprachen vorhin über die systematischen Fehler. Die sind natürlich auch bei diesen Modellrechnungen vorhanden, und bauen sich dann alle 20 Minuten weiter auf. Nehmern wir also an, dass die bisherige „Mitteltemperatur“ hinreichend fehlerfrei (also mit der dem ca. ± 0,1 bis ± 0,2 Unsicherheitsband versehen) als Eingabe in dieses Modell vorgesehen ist. Jede 20 Minuten kommen weitere systematische Fehler dazu. Am Tage dann 72 x, im Monat dann 2.160 mal (bei 30 Tagen) und im Jahr sind das dann schon 25.920 mal.

Das Ergebnis sähe dann so aus.

Ein Bild, das Text, Screenshot, Diagramm, Webseite enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 13, Je nach IPCC Modell A1 bis AB1 und den angegebenen Werten für CO2 Forcing, würde das Ergebnis irgendwo in den roten bis blauen Fehlerbereich liegen. Der Gesamtfehler ist dann 114 x größer als die Eingangsvariable.

Das kann es also nicht sein. Und trotzdem wird es so gemacht, selbst gestandene Wissenschaftler wie Ganteför, Peitgen und viele andere mehr, springen auf diesen Zug auf und fahren damit ab. Wie soll man so etwas nennen?

Doch eine Sache möchte ich auch noch beleuchten. Es ist die Aussage von Ganteför mit dem äußerst geringen Anteil des CO2 in der Atmosphäre mit der Promillegrenze von Alkohol. Er sagte in Minute 2:12 (YT 17:43)

..part per millions, also knapp das doppelte, das sind 0,5 Promille. So und jetzt gibt es die Leute, die sagen, das ist doch Quatsch, CO2 kann doch jetzt nicht so eine Erwärmung erzeugen. Dann sage ich immer, okay Leute, aber 0,5 Promille Alkohol im Blut bedeutet, ich sollte besser nicht mehr Auto Auto fahren, obwohl ja immer noch 99,9% meines Blutes Blut sind und nicht Alkohol. Aber das bisschen Alkohol macht für unser Gehirn eben einen großen Unterschied…

Nun ist nicht alles, was hinkt, ist ein Vergleich, aber dieser Vergleich hinkt besonders. Denn CO2 ist kein Nervengift wie Alkohol, der schon in ganz geringen Mengen auf das Gehirn Einfluss ausübt, sondern ein Gas, dass sich fast wie ein Edelgas verhält. Also fast inert ist, wie man in der Chemie dazu sagt. Es kann sich nur mit hohem Energieeinsatz, so wie ihn die Sonnenstrahlen liefern, mit anderen Stoffen verbinden. Man nennt das Photosynthese, und das ist die Grundlage allen Lebens auf diesem Planeten. Weil viel CO2 schon in den Gesteinen und im Ozean gebunden ist, in sehr viel früheren Zeiten war es nicht nur warm auf der Erde, sondern der CO2 Gehalt war auch bei mehreren 1000 ppm. Das Ergebnis war, das Leben quoll über. So gesehen haben wir auf dieser Erde viel zu wenig CO2, Und die Natur gleicht das mit steter Zunahme aus. Politisch gesehen, sollten daher all jene die CO2 erzeugen und damit die CO2 Zunahme antreiben einen Bonus bekommen, statt eines vielfältigen Malus, wie bspw. einen decarbonisierten Kontinent zu haben, wie es ihn der Green Deal ohne Rücksicht auf (unsere) Verluste vorschreibt. Wer also der Dekarbonisierung das Wort redet, tut genau das.

Alle C3 und auch C4 Gräser wachsen mit mehr CO2 besser, und zu diesen Gräsern gehören sämtliche Getreide und auch alle Reissorten. Tatsache ist, wir brauchen mehr CO2, deutlich mehr.

Ein Bild, das Text, Screenshot, Schrift, Reihe enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 14: Ab ca, 180 ppm bis 200 ppm an CO2 sind alle Pflanzen in dieser Welt verhungert. Und mit ihnen alles Leben. Das sollte keiner wollen, oder?

7. Weiter Unstimmigkeiten in der „Klimaforschung“

Die Mitteltemperatur wurde gesenkt.

Auch bei der normalen Klimaforschung ist nicht alles Gold was glänzt. Da ist zum Beispiel die wichtige Frage, wie hoch denn die Idealtemperatur, dank des Treibhauseffektes sei? Bis Anfang 2000 war man sich einig, dass das 15 ° C sind. Sven Plöger, bekannter ARD Wettermoderator, sagte noch am 22.10.2011 den erstaunten Zuschauern, dass es 15° C seien, und ein paar Jahre später (11.04.2019) in einer Sendung vom wdr, mit Frau Böttiger und anderen Frauen wie Luisa Neubauer, sagte er mit gleicher Überzeugung, dass es nun 14 ° seien. Er hat mit voller Inbrunst und Überzeugung, die gesamte Erwärmung des vorigen Jahrhunderts ausradiert.

Die Gründe dafür hat mir der Leser Marcus Portius genannt. Und sie sprechen für sich:

In der NASA Veröffentlichung: GISS Surface Temperature Analysis: The Elusive Absolute Surface Air Temperature (SAT) steht: „There are indeed many historical reports that discuss the annual mean temperature results in terms of the absolute temperature. Pre-2000, these reports generally took the anomalies and added them to a baseline temperature of 15°C, which was a commonly used average. After 2000, they often used a baseline of about 14°C (following Jones et al, 1999). However, these baselines were only approximate, as evidenced by the fact that they were changed by a degree Celsius after further research!“

zu Deutsch: „“Es gibt tatsächlich viele historische Berichte, die die Ergebnisse der jährlichen Durchschnittstemperatur in Bezug auf die absolute Temperatur diskutieren. Vor dem Jahr 2000 berücksichtigten diese Berichte im Allgemeinen die Anomalien und addierten sie zu einer Basistemperatur von 15 °C, einem häufig verwendeten Durchschnitt. Nach dem Jahr 2000 verwendeten sie oft eine Basislinie von etwa 14 °C (in Anlehnung an Jones et al., 1999). Diese Basislinien waren jedoch nur ungefähre Angaben, wie die Tatsache zeigt, dass sie nach weiteren Untersuchungen um ein Grad Celsius geändert wurden!“.  Und besagter Jones ist der später unrühmlich bekannt gewordene Phil Jones, damals Leiter der Climate Research Unit von der Universität East Anglia, der auf Grund des Climate-Gate Skandals bekannt wurde. Er war der, welcher Mike´s Hockeystik Nature Trick  (gemeint ist Michel Mann, dem Erfinder des weltberühmten Hockeystick Skandals) so toll fand, dass er ihn seinem eMail Empänger zur Nachahmung empfahl. Der Trick bestand darin, zwei Kurven verschiedener Herkunft, und grundverschiedener Mess- und Zeitverhalten (Baumringdaten und moderne Thermometerdaten) aneinander zu „spleißen“, ohne den Leser darauf hinzuweisen was da gemacht wurde. Das erinnert stark an das CO2 Diagramm (Abbildung 8), das ebenfalls von zwei verschiedenen Messdaten und Messorten produziert wurde. Phil Jones war auch der derjenige der   an Michael Mann am 8 Juli 2004 schrieb:“ ‘can’t see either of these papers being in the next IPCC report. Kevin and I will keep them out somehow – even if we have to redefine what the peer-review literature is!’. Doch die Wettermoderatoren sprechen mit gleicher Inbrunst dann vom „wärmsten Jahr“ das „seit Beginn der Wetteraufzeichnung“ gemessen wurde und sagen dann es seien 14,8 °C gewesen. So Benjamin Stöwe am 19.1.2017, zum Jahr 2016, was die WMO uns so erklärt hatte. Doch bei Ganteför und vielen anderen ist das bisher angekommen.

Die Temperaturen der Vergangenheit wurden weltweit gesenkt, um die Gegenwart wärmer zu erscheinen zu lassen.

Es ist das unsterbliche Verdienst meines Freundes und Kollegen, des Prof. und Geologen Friedrich-Karl Ewert, leider inzwischen verstorben, der sich mit den Global Historical Temperature Network beschäftigte. Dabei fiel ihm auf, dass etwa ab 2010 alle Daten dieses Netzwerkes einer gründlichen Überarbeitung unterzogen wurde. Offziell nannte man das Homogenisierung, aber es war weit mehr als das. So gut wie sämtlichen Wetterstationen, wurde die Vergangenheit kühler gemacht, um die Gegenwart wärmer erscheinen zu lassen. Besonders fiel ihm dabei die Station Mallorca auf, bei dem eine Abkühlung von -1 K bis 2010 vorhanden war, dies aber nach der „Homogenisierung“ + 1 K waren. In den USA ist es u.a. Tony Heller der sich damit beschäftigte. Von ihm stammte die folgende Grafik

Ein Bild, das Text, Reihe, Diagramm, Schrift enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 15. Grafik von Tony Heller die zeigt die wie Daten der USA (die plötzlich zu Rohdaten geändert wurden) von einer Abkühlung zu einer Erwärmung wurden. Quelle Website „Real Climate Science“ https://realclimatescience.com/data-tampering-at-ushcngiss/#gsc.tab=0

Climate Gate Files

Vielleicht erinnert man sich noch an die Climate Gate Files, die im Jahr 2009 für Aufsehen sorgte. Ein unbekannter Hacker hat viel 1000 eMails der Universität von East Anglia der dortigen Climate Research Unit.

Hier ein Ausschnitt aus einer Bericht von EIKE

Im November 2009 gelangte eine große Zahl von eMails aus der Climate Research Unit (CRU)der University of East Anglia an die Öffentlichkeit. Die kompletten Climategate eMails können hier nachgelesen werden. Wer in die Abgründe wissenschaftlicher Korruption eintauchen will, dem sei der Link empfohlen.

Die eMails haben in einer Weise das Bild einer korrupten, konspirativen Gruppe von Wissenschaftlern gezeichnet, die mit gefälschten und manipulierten Daten, mit Modellen, die erstellt werden, um ein bestimmtes Ergebnis zu produzieren, nicht, um etwas vorherzusagen, der Welt vorgaukeln wollen, es gebe eine auf menschliche Aktivitäten zurückführbare globale Erwärmung.

Christopher Booker hat am 28. November 2009 in Telegraph vom schlimmsten Wissenschaftsskandal unserer Generation gesprochen. Selbst linke Kommentatoren befänden sich im totalen Schock, und zwar deshalb, weil die Wissenschaftler, die bis zum Haaransatz im Sumpf aus Korruption und Fälschung stecken, nicht irgendwelche Wissenschaftler sind, sondern

“the small group of scientists who have for years been more influential in driving the worldwide alarm over global warming than any others, not least throuh the role they play at the heart of the UN’s Intergovernmental Panel of Climate Change”.

Und es geht immer weiter..

Klimawandel durch Datenlöschen, -manipulieren, -fälschen: Jahrzehnte des Lügens – Climategate-Files

Daraus: Im August letzten Jahres machte der Daily Sceptic darauf aufmerksam, dass das britische Wetteramt Temperaturdaten an seiner fiktiven „offenen“ Wetterstation in Lowestoft erfunden hatte. Die Zahlen sollten angeblich von „gut korrelierten Nachbarstationen” zusammengestellt worden sein, aber Recherchen des Bürgerdetektivs Ray Sanders ergaben, dass es im Umkreis von 60 km keine solchen Stationen gab. Damals bezeichnete der Daily Sceptic die Angelegenheit als „rauchende Pistole” und erklärte, dass, sofern das Met Office nicht endlich seine Berechnungen offenlegen würde, „die einzige realistische Schlussfolgerung lautet, dass die Daten erfunden sind”. Es wurde keine Erklärung abgegeben, aber in einer überraschenden, unangekündigten Maßnahme hat das Met Office nun alle Daten aus Lowestoft aus seinen historischen Aufzeichnungen zurück bis zur Schließung des Standorts im Jahr 2010 entfernt. Ähnliche Datenentfernungen gab es auch bei den Stationen in Nairm Druim und Paisley.

und

„Das britische Wetteramt löscht große Teile historischer Temperaturdaten nach Vorwürfen der Fälschung

Daraus.

Ray Sanders, ein Citizen Journalist, hat herausgefunden, dass eine von der MET Office gerne verwendete und wegen ihrer Höchstwerte zitierte Messstation „Lowestoft“, gar nicht existiert, bereits 2010 geschlossen wurde. Angesprochen darauf, dass Daten einer Messstation berichtet werden, die es gar nicht gibt, hat man sich bei der MET Office darauf zurückgezogen, die Daten würden von nahegelegenen gut korrelierten Messstationen interpoliert. Interpolieren ist ein anderes Wort für das Erfinden von Daten. Sanders, mit dieser Angabe nicht zufrieden, hat weiter gegraben und herausgefunden, dass im Umkreis von 40 Meilen um die ehemalige Messstation „Lowestoft“ KEINE weitere Messstation zu finden ist, die nützliche Daten zum Înterpolieren bereitstellt, und dass die Messstation, die sich in geringster Entfernung zu Lowestoft befinden, nach den eigenen Kriterien der MET OFFICE Junk Daten liefert, auf die man sich nicht verlassen kann:

„… Cromer, a Class 4 junk site with possible unnatural errors up to 2°C at 35 miles distance, and Class 2 Weybourne, 41 miles away. Well-correlated except for the fact they are too far away to provide a monthly estimate for Lowestoft to one tenth of a degree centigrade

… Es ließe sich endlos fortsetzen. Damit wird einmal mehr die kluge Lebenserfahrung eines der größten Physikers des letzten Jahrhunderts perpetuiert »Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt, egal, wie elegant sie ist, egal wie plausibel sie klingt, egal wer sie unterstützt, wenn sie nicht durch Beobachtungen bewiesen wird, dann ist sie falsch.« Physik-Nobelpreisträger Richard Feynman.

Die Treibhaustheorie ist falsch. Freispruch für CO2

Wer also leider aktuell bleiben möchte sei auf unserer Webseite verwiesen, Sie finden sie hier

Wer sich den ganzen Bericht herunterladen möchte kann das hier tun Limburg Mein verhindertes Video 4

Teil 1 finden Sie hier

Teil 2 finden Sie hier

Teil 3 finden Sie hier

Und hier ein etwas älteres Buch von mir zum Thema, dass Teile des oben genannten, aber noch viel mehr aus anderen  Bereichen dazu erzählt.

 

 




Klimarettung Plan A: Nichtstun, im Zweifel anpassen Teil 3

Mein verhindertes Video-Gespräch mit Prof. Gerd Ganteför

Die Treibhaushypothese wird Stück für Stück mit Beweisen, Fakten und Logik widerlegt. Das mag nicht jedem gefallen, ist aber, bis zum Gegenbeweis, korrekt. Es wird nachgewiesen, dass dieses nur hypothetische Gebäude – bildlich gesprochen- ein Fundament hat, was auf Sand ruht, der seinerseits im Sumpf liegt.

Von Michael Limburg

Ganteföhr Movie 3

Videoausschnitt ca. 3 Minuten lang, aus dem Gespräch mit Herrn Model mit Prof. Gerd Ganteför, zum Thema Klimawandel und Treibhauseffekt. Von Herrn Model vorgestellt mit den Worten: „In dieser Folge im Modelhof begrüßen wir Prof. Dr. Gerd Ganteför – Physiker, Autor und einer der unbequemsten Stimmen in der Klimadebatte“. ALLE ZEITANGABEN IM FOLGENDEN BEZIEHEN SICH DAS HIESIGE VIDEO, FALLS DAS GELÖSCHT WERDEN SOLLTE IN KLAMMERN, AUF DAS ORIGINAL.

Zurück zu den Mittelwerten aus vorindustrieller Zeit.

Ganteför bezieht sich…

  1. auf Anomalien, also die Differenz zwischen einem als Normalwert bezeichnete Größe und dem aktuellen Wert, mit einer Summe von + 1,5 °C
  2. auf eine Zeit, die er als „vorindustriell“ bezeichnet. Und so steht es auch in der Pariser Klimaübereinkunft.

Zu 1. Diese Anomalie hat eine Unbekannte, nämlich die „Mitteltemperatur“ der Erde vor der Zeit von 1978. Die bekannte Größe ist der Normwert der globalen Mitteltemperatur von 1990 bis 1961. 1978 war das Jahr in dem erstmals Wettersatelliten aufstiegen. Ein Programm, bei dem auch S.Fred Singer maßgeblich beteiligt war, und das ihn zum großen Atmosphären-Physiker seiner Zeit machte. Ich bin sehr froh, ihn nicht nur gekannt zu haben, sondern auch dass wir lange Jahre, bis zu seinem Tod, befreundet waren. Über diese Temperatur will ich im Folgenden schreiben, zuvor aber noch etwas anderes…

Zu 2. Das Problem mit „vorindustriell“ ist, dass niemand weiß, wann das war? Auch Ganteför nicht. Keiner, auch die Delegierten der Pariser Klimaübereinkunft, ebenso wenig wie die Bundesregierung, oder alle „Klimawissenschaftler des IPCC, des Potsdam Instituts für Klimafolgenforschung, etc. etc. Niemand. Man behilft sich dann mit den wenigen Daten, die man zur Temperaturmessung hatte, und sagt dann, dass sei vor 1850 gewesen. Nur weltweite Messungen hatte man keine. Nur wenige lokale Messungen mit Fehlern alle Art. Wie Abbildung 9 eindrucksvoll belegt.

Ein Bild, das Karte, Text enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 9: Meteorlogische Temperaturstationen und deren weltweiter (nur Land) Verteilung von 1885 bis 1985. Es fällt auf, dass nur wenige in den USA, Europa, europ. Russland, und ein wenig in China lagen. Um 1885 ware es ingesamt ca. 500 Stationen, um das Jahr 1900 ca. 1000. Nichts jedoch in allen anderen Ländern außer den oben genannte, plus der Ozeane, die ca. 71 % der Weltoberfläche ausmachen.[1]

5. Das Nächste ist der Begriff der Anomalien.

Es gibt unter den „Klimaforschern“ die vermeintliche Tatsache, dass Anomalien genauer seien als Absolutwerte, weil sich deren Fehler ausgleichen. Doch das ist nur teilweise richtig, denn es bezieht sich nur auf die zufälligen, nicht auf die systematischen Fehler. Und es ist doppelt falsch für Zeitreihen. Weil letztere nur einen Normwert aus einer bestimmten Zeitspanne als eine der Zahlen beinhalten (bspw. der Normwert von 1961 bis 1990). Für die anderen Werte gilt die Bemerkung von Brohan et al überhaupt nicht. Und wenn in dieser Zeit des Normwertes ein systematischer Fehler, schleichend oder ad hoc, auftritt, dann auch nicht für diesen. Systematische Fehler, so man sie denn kennt, addieren sich nämlich, je nach Art – voneinander abhängig oder nicht- mit dem Absolutwert der Fehler oder mit der Wurzel der Summe der Quadrate der Fehler.

Brohan und Kennedy et al[2] haben jedoch dieses sehr eigene Fehlerverständnis mal in diese Worte gekleidet:

There will be a difference between the true mean monthly temperature (i.e., from 1 min averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly. So this does not contribute to the measurement error.

Zu Deutsch

Es wird eine Differenz zwischen der tatsächlichen monatlichen Durchschnittstemperatur (d. h. aus 1-Minuten-Durchschnitten) und dem von jeder Station aus selteneren Messungen berechneten Durchschnitt geben; diese Differenz ist jedoch auch im Stationsnormal vorhanden und hebt sich in der Anomalie auf. Sie trägt also nicht zum Messfehler bei.

Und weiter..

Only random errors have been regarded.

Nur zufällige Fehler wurden betrachtet.

Und da haben Sie recht, denn je mehr zufällige Fehler vorhanden sind – und sie sind deshalb zufällig, weil sie in der Gausschen Fehlerverteilung gleichmäßig um den genauen Wert verteilt sind, dann mit dem Bruch aus 1 geteilt durch Wurzel n. gegen Null gehen. Wobei n die Zahl der Fehler darstellt.

Und zu systematischen Fehler bekennen sie sich, wenn auch nur zu einem sehr kleine Teil davon

See 2.3.1. Station Errors and 2.3.1.1. Measurement Error (εob)„..  If a station changes the way mean monthly temperature is calculated it will produce an inhomogeneity in the station temperature series, and uncertainties due to such changes will form part of the homogenization adjustment error.

Deutsch:

Ändert eine Station die Berechnungsweise der durchschnittlichen Monatstemperatur, führt dies zu einer Inhomogenität in der Temperaturreihe der Station und die Unsicherheiten aufgrund solcher Änderungen sind Teil des Homogenisierungsanpassungsfehlers.“

Doch das ist wie schon erwähnt nur ein äußerst geringer Anteil der systematischen Fehler, und die Inhomogenitäten wurden weder anteilig noch komplett ausgeräumt.

Daher sagte Richard Muller, Projektleiter der BEST Temperaturstudie dazu

„…Using data from all these poor stations, the U.N.’s Intergovernmental Panel on Climate Change estimates an average global 0.64 °C temperature rise in the past 50 years, „most“ of which the IPCC says is due to humans. Yet the margin of error for the stations is at least three times larger than the estimated warming“ BEST Studienleiter Richard Muller 21.10.2011 Wallstreet Journal

Zu Deutsch

„…Anhand der Daten all dieser schlechten Stationen schätzt der Zwischenstaatliche Ausschuss für Klimaänderungen der UNO einen durchschnittlichen globalen Temperaturanstieg von 0,64 °C in den letzten 50 Jahren, von dem der IPCC sagt, dass er „zum größten Teil“ auf den Menschen zurückzuführen sei. Die Fehlerspanne der Stationen ist jedoch mindestens dreimal größer als die geschätzte Erwärmung.“ BEST Studienleiter Richard Muller 21.10.2011 Wallstreet Journal

Und noch eines ist sehr wichtig. Nämlich die Tatsache, dass die Anomalien nur einen kleinen Teil der Gesamtmessung darstellen. Ca. 50 bis 100 fach kleiner. Doch die Fehler werden auf die Gesamtmessung bezogen, das bedeutet, dass sie auf die Anomalien ein um den Faktor 50 bis 100 größeres Gewicht haben. Und das bedeutet, dass Anomalien für diesen Zeck unbrauchbar sind.

Und daher ist es immer wieder wichtig sich auf die Veröffentlichungen von Pat Frank zu beziehen, bspw. „Uncertainty in the Global Average Surface Air Temperature Index: A Representative Lower Limit“, oder SYSTEMATIC ERROR IN CLIMATE MEASUREMENTS: THE SURFACE AIR TEMPERATURE RECORD. Er hat dort einen geringen Teil der systematischen Fehler gefunden und analysiert. Aber diese wurden nicht von diesen Leuten betrachtet, obwohl sie die Zeitreihe der Anomalien der Welt-Durchschnittstemperatur wie ein sehr großes, zu großes Unsicherheitssband umschließen.

Ein Bild, das Text, Reihe, Software, Diagramm enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 10 Global mean temperatures[3] als Anomalienbetrachtung jedoch mit sehr vorsichtig geschätzten Unsicherheitsband,

Und wenn das so ist, wie dargestellt, dann möchte das Wunderkind sehen, dass aus dieser Melange irgendeine Korrelation oder noch mehr Ursache – Wirkungsbeziehung herleiten kann, etwa wie das CO2 die vermeintliche Temperatur beeinflusste.

Aus eben dieser Arbeit (Limburg 2010) stammt dann auch die Bemerkung (S 147):

„Es ist in jedem Fall zu beachten, dass die Verteilung dieser und der anderen betrachteten systematischen und groben Fehler nicht einer Normalverteilung entspricht. Damit entziehen sich diese Fehler den statistischen Methoden, die auf Normalverteilung -oder guten Näherungen dazu- basieren. Diese Fehler müssten daher einzeln abgeschätzt und ggf. angegeben oder, besser, wenn möglich korrigiert werden.“

Diese eindeutige und klare Anmerkung wird gestützt durch die viel späteren Aussagen des Mathematikers und Physiker Heinz-Otto Peitgen, ebenso Mitglied des 4PI Solutions Vereins wie Ganteför, der Klima als nicht-ergodisch bezeichnet. Er meinte (ab Minute 1:08.54):

Der Hammer ist: in nicht-ergodischen Systemen ist Mittelwert und Standardabweichung und Varianz keine sinnvolle Technik. … Also, wenn diese beiden Dinge, wenn diese beiden Standpunkte Bestand hätten und ich glaube, sie haben Bestand, dann ist das das Todesurteil für belastbare Ensemble Rechnungen über die zukünftige Entwicklung des Klimas. .

Und das sieht dann so aus.

Abbildung 11 Darstellung der Mittelwerte von 102 Modellen, mit den Ergebnissen aus Ballons-, Satelliten- und Thermometerdaten.

Man kann es auch so sagen wie es der „Fürst der Mathermatiker“ Carl Friedrich Gauss feststellte

„Das Kennzeichen eines schlechten Mathematikers ist, dass er zu genau rechnet.“

6. Prognosen

ab Minute 3:14 (YT 18:40 ff) sagte Ganteför

„Ja, und jetzt wird es nach diesen Prognosen von den Klimamodellen vielleicht 2° wärmer und ich halte es für sehr wahrscheinlich, dass es sogar 2,5° wärmer wird.“

Auch das ist falsch. Es ist bestenfalls eine Hypothese, die es zu beweisen gilt. Und zunächst mal spricht Ganteför von Prognosen, obwohl Klimaforscher sich davor hüten von Prognosen zu sprechen, weil es das nicht gibt. Sie sprechen stattdessen von Szenarien.

Was ist damit gemeint?

Die treffendste Erklärung nannte der Klimatologe Hans-Christian Schönwiese[4] die (notwendige) Vorgehensweise der Modellierer und gleichzeitig deren Schwächen beschrieben:

wir machen keine Vorhersagen, sondern bedingte, Szenarien gestützte Projektionen… Und Projektion heißt ..wenn – dann Aussage. Wenn ich in das Modell hinein stecke der Mensch macht das und das und die Natur macht quasi nichts, sie wird also weitgehend vergessen, bei diesem Blick in die Zukunft, dann wird die Temperatur so und so ansteigen“

„… das trifft praktisch auf die Gesamtheit der natürlichen Klimaprozesse zu „(Lehrbuch Christian-Dietrich Schönwiese Klimatologie 4. Auflage Seite 362)“

Diese Aussage trifft für alle Klimamodelle uneingeschränkt zu. Auch deshalb, weil in allen Modellen, der direkte wie indirekte Einfluss der Sonne (z.B. über die Modulation der kosmischen Höhenstrahlung und damit der Wolkenbildung, wie auch das Triggern der AMO wie der PDO (Pazifisch Dekadische Oszillation)) so gut wie völlig außen vorgelassen wird. Und das ist bei weitem noch nicht alles. Alle Modelle rechnen mit sehr, sehr vielen gekoppelten Differentialgleichungen. Da Computer das nicht können, werden sie zu Differenzengleichungen umgeformt. Doch auch diese Gleichungen sind so aufgebaut, dass das Ergebnis eher früher als später zu sehr exotischen Temperaturen auflaufen würden.

  1. Peterson et al 1997: An Overview of the Global Historical Climatology Network Temperature Database
  2. Quelle: Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850 P. BrohanJ. J. KennedyI. HarrisS. F. B. TettP. D. Jones
  3. Aus eigener Arbeit Dissertation M. Limburg – nicht eingereicht bei UNI Leipzig vom März 2010. Näheres dazu hier https://eike-klima-energie.eu/2016/04/03/treibhaeuser-des-klima-alarmismus-mit-welchen-tricks-deutsche-universitaeten-abweichende-meinungen-niederhalten/
  4. In HR Statdtgespräche 2.2.2010

Wer sich den ganzen Bericht herunterladen möchte kann das hier tun Limburg Mein verhindertes Video 4

Das Video Teil 1 finden Sie hier

Das Video Teil 2 finden Sie hier

Das Video Teil 3 finden Sie hier

Das Video Teil 4 finden Sie hier

 




Klimarettung Plan A: Nichtstun, im Zweifel anpassen Teil 2

Mein verhindertes Video-Gespräch mit Prof. Gerd Ganteför

Die Treibhaushypothese wird Stück für Stück mit Beweisen, Fakten und Logik widerlegt. Das mag nicht jedem gefallen, ist aber, bis zum Gegenbeweis, korrekt. Es wird nachgewiesen, dass dieses nur hypothetische Gebäude – bildlich gesprochen- ein Fundament hat, was auf Sand ruht, der seinerseits im Sumpf liegt.

Von Michael Limburg

Ganteföhr Movie 3

Videoausschnitt ca. 3 Minuten lang, aus dem Gespräch mit Herrn Model mit Prof. Gerd Ganteför, zum Thema Klimawandel und Treibhauseffekt. Von Herrn Model vorgestellt mit den Worten: „In dieser Folge im Modelhof begrüßen wir Prof. Dr. Gerd Ganteför – Physiker, Autor und einer der unbequemsten Stimmen in der Klimadebatte“. ALLE ZEITANGABEN IM FOLGENDEN BEZIEHEN SICH DAS HIESIGE VIDEO, FALLS DAS GELÖSCHT WERDEN SOLLTE IN KLAMMERN, AUF DAS ORIGINAL.

Abbildung 4 zeigt ganz grob welche „Regelkreise“ besser Prozesse das sind und wie sie aufeinander einwirken. Es sind 18 an der Zahl, alle sind mit dem Wasserdampf verbunden, und nur einer, die „atmospheric condition“ enthält unter …ferner liefen— auch das CO2.

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 4: Die grob betrachtet ca, 18 Prozesse, die untereinander auf die vielfältigste Weise miteinander verkoppelt, und bei all diesen ist Wasserdampf beteiligt. Nur an einer Stelle ist das CO2 beteiligt, nämlich der „atmospheric composition“ und dort mit aktuell rd 420 ppm. Oder 0,042 %. Die Grafik stammt von Willi Soon ehemals Astrophysiker bei Harvard und heute Leiter der CERES. Soon hat über 100 Publikationen bei Google Scholar gelistet, mit Fachkenntnissen in Klimavariabilität, Atmosphärenphysik und solar-terrestrischen Beziehungen

Und wie der Paleo-Geologe Jan Veizer einmal feststellte, dass Wasser das CO2 transportiere, was im Umkehrschluss bedeuten würde, kein Wasser, kaum CO2. Grok zu Veizer befragt, meint in diesem Zusammenhang:

Das 1000:1-Verhältnis: Dies bezieht sich auf die Water Use Efficiency (WUE) – das Verhältnis von transpiriertem Wasser zu fixiertem CO₂. Es liegt bei „many hundreds to one“ (ca. 100–1000:1, abhängig von Pflanzentyp: C3-Pflanzen ~500:1, C4 ~100:1). Nur 1 Wassermolekül reagiert direkt mit CO₂ (in der Photosynthese: CO₂ + H₂O → CH₂O + O₂), der Rest dient als „Förderband“ für Nährstoffe. Empirische Daten aus 15 großen Einzugsgebieten (Nord- und Südamerika, Afrika, Australien, Neuguinea) bestätigen: Der transpirierte Wasserdurchsatz ist ~1000-mal größer als der sequestrierte Kohlenstoff. Dies unterstreicht, dass der Carbon Cycle solar via Water Cycle gekoppelt ist – ein „piggybacking“-Effekt.

Von daher ist der in der Abbildung 4 Ausspruch von Herrn Rahmstorf kaum zu überbieten.

Der Anstieg des CO2 in der Atmosphäre von 280 auf jetzt 420 ppm

Ab Minute 2:43 (YT 18:09) ff sagte dann Ganteför:

„Und so ist es auch mit dem CO2. ein bisschen CO2 oder auch ein bisschen mehr CO2 verstärkt die Erwärmung über bestimmte Rückkopplungsprozesse und wir sind jetzt bei 420 Parts per Millionen. Also noch mal der natürliche Gehalt der Atmosphäre in vorindustrieller Zeit ist 280 Part per Million und jetzt haben wir 420 also ungefähr um 50% mehr geworden und das sind die Emissionen der Vergangenheit bis heute aus der Verbrennung von Kohle, Erdgas und Erdöl und dadurch wird es wärmer. Ja, und es geht noch weiter hoch, also die Kurve vom CO2 geht steil nach oben.“

Vermutlich meint er in diesem Moment den Anstieg der CO2 Konzentration, denn nur diese können etwas, über die Rückstrahlung, zur Temperatur der Atmosphäre beitragen. Doch auch diese vermeintlich wissenschaftliche Aussage ist nicht weiter als eine Hypothese, nicht bewiesen, denn keiner weiß so richtig wie – und besonders in „vorindustrieller Zeit“- der CO2 Konzentration wirklich gewesen ist.

Was wir aber wissen ist, dass es eine Vielzahl von Messungen genau dieses CO2 gegeben hat, die alle, durch die Bank alle, eine höhere CO2 Konzentration belegen. Angefangen um 1812 wurde die CO2 Konzentration schon vielfach gemessen. Und zwar mit vergleichbarer Genauigkeit, also um die ± 3 % des Messwertes. Der EIKE Mitgründer Ernst Georg Beck hatte sich dazu unsterbliche Meriten erworben, in der diese zusammenfasste und auswertete. Sein Bericht „80 YEARS OF ATMOSPHERIC CO2 GAS ANALYSIS BY CHEMICAL METHODS“ zeigt über 90.000 Messungen, die er zusammengetragen hat. In seinem Abstrakt schreibt er u.a:

„Since 1812, the CO2 concentration in northern hemispheric air has fluctuated exhibiting three high level maxima around 1825, 1857 and 1942 the latter showing more than 400 ppm.“ Auf Deutsch: „Seit 1812 schwankt die CO2-Konzentration in der Luft der nördlichen Hemisphäre und weist drei Höchstwerte auf, nämlich um 1825, 1857 und 1942, wobei der CO2-Gehalt im letzten Jahr über 400 ppm lag.“

Etwas später machte er dann zwar einen Teilrückzieher, als er mit Francis Maaßen 2009 „Accurate estimation of CO2 background level from near ground measurements at non-mixed environments“ veröffentlichte. Doch ganz am Schluss schrieben die Autoren:

„The overall impression is one of continental European historic regional CO 2 background levels significantly higher than the commonly assumed global ice-core proxy levels.“

Zu Deutsch: Der Gesamteindruck besteht darin, dass die historischen regionalen CO 2 -Hintergrundwerte in Kontinentaleuropa deutlich höher sind als die allgemein angenommenen globalen Proxy-Werte aus Eiskernen.

Und das ist der Punkt. Eisbohrkerne gelten inzwischen als Goldstandard für die Ermittlung der CO2 Konzentration. Dabei sind sie schlechter als viele anderen Methoden, besonders die direkte Messung.

Warum, werden Sie fragen?

Viele der Eisbohrkernbohrungen werden in der Antarktis vorgenommen. Nur dort findet man Eisschichtungen, die viele 1000 m hoch sind. Dabei muss man sich daran erinnern, dass die Antarktis die trockenste Wüste der Welt ist. Niederschläge, die später zu Firneis und dann zu Eis gefrieren, gibt es nur wenige im Jahr. Und auch die Bestimmung der Jahre der jeweiligen Scheiben im Kern ist ausgesprochen schwierig und mit Riesenfehlern behaftet.

Man muss sich das mal vorstellen: Da kommt ein geringer Niederschlag auf das Oberflächeneis, fast immer als Schnee. Dann Tage, Monate später, wird der – tauen kann er ja nicht – von einer weiteren Schneedecke bedeckt. Irgendwann ist der Schnee so dicht überdeckt, dass er zu Firn wird. Und weitere Monate, Jahre, Jahrzehnte später, Grok schreibt, dass es in der Antarktis länger als 2000 Jahre dauern[1], wird der Firn zu Eis.

Ein Bild, das Text, Screenshot, Electric Blue (Farbe), Kobaltblau enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 5: Artefaktbildung bei der Eisbohrkernanlyse, nach Jaworowsky. Nach ca. 1 km Tiefe gibt es keine Gasblasen mehr, sondern nur noch Clathrathe. Aus díesen muss der äußerst geringen CO2 Gehalt herausgefiltert werden, der bis zu > als 2000 Jahre nach dem eigentlich bestimmenden Jahresringen eingeschlossen wurde.

Wer mehr dazu wissen will, wird bei Marcus Fiedler schlauer dessen Videos ich hier sehr empfehlen kann. Und trotzdem haben es manche Klimaforscher geschafft, dass diese Methode zum Goldstandard erklärt, obwohl Jaworowski und Segalstad schon 1992[2] schrieben:

„Numerous studies indicate that, due to various chemical and physical processes, the CO content in ice can be largely enriched or depleted in comparison with the original atmospheric level. In the air inclusions from pre-industrial ice the CO concentrations were found to range between 135 and 500 ppmv…  Thus, the results of CO determinations in air inclusions in ice cannot be accepted as representing the original atmospheric composition“

In Deutsch

„Zahlreiche Studien deuten darauf hin, dass der CO-Gehalt im Eis aufgrund verschiedener chemischer und physikalischer Prozesse im Vergleich zum ursprünglichen atmosphärischen Wert stark ansteigen oder abnehmen kann. In den Lufteinschlüssen aus vorindustriellem Eis wurden CO-Konzentrationen zwischen 135 und 500 ppmv gemessen. Daher können die Ergebnisse der CO-Bestimmungen in den Lufteinschlüssen des Eises nicht als repräsentativ für die ursprüngliche atmosphärische Zusammensetzung angesehen werden.“

Und wenn man dies alles weiß, oder wissen müsste, dann kann auch diese Grafik zur CO2 Gehalt der Atmosphäre der Erde einen nur noch darin bestärken, dass immer und immer wieder getrickst, besser – betrogen wurde, und noch immer wird.

Ein Bild, das Text, Screenshot, Reihe, Diagramm enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 6. Das Bild zeigt die CO2 Daten aus den Eisborkernen (Originaltext: Ice core data adjusted for global mean), die nahtlos mit den Mauna Loa Daten anschließen. Der Law Dome in der Antarktis ist 1395 Meter hoch und 12.066 km vom Mauna Loa Observatorium ca. 3000 m hoch entfernt. Letztere ist auf einem aktiven Vulkan gelegen. Wer wirklich glaubt, dass beide Zeitreihen nahtlos ineinander übergehen[3] der hat sich niemals mit echter Messtechnik beschäftigt. Es gibt sie nicht, egal welche Koryphäen man dazu bemüht.

Was es stattdessen gibt, sind die knapp 100.000 Messwerte die Beck ausgewertet hat und die eine völlig andere Geschichte des CO2 Konzentration zeigen[4].

Ein Bild, das Text, Screenshot, Diagramm, Reihe enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 7: Durchschnittwerte der CO2 Konzentration von 1920 bis 1968 nach Beck 2008[1]. mit Kennzeichnung der jeweiligen Datenherkünfte. Keeling, Callendar und das IPCC haben diese Werte willkürlich (Siehe Fußnote 1) verworfen. Sie sind aber, anders als die mit Riesenfehlern behafteten Eisbohrkerndaten, da!

Im Übrigen haben Callendar und Keeling aus der Fülle der Beobachtungen des CO2 in der Atmosphäre nur die ausgewählt, die in ihre Agenda passten.

[1] Quelle: https://21sci-tech.com/Subscriptions/Spring%202008%20ONLINE/CO2_chemical.pdf

Ein Bild, das Text, Diagramm enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 8: Durchschnittwerte der CO2 Konzentration nach Callendar und Keeling. Zusammen mit den Werten, die sie verworfen haben. Sie haben sie verworfen, weil sie nicht in ihre Hypothese passten[1].

All die anderen wurden unter den Tisch gekehrt[2]. Gründe dafür sind in Fußnote 1 benannt. Eigentlich unfassbar. Es wird dieselbe Melodie gespielt, die wir bei den historischen Temperaturdaten (siehe Seite 25, die plötzlich zu „Rohdaten“ werden, bei der Mann´schen Hockeschläger Kurve mit „Mike´s natur trick“ und den Climate-Gate eMails von 2008 gefunden haben. Phil Jones leitender Klimatologe der CRU in der University of East Anglia schriebt dort den Satz:„Kevin and I will keep them out somehow – even if we have to redefine what the peer-review literature is!“) 8. Juli 2004 in einer E-Mail im Rahmen der sogenannten Climategate-Leaks.

4. Prognosen und Szenarien

In Minute 3:20 (YT 18:45) wird über aktuelle Anomalien und Prognosen geredet:

„Ja, und jetzt wird es nach diesen Prognosen von den Klimamodellen vielleicht 2° wärmer und ich halte es für sehr wahrscheinlich, dass es sogar 2,5° wärmer wird. Wir haben jetzt im Augenblick eine Erwärmung gegenüber vorindustrieller Zeit von 1,5° realisiert“

Dies ist zwar Stand der „Klimawissenschaft“, doch ebenso gut könnte man von einer Religion reden. Und das aus vielen Gründen.

Zunächst ist es die Fehlerbetrachtung. Um Patrick Frank, aber auch meine nicht angenommene Dissertation zu zitieren:

…sie haben vollkommen die systematischen Messfehler ignoriert, welche die Temperaturaufzeichnung durchziehen und diese ungeeignet macht, um irgendetwas über das historische Klima daraus abzulesen, siehe hierhier und hier.

Ferner sagt Ganteför, dass wir derzeit rd. 1,5 ° C über der vorindustriellen Zeit liegen.

Bevor ich auf diese Aussage eingehe, gestatte man mir noch eine wichtige Anmerkung:

Jeder, der sich an seine Schulzeit an Physik erinnert, wird sich vielleicht auch daran erinnern, dass Temperatur, anders als Massen, eine sog. intensive Größe ist. Sie ist immer und zu jeder Zeit auf die Materie beschränkt, in der sie gemessen wird. Und genau deswegen lässt sie sich auch nicht (arithmetisch) mitteln. Denn das würde bedeuten, dass die Temperatur im Ort a einen Einfluss hat auf die Temperatur b hat, weil beide zur Mittelung herangezogen wurden. Also die Temperatur eines Ortes am Äquator mit der Temperatur eines Ortes in der Arktis, oder sonstwo. Sie hätte dann „eine spukhafte Fernwirkung“ wie Einstein in Bezug auf die Quanten, so etwas nannte. Das gibt es aber nicht außerhalb der Quantenwelt. Und damit auch nicht für die Temperatur. Mir scheint dabei sehr zweifelhaft, wie ernsthafte Physiker wie es Ganteför und auch Peitgen sicher sind, sich mit diesem abwegigen Thema einer Mitteltemperatur überhaupt beschäftigen, oder diese gar für bare Münze nehmen können.

Berechnen kann man vieles, auch die mittlere Telefonnummer von Berlin. Die hätte dann zumindest Vorzug, dass sich unter dieser Telefonnummer vielleicht sogar jemand meldet. Was bei der Mitteltemperatur der Atmosphäre der Erde noch dazu in 2 m Höhe über Grund, bei 71 % Ozeanen, nicht so ist.

[1] Markus Fiedler machte mich nach Schreiben des Beitrags darauf aufmerksam:

Beck schreibt mehrfach in „180 Years of Atmospheric CO2 Measurement By Chemical Methods“ dazu.. „Callendar set out the actual criteria that he used to judge whether older deter- minations were “allowable” in his 1958 paper [20]. There, Callendar presented only data that fell within 10 percent of a longer yearly average estimate for the region. He rejected all measurements, however accurate, that were “measurements intended for special purposes, such as biological, soil, air, atmospheric pollution.” Callendar also rejected nearly all data before 1870, because of what he erroneously described as “relatively crude instrumentation.” He reported only 12 suitable data sets for the 20th Century as known to him [20], out of 99 made available by Stepanova in 1952 [18].

[2]https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.2153-3490.1956.tb01208.x Carbon Dioxide Variations in the Atmosphere  Volume8, Issue2 May 1956

  1. Grok zu Schnee, Firn Eis: Der gesamte Weg vom Neuschnee zum Gletschereis kann 200–2000 Jahre dauern, abhängig von Klima, Niederschlagsmenge und Lage. Extreme Bedingungen (z. B. in der Antarktis) verlängern den Prozess
  2. ATMOSPHERIC CO2 AND GLOBAL WA R M I N G : A C R I T I C A L REVIEW SECOND REVISED EDITON MEDDELELSER NR. 119 SA POLARINST OSLO 1992
  3. https://data.giss.nasa.gov/modelforce/ghgases/Fig1A.ext.txt Dort wird erwähnt: 1850-1957: D.M. Etheridge, L.P. Steele, R.L. Langenfelds, R.J. Francey,J.-M. Barnola and V.I. Morgan, 1996, J. Geophys. Res., 101, 4115-4128,“Natural and anthroupogenic changes in atmospheric CO2 over the last1000 years from air in Antarctic ice and firn“.1958-1974: Means of Scripps Institution of Oceanography Continuous Dataat Mauna Loa and South Pole provided by KenMaarie (personal communication)Es gibt noch eine Pendant zu dieser Grafik, mit dem Law Dome als Geber der Eiskerndaten, der sogar knapp 20 Jahre (von 1958- 1978) hochpräzise Übereinstimmung mit den Mauna Loa Daten zeigt. Die sind ebenso getürkt.
  4. Quellen: https://eike-klima-energie.eu/2025/03/08/studie-stellt-annahmen-bzgl-des-co₂-gehaltes-in-der-vorindustriellen-zeit-von-280-ppm-in-frage/https://scienceofclimatechange.org/wp-content/uploads/SCC-Ato-2025.pdfhttps://21sci-tech.com/Subscriptions/Spring%202008%20ONLINE/CO2_chemical.pdf
  5. Quelle: https://21sci-tech.com/Subscriptions/Spring%202008%20ONLINE/CO2_chemical.pdf
  6. https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.2153-3490.1956.tb01208.x Carbon Dioxide Variations in the Atmosphere Volume8, Issue2 May 1956

Wer sich den ganzen Bericht herunterladen möchte kann das hier tun Limburg Mein verhindertes Video 4

Teil 1 finden Sie hier

Teil 3 finden Sie hier

Teil 4 finden Sie hier

Und hier ein etwas älteres Buch von mir zum Thema, dass Teile des oben genannten, aber noch viel mehr aus anderen  Bereichen dazu erzählt.

Hier bestellen