Deutsche Denunziationen und Vorurteile – der „Volksverpetzer“-Blog und Matthias Quent arbeiten sich an EIKE ab

von Vera Lengsfeld

Der unsägliche Blog „Volksverpetzer“ hat in einem Gastbeitrag des freien Journalisten Erik Klügling versucht einen Schlag gegen EIKE zu landen, den Pionieren der kritischen Begleitung der aktuell immer verrückter werdenden Klima- und Energiepolitik in Deutschland. Zentraler Baustein ist ein ausführliches Interview von Erik Klügling mit Prof. Dr. Matthias Quent – Matthias Quent ist den Leserinnen und Lesern dieses Blogs waghrscheinlich ein Begriff, da ich mit ihm ständig Auseinandersetzungen habe, seit ich sein Buch „Deutschland rechts außen“ rezensiert und auf zahllose Fehler hingewiesen habe.

Ich möchte diese Analyse deshalb auf vor allem auf das Interview und seine beiden unsäglichen Kernspins beschränken.

Exzessive Nutzung der Kampf- und Agitationsvokabel „Leugnung“

Prof. Dr. Matthias Quent, Direktor des Instituts für Demokratie und Zivilgesellschaft in Jena wird bei seinem beruflichen Werdegang (u.a. Studium der Soziologie, Politikwissenschaft und Neuere Geschichte) es sicherlich nicht zurückweisen, wenn man ihm ausgewiesene Expertise im Bereich politische Kommunikation und Framing bescheinigen würde. Fundierteren Hintergrund in klima- und energiewissenschaftlich-technischen Fragen hat er nicht, reklamiert er aber auch nicht. Umso verwunderlicher ist für  mich seine aggressive Nutzung des völlig unwissenschaftlichen „Leugnungs“-Frames bei seinen Auslassungen zu EIKE. Laut Matthias Quent (0:31) existiert gar eine „“Klimawandelleugner-Szene“ für die EIKE Argumente liefert.

Ist Prof. Quent sich nicht bewusst, was er hier tut? Schwer vorzustellen. Ist Prof. Quent nicht klar, dass „Leugnung“ ein kryptoreligiöser, denunziatorischer Begriff ist, der in Wissenschaft, insbesondere aber in Naturwissenschaft absolut nichts verloren hat?

Ein Wissenschaftler, insbesondere ein Naturwissenschaftler, aber erst recht kein Ingenieur kann wissenschaftliche oder technische Fakten „leugnen“ und sollte dies auch niemals tun, denn wenn er oder sie dies täte und dies nachgewiesen werden würde (und der Witz an Wissenschaft ist ja gerade die Überprüfung von Aussagen, Modellen und Schlussfolgerungen), dann wäre seine beruflich Reputation erledigt. „Leugnung“ ist eine Anklage aus dem Arsenal der spanischen Inquisition und der Nachweis der Leugnung bringt den Ketzer auf den Scheiterhaufen. Oder um einen im Physik Journal, der Mitgliederzeitschrift der Deutschen Physikalischen Gesellschaft, veröffentlichten Leserbrief zu zitieren: „Klimaleugnung“ ist eine „ideologische Kampf- und Agitationsvokabel“ die nicht zur Beschreibung des Wirkens anderer Wissenschaftler verwendet werden darf.

Ein „Leugnung“ von echten wissenschaftlichen Fakten ist nicht möglich – dies sollte auch Politologen Quent klar sein.

„Die Erde bewegt sich um die Sonne“, „der Kontinentaldrift hat existiert und die Gestalt der momentanen Erdoberfläche massiv gestaltet“, „Kernspaltung und radioaktive Strahlung folgen den Gesetzen der Kernphysik“, „Strom kann man nicht im Netz speichern“, „die Leistung jeder Windkraftanlage geht mit dritten Potenz der Windgeschwindigkeit und ist bei Flaute null“, „Kernkraftwerke haben einen deutlich höheren Erntefaktor und einen ganz deutlich geringeren Grundflächenbedarf als allen anderen momentanen verfügbaren Energieanlagen, insbesondere aber im Vergleich zu Solar und Wind“ oder auch „Klima hat sich im Laufe der Erdgeschichte deutlich gewandelt, Triebkräfte dieser Veränderungen manifestiert in z.B. Temperatur oder CO2-Konzentrationsänderungen müssen mangels Vorhandensein von anthropogenen (menschlichen) Einflüssen als „natürliche“ Triebkräfte angesehen werden“ usw. usw.

All dies sind naturwissenschaftlich-technische Fakten, die niemand mit heutiger Wissens- und Publikationslage leugnet oder leugnen kann, weder EIKE noch Quent. Trotzdem waren diese Aussagen zu manchem Punkten (hier appelliere ich an den auch historisch ausgebildeten Quent) politisch „umstritten“ oder wurden zumindest im politischen Diskurs versehentlich oder absichtlich falsch oder verzerrt dargestellt. Übrigens im Falle des Kontinentaldrifts von Seiten der etablierten Wissenschaft mit großer Vehemenz gegen dem vermeintlich nicht kompetenten Querkopf Alfred Wegner (mit bekanntem Ausgang für die damals dominierende Geologen-Welt-Elite).

All dies kann Quent wissen – trotzdem nutzt er die unsägliche „Leugnungs“-Vokabel gegen EIKE und damit indirekt gegen z.B. Prof. Dr. Joachim Lüdecke, Physiker und Strömungsmechaniker, der unter dem Label EIKE das Buch „Kernenergie: Der Weg in die Zukunft“ zusammen mit Götz Ruprecht veröffentlicht hat und dessen Buch „Energie und Klima. Chancen, Risiken, Mythen.“ zu einem der vielen wichtigen Werke gehört, die die komplexe Energie- und Klimawissenschaft und die sich daraus ergebenden Handlungsoptionen oder – notwendigkeiten (aber eben auch die Fallstricke und Fehlkonzepte) jenseits des IPCC-Apparats und seiner Berichte intensiv beleuchten. Weshalb Prof. Lüdecke gern als kritischer Experte in z.B. Anhörungen von Fachausschüssen von Landtagen geladen wurde. Wenn Quent sich mit klimawissenschaftlicher Fachliteratur beschäftigen würde, dann könnte er bestätigen, dass es sich auch um die auf den EIKE-Seiten aufgelisteten Publikationsreferenzen nicht etwa um „Fakes“ der „Klimawandel-Lügen Lobby“ (Zitate aus Überschrift des „Volksverpetzer“-Stücks) handelt, sondern um Fakten, die niemand „leugnen“ kann (u.a. dafür gibt es den Apparat der Fachliteraturveröffentlichungen, dass kein politischer oder wissenschaftlicher Apparatschik behaupten kann, es hätte ja niemand widersprechende Erkenntnisse gehabt). Nur zur Klarstellung, da man hier gern missverstanden wird: Ich meine den Fakt, dass die Veröffentlichungen in den Fachzeitschriften existieren und nicht etwa den Inhalt dieser oder anderer der tausenden Fachpublikationen zum Thema. Deshalb ist auch davon auszugehen, dass die Nutzung des „Leugnungs“- Frames durch Quent nicht etwa eine Ungenauigkeit, sondern klare Absicht war – verstärkt wird dieser Eindruck durch die weitere aggressive Negativvokabeln: „vermeintliche Sachverständige“ (2:49), eingeladen um „sozusagen eine Desinformationspolitik im Interesse der äußersten Rechten zu tun“ (2:56) oder auch schlicht die Bezeichnung als „Pseudo-Institut“ (1:28) (die Quellen unten enthalten den Link zum vollständigen Interview).

Halten wir also fest: Ein zentrales Charakteristikum der Quentschen Attacke auf EIKE ist die Nutzung des unsäglichen und unwissenschaftlichen „Leugnungs“-Frames.

Sind das etwa Geschlechts- und Altersvorurteile?

Aber es kommt noch dicker: Quents Karriere ist ja eng verbunden mit der Amadeo Antonio Stiftung, welche die Trägerschaft über das Institut hält, das Quent als Direktor leitet. Die Amadeo Antonio Stiftung verfolgt gemäß Eigenbeschreibung das Ziel der Stärkung einer demokratischen Zivilgesellschaft, die sich konsequent gegen Rechtsextremismus, Rassismus und Antisemitismus wendet.

Fällt es nur mir auf, dass Quent in seinem Beitrag für den „Volksverpetzer“ über EIKE mehrfach betont, dass EIKE von älteren Männern geprägt wird? Zitat Quent (ab 2:24) „da werden Sprecher:innen von EIKE, vor allem Sprecher, vor allem ältere Sprecher als Referenten bei Anhörungen etwa in Ausschüssen in den Parlamenten gehört“ und noch mal kommt der Punkt ab 7:09 (hier geht es um z.B. Einladungen zu Talkshows) „man kann sagen, aber unsere Expertinnen und Experten, wobei sie nicht viele Expertinnen haben, vor allem sind es ältere Männer aus dem EIKE-Netzwerk, die bekommen ja gar keine Öffentlichkeit“ – der Einschub in der Wiedergabe war im Gegensatz zum Rest des Satzes keine Quentsche Parapharsierung der Strategie der von ihm analysierten Netzwerke, sondern eine Klarstellung von Quent zu eben jener Paraphrasierung.

Warum betone ich diese Punkt so? Ganz einfach: Das Themenfeld von EIKE ist Klima und Energie – und ähnlich wie es keine Leugnung wissenschafltich-technischer Fakten gibt, existiert auch kein Genderblick auf technische Fakten oder naturwissenschaftliche Gesetze. Die Auswahl von Fachleuten für eine Anhörung und insbesondere die Bewertung der dort vorgetragenen Einschätzungen sollte deshalb die Genderfrage vollkommen zurückstellen – wer dies nicht tut handelt nicht nur unprofessionell, sondern bewegt sich in Mustern, die von der Amadeo Antonie Stiftung zu Recht bekämpft und angeprangert werden.

Die Neutralität gegenüber Geschlecht (oder auch Herkunft, soziale Stellung) gilt in der Wissenschaft doppelt. Vielleicht hat  Quent ja mal vom Standardverfahren der wissenschaftlichen Begutachtung von u.a. Publikationsentwürfen gehört, den double-blind peer review? Die Doppelverblindung soll sicherstellen, dass eine fachliche Analyse eben nicht durch z.B. rassistische oder sexistische Vorurteile oder auch nur Arroganzen getrübt wird. In Arbeit und der Auseinandersetzung geht es in Naturwissenschaft und Technik ausschließlich um die Stärke der Argumente, der Daten und Modelle. Und eben nicht darum, wer hat etwas gesagt?, oder aus welcher Motivlage?, oder von wem eingeladen?, oder von wem stammten die Gelder für die Forschung?, also genau die Punkte, die Quent in seiner Analyse so wichtig zu sein scheinen.

Aber Quent bringt ja nicht nur das Geschlecht von Fachleuten ins Spiel (hat Prof. Quent eine Vorstellung, wie es um den Frauenanteil im z.B. deutschen Physikstudium bestellt war und oft leider immer noch ist?), sondern der immer noch junge Professor (m) bringt auch das Alter ins Spiel – aber gerade in Naturwissenschaften und Technik ist doch Alter in der Regel synonym mit Berufserfahrung! Legt Matthias Quent einem Physiker, wie Prof. Lüdecke oder einem Ingenieur, wie Michael Limburg tatsächlich ihre jahrzehntelange Berufserfahrung negativ aus?

Oder ist es doch so, dass Prof. Dr. Matthias Quent mit dem Frame „älteren Männer“ bewusst auf billigste und im Umfeld eines Amadeu-Antonio-Stiftung-geschulten Politologen auch unzulässige Weise Vorurteile bedient und schürt?

Noch mal zum Mitschreiben, Herr Professor: Naturwissenschaftlich-technische Erkenntnis ist indifferent zu Geschlecht, Alter, Ethnizität, Herkunft oder politische Überzeugungen desjenigen, der sie erbringt. Und noch weniger geht es in der Wissenschaft um Glaubensstärke, Bekenntnisse oder gar Gott behüte die inquisitorische Demaskierung von angeblicher Leugnung oder vermeintlichem Zweifeln.

Die Kombination seiner klerikalen „Leugnungs“-Weltsicht, und sei sie auch nur primär kommunikationstaktisch eingesetzt und der für mich deutlich durchschimmernden alters- und geschlechtsdiskriminierenden Denkungsart gibt mir sehr zu denken. Dass das Ganze offen eingesetzt von einem Profi, dem Direktor eines Instituts einer einflussreichen Stiftung auf einer sagen wir mal vorsichtig sehr einseitigen Plattform, wie dem „Volksverpetzer“-Blog, macht es natürlich nicht besser, sondern leider schlimmer.

Quellen:

Volksverpetzer-Blog-Eintrag:

Das Fake-Klimainstitut EIKE & die AfD: Die Klimawandel-Lügen Lobby – Volksverpetzer

Erik Klügling

Interview mit Matthias Quent

IDZ Jena: Matthias Quent (idz-jena.de)

Publikationsliste von Prof. Dr. Horst Lüdecke, inklusive der Arbeiten und Bücher zum Themenbereich Energie und Klima

Zuerst erschienen bei Vera Lengsfeld




Kältereport Nr. 29

Einführung des Übersetzers: Kaum tritt die Nordhalbkugel der Erde in die neue Wintersaison ein, gibt es auch hier schon wieder Meldungen, wenngleich auch noch nicht viele. Eingefügt ist diesmal aber auch ein entsprechender Aspekt von mir selbst.

Sehr interessant dürfte es werden, weil es wieder stark nach einem „Al-Gore-Effekt“ aussieht: Pünktlich zum COP26-Theater in Schottland simulieren sämtliche Modelle dort gerade dann einen Kaltlufteinbruch von Norden, der zumindest im schottischen Hochland auch verbreitet Schnee bringen dürfte. Mehr dazu im nächsten Kältereport.

Im Mittelteil findet sich – wie schon im vorigen Kältereport angemerkt – ein Einschub von mir selbst zur Schneelage in Nordeuropa.

Meldungen von 18. Oktober:

Peking: niedrigste Oktobertemperatur seit einem halben Jahrhundert – 20 Tage früher als im Mittel

18. Oktober: Eine intensive Kältewelle hat die Temperaturen in ganz China auf ein für den Monat Oktober noch nie dagewesenes Niveau sinken lassen und damit den Heizbedarf des ohnehin schon angespannten Energiesektors weiter erhöht.

Nach Angaben der lokalen meteorologischen Behörde wurde am Sonntagmorgen um 6:44 Uhr in Chinas Hauptstadt Peking ein Tiefstwert von -0,2 °C registriert – die niedrigste Oktobertemperatur, die von einem städtischen Observatorium seit 1969 gemessen wurde, berichtet die Nachrichtenagentur xinhua.

Außerdem kam der erste Frost der Saison in Peking ganze 20 Tage früher als im Durchschnitt (am 8. November). Infolgedessen haben lokale Meteorologen die Befürchtung geäußert, dass die frühe Abkühlung in Zentral- und Ostchina ein Vorbote eines bevorstehenden brutalen Winters sein könnte. Ein solches Ereignis würde die erschöpften Kohle- und Gasreserven zusätzlich belasten und die globale Energiekrise verschärfen.

———————————-

Seltener Frühjahrs-Blizzard in Argentinien

18.Oktober: Heftige Schneefälle haben am Wochenende Ushuaia und andere Gebiete Feuerlands heimgesucht, und es wird vorhergesagt, dass die verantwortliche antarktische Luftmasse bis Dienstag bis nach Brasilien vordringen wird.

Schwere Schneestürme haben seit Samstag, dem 16. Oktober, weite Teile Südargentiniens heimgesucht. Die Flocken haben sich als hartnäckig erwiesen und fallen zum Zeitpunkt der Erstellung dieses Berichts (Montag, 18. Oktober) immer noch.

Link: https://electroverse.net/beijing-suffers-lowest-oct-temp-in-half-a-century-as-rare-spring-blizzards-batter-argentina/

———————————-

Meldungen vom 19. Oktober:

Ungewöhnlich frühe und starke Schneefälle in Skandinavien

Der Winter hält in Skandinavien schon früh Einzug, mit Minusgraden und starkem Schneefall in der Region.

In Lappland, Finnland, wurden am Wochenende rund 20 cm Schnee registriert. In anderen Orten waren die Schneemengen mehr als doppelt so hoch: In Kittilä zum Beispiel wurden enorme 48 cm gemessen.

Ab Mittwoch wird die nächste kräftige Tiefdruckfront von der Arktis herabziehen und über weiten Teilen Finnlands einen weiteren Fuß der Erderwärmung abladen und die nächtlichen Temperaturen sogar im Süden unter den Gefrierpunkt treiben.

Auch in Schweden fiel am Wochenende ein Meter Schnee – ein Ereignis, das den schwedischen Wetterdienst dazu veranlasste, für den Norden des Landes eine Warnung der Stufe 1 herauszugeben. Und wie in Finnland werden bis weit in die nächste Woche hinein weitere, rekordverdächtige Schneefälle vorhergesagt.

Außerdem haben sowohl Finnland als auch Schweden heute Morgen (Di, 19. Okt.) außergewöhnliche Oktoberkälte registriert:

18.0°C in Latnivaara, Schweden

16.0°C am Flughafen von Enontekiö , Finnland

Link: https://electroverse.net/scandinavia-receives-feet-of-snow-flurries-hit-south-korea-global-collapse/

Einschub des Übersetzers hierzu:

Abbildung 1: Schneedecke Nordhemisphäre am 25.10.2021 um 00 UTC. Quelle

Tatsächlich zeigt auch die aktuelle Graphik (25. Oktober) eine ausgedehnte Schneedecke über Skandinavien, wo nur der Süden noch schneefrei erscheint. Die in obiger Meldung erwähnten Schneefälle sind also tatsächlich eingetreten.

Kämpfe et al. haben schon darauf hingewiesen, dass es ohne eine „Einwinterung“ in Nord- und Nordosteuropa keine extreme Winterkälte bei uns geben kann. Im vorigen Kältereport wurde noch beschrieben, dass sich keine Anzeichen einer solchen zeigen. Das hat sich geändert. Es muss natürlich aber abgewartet werden, ob sich Schnee und Kälte dort halten.

Interessant dürfte aber ein Vergleich mit dem vorigen Jahr sein. Der Winter 2020/21 war ja wieder relativ mild. Wie sah es eigentlich im vorigen Jahr um diese Zeit aus?

Abbildung 2: Wetterlage von Montag, dem 25.10, 2021, 00 UTC. LINKS: 500 hPa-Niveau (farbige Flächen) + Bodendruck (weiße Linien; Quelle). RECHTS: 850 hPa-Niveau Temperatur (farbige Flächen) + Geopotential (weiße Linien; Quelle)

Abbiuldung 3: Wie Abb. 2, jedoch vor genau einem Jahr, also am 25. 10. 2020. LINKS: 500 hPa, RECHTS: 850 hPa

Über Nord- und Osteuropa sind die Unterschiede der Geopotential-Verteilung gar nicht so unterschiedlich. Das Temperaturniveau in der 850-hPa-Fläche erscheint dort in diesem Jahr etwas niedriger als im vorigen Jahr. Daraus lassen sich natürlich keine Schlüsse ziehen.

Ganz anders sieht es über Kanada aus. Dort hatte sich im vorigen Jahr um diese Zeit bereits ein beachtlicher Kältepol entwickelt ohne Entsprechung im europäisch-asiatischen Sektor der Arktis. In diesem Jahr ist dort dagegen so etwas nicht einmal rudimentär vorhanden.

Nun weiß jeder Synoptiker, dass ausgeprägte winterliche Kältezentren über Kanada und Grönland auf dem Atlantik die Bildung gewaltiger Orkanwirbel begünstigt, die mit ihrer vorderseitigen südwestlichen Strömung eher mildes Wetter in West- und Mitteleuropa bringen. Sollte sich das Fehlen eines solchen Gebildes im Winter fortsetzen, fehlt dieser Aspekt einer starken westlichen Strömung.

Es sei aber betont, dass dieser statistische Aspekt nur einer von sehr vielen ist. Die Untersuchungen von Kämpfe et al. hierzu sind da wesentlich umfassender.

Eine Karte mit der Schneebedeckung in Nord- und Osteuropa von vor einem Jahr zum Vergleich war leider nicht zu finden. Hat vielleicht ein Kommentator einen Link, wo man diese Information finden kann?

Ende Einschub

Weitere Meldungen vom 19. Oktober:

Vorzeitiger Schneefall in Südkorea

Der erste Schnee der Saison fiel am Dienstag, dem 19. Oktober, auf dem südkoreanischen Berg Seorak – früher als der klimatologische Durchschnitt und ganze 15 Tage früher als im letzten Jahr, berichtet yna.co.kr.

Die Flocken begannen um 10 Uhr morgens in der Nähe der Jungcheong-Schutzhütte zu fallen, die auf einer Höhe von 1676 m über dem Meeresspiegel liegt, so die Parkverwaltung,

Wie yna.co.kr weiter berichtet, wurde das Land am Wochenende von einem ungewöhnlichen Kälteeinbruch heimgesucht. In vielen Teilen des Landes wurden am Sonntag und Montagmorgen für Mitte Oktober rekordtiefe Temperaturen gemessen.

Link: https://electroverse.net/scandinavia-receives-feet-of-snow-flurries-hit-south-korea-global-collapse/

———————————-

Meldungen vom 22. Oktober:

Über 13 Todesopfer durch starke Schneefälle in Indien

Mindestens 13 Menschen sind im indischen Bundesstaat Uttarakhand ums Leben gekommen, nachdem heftige Schneefälle zu Beginn der Saison die Bergregion heimgesucht hatten, wie die örtlichen Behörden am Donnerstag mitteilten.


Auch im benachbarten Nepal wurde eine Gruppe von Trekkern auf dem Gipfel des Mera Peak von starkem Schneefall überrascht.

———————————-

Schneeschippen in Schottland

Fotos zeigen Schotten beim Schneeschaufeln, als das Vereinigte Königreich den ersten Temperatursturz und den ersten Schneefall der Saison erlebte – gerade rechtzeitig für den „Klimakongress, der nächste Woche beginnen soll.

Die Schotten in Aberdeenshire und Moray litten diese Woche unter anomaler arktischer Kälte und ungewöhnlich frühem Schneefall.


Da die Temperaturen weiter sinken, wird für Halloween Schneefall im Westen Schottlands erwartet – ein seltenes Phänomen, das zuletzt vor 13 Jahren, im Jahr 2008 (Sonnenminimum des Zyklus 24), beobachtet wurde.

Betrachtet man den neuesten GFS-Lauf, so wird zum Monatswechsel sogar Schnee bis nach Süden in Mittelengland erwartet.

———————————-

„Auf dem Mount Washington sieht es aus wie am Nordpol“

Der Winter kam früh auf dem Mount Washington.

My NBC 5 berichtet, dass der Berg in der Nacht zum Mittwoch von Orkanböen heimgesucht wurde und mehr als fünf Zentimeter Schnee gefallen sind – so steht es in dem Artikel: „Mount Washington sieht jetzt wie der Nordpol aus, mit atemberaubendem Schneefall und eisigen Temperaturen.“

Link: https://electroverse.net/13-dead-due-to-snow-in-india-scots-shoveling-mt-washington-record-snow-for-u-s-oil-hub-is-running-dry/

———————————-

wird fortgesetzt … (mit 30)

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Pariser Klimaschwindel*

Beat Gygi (Red. WELTWOCHE Zürich)*

========================================================================

Die Schweiz will sich an der Uno-Klimakonferenz in Glasgow gegen Betrug einsetzen. Das bringt nichts.

Der Pariser Abkommen ist auf Täuschung angelegt.

========================================================================

Am 31. Oktober beginnt in Glasgow die 26. Uno-Klimakonferenz, die COP 26. Sie hätte eigentlich 2020 stattfinden sollen, wurde aber wegen Corona um ein Jahr verschoben. Der zweiwöchige Anlass in Glasgow gilt für Regierungen, Politiker, Verwaltungen und Interessengruppen als wichtiges Treffen, weil dies die erste Zusammenkunft seit dem Start des Pariser Abkommens ist, das für die Zeit nach 2020 die Klimapolitik der Staaten weltweit koordinieren soll. «Paris» ist ein Leuchtturm für die ganze Klimaszene. Auch ohne viel nachzudenken, kann man diesen als Orientierung nutzen, und jetzt steht er vierzehn Tage in Glasgow.

Auf dem Konferenzprogramm stehen drei Hauptthemen: erstens Treibhausgasminderung und Temperaturmässigung, zweitens Anpassung an den Klimawandel und drittens Finanzierung von Massnahmen, etwa die Unterstützung der Entwicklungsländer durch die Industrieländer mit jährlichen Nord-Süd-Flüssen von gegen hundert Milliarden Dollar. Diese Summe ist denn auch ein wichtiges Motiv für Regierungen ärmerer Länder, an die Konferenz zu reisen und da zu feilschen.

Neue Grundlagen

Aber Punkt eins dominiert: Das emotional und ideologisch aufgeladene Temperatur- und CO2-Bedrohungsbild. Kürzlich hat die Internationale Energieagentur das Terrain vorbereitet, Stimmung gemacht mit der Publikation des neuesten «Welt-Energie-Ausblicks» – einer Spezialausgabe, die eigens «gestaltet wurde, um die Entscheidungsträger an der COP 26 zu unterstützen und ihnen die wichtigsten Punkte darzulegen», um den Energiesektor auf neue Grundlagen zu stellen.

Zentrale Botschaft des Berichts: Es wird noch viel zu wenig getan, um die Ziele zu erreichen, die im Pariser Abkommen enthalten sind und vom Weltklimarat (IPCC) unterschwellig immer wieder beschworen werden. Das Ziel von «Paris» ist eine Begrenzung der Erderwärmung auf 1,5 Grad Celsius oder jedenfalls auf unter 2 Grad. Die Mahnung der Energieagentur findet bei zahllosen Umwelt-Interessenorganisationen grosses Echo und wird weiterverbreitet, etwa vom WWF: Nach dem Weltklimarat im Sommer zeige jetzt auch der «Welt-Energie-Ausblick», dass zu wenig getan werde, um die «Erderhitzung» – so der Kampfbegriff – auf 1,5 Grad zu beschränken. Der Report sei ein letzter Warnruf vor der Konferenz in Glasgow. Die Staatengemeinschaft müsse jetzt dringend handeln, die Zeit dränge.

In der Wirtschaft ist die Begeisterung geringer, aber man fügt sich; viele Firmen nehmen die Pariser Ziele wie selbstverständlich hin, wie einen Rahmen, dem sie nicht ausweichen können. Oft nutzen sie das Schlagwort «Paris» auch als Begründung für ihre eigenen betrieblichen Klimastrategien, weil sie damit rechnen, dem sich überall ausbreitenden Soft Law sowie den kommenden Regulierungsvorgaben dadurch eher genügen zu können. In Deutschland kam es so weit, dass das Bundesverfassungsgericht Beschwerden gegen das deutsche Klimaschutzgesetz teilweise stützte, weil dieses für die heute Lebenden zu wenig streng sei und künftigen Generationen zu grosse CO2-Reduktionen aufbürde.

Basis für das Verfassungsgericht war die fixe Idee von Paris: Die im Abkommen versprochenen Treibhausgas-Reduktionsziele sind aus dieser Sicht unbedingt einzuhalten, wenn ein Staat einmal ja gesagt hat zu diesen Vorgaben. Das heisst, dass es von heute an bis in alle Ewigkeit nur noch ein bestimmtes Budget an CO2-Emissionen gibt, das man, zum Beispiel als Land, bis zum Erreichen des Netto-null-Zeitpunkts ausstossen darf. Also: Je mehr Emissionen heute erfolgen, desto weniger darf man sich morgen erlauben. Ein fixes Budget mit festem Zahlungsplan, bei Verfehlung in Deutschland von den eigenen Bürgern einklagbar. Eine Regierung, die ja sagt zum Pariser Abkommen, ist in einem Programm gefangen, das keinen Spielraum lässt für demokratisch gewollte Anpassungen des Kurses, ist auf einer festen Schiene – wenn man «Paris» ernst nimmt.

Die Schweiz ist auch auf der Schiene, sie hat das Pariser Abkommen ebenfalls ratifiziert. Insgesamt sind über 190 Regierungen dabei, viele reisen nach Glasgow. Laut Angaben der Bundesverwaltung wird die Schweiz zum Auftakt der Konferenz von Bundespräsident Guy Parmelin am 1. und 2. November am Leader’s Summit, dem Treffen der Staats- und Regierungschefs, vertreten. Die gesamte Schweizer Verhandlungsdelegation für Glasgow umfasst laut Informationen des Departements für Umwelt, Verkehr, Energie und Kommunikation (Uvek) elf Personen und steht unter der Leitung von Botschafter Franz Perrez aus dem Bundesamt für Umwelt (Bafu), einem Juristen mit langer Erfahrung in internationalen Beziehungen. Das Budget wird auf 136 500 Franken veranschlagt.

Mitreisen werden laut den Angaben zudem drei Personen der sogenannten Zivilgesellschaft, darunter zwei aus der Wirtschaft (Swissbanking und Schweizerischer Versicherungsverband) und eine Vertretung aus der Umweltallianz (WWF). Darüber hinaus soll jemand aus der Wissenschaft, von der Universität Genf, die Schweizer Gruppe begleiten. Zudem werde laut Uvek im Rahmen eines «Youth Rep»-Programms, wie es im Aussendepartement seit einigen Jahren etabliert sei, eine Vertreterin der Jugend an der Konferenz teilnehmen.

Wie sieht die Reise umweltmässig aus? Die Mitarbeiter des Bafu werden laut den Angaben per Zug anreisen. Bundesrätin Simonetta Sommaruga will am 10. November direkt nach der Bundesratssitzung an die dann schon ein paar Tage alte Konferenz nach Glasgow fliegen, begleitet von zwei Personen. Bundespräsident Parmelin nimmt für seinen Besuch ebenfalls das Flugzeug, auch in Begleitung von zwei Personen.

Die Ziele der Schweizer Verwaltung für Glasgow: im Pariser Abkommen einheitliche und griffige Regeln etablieren, die für alle Länder gelten. Zunächst einmal will man sicherzustellen versuchen, dass Treibhausgasemissionen, die ein Land im Ausland vermindert, nicht doppelt angerechnet werden können, also nicht im Geberland und gleichzeitig auch im Empfängerland – eigentlich eine Selbstverständlichkeit für ein System, das von rechtschaffenen Parteien betrieben wird. Aber offenbar ist das Pariser System anfällig für Schwindel.

Die Schweiz will sich des Weiteren für Investitionen besonders auch in den Klimaschutz in Entwicklungsländern einsetzen. Man will zudem, dass alle Staaten Strategien entwickeln, um bis 2050 klimaneutral zu werden. Und schliesslich erwartet Bern eine Entscheidung über gemeinsame Zeitpläne für die Klimaziele der Staaten (common time frames). All dies läuft letztlich darauf hinaus, dass die Schweizer Politik und Verwaltung sicher sein wollen, dass man im Pariser System nicht betrogen wird, dass alle fair mitziehen bei der Reduktion der Treibhausgasemissionen, dass Verträge und Versprechen eingehalten werden, dass niemand die anderen ausnützt, niemand Trittbrett fährt und dass transparent wird, wer was macht.

System für Trittbrettfahrer

Und genau das kann man vom Abkommen von Paris nicht erwarten. Das ganze Konstrukt ist ja deshalb entstanden, weil es der Uno vorher nicht gelungen war, die Regierungen weltweit zu einem koordinierten Verringern der Treibhausgasemissionen zu bringen. Das frühere Arrangement, das Kioto-Protokoll mit ziemlich verbindlichen Vorgaben zur CO2-Reduktion, wurde zuletzt nicht mehr von vielen befolgt und erfasste nur noch 14 Prozent der weltweiten Emissionen. Das Pariser Abkommen dagegen hat nun über 95 Prozent der weltweiten Emissionen unter seiner Kontrolle, es wirkt also umfassend.

Aber das Wort Kontrolle ist falsch. Es ist nur Schein. Jede Regierung kann Ziele nennen, diese werden vorgezeigt, die anderen kommentieren sie, es gibt Berichte, als ob man das ernst nähme – aber ob das Versprochene dann eingehalten wird, kümmert niemanden mehr gross. Nichterfüllen der Ziele bleibt im Pariser Vertrag straflos. Das gab den USA und China die Möglichkeit, sich in «Paris» einzuklinken und den Anschein zu erwecken, dass auch die beiden allergrössten Energieverbraucher und CO2-Emittenten nun bei der Klimarettung mit von der Partie seien.

Der Bundesrat nimmt all das ernst, er hat 2019 den CO2-Reduktionspfad eigenmächtig verschärft und netto null bis 2050 versprochen. Warum fragte er das Volk nicht? Und warum gibt er die Emissionen immer in Tonnen pro Land an und nicht pro Kopf? Der Treibhausgasausstoss der Schweiz hat sich von 1990 bis 2020 um rund 14 Prozent verringert, und das bei massiver Zuwanderung. Pro Kopf betrug die Reduktion 33 Prozent. «Das gilt nicht», kommt sofort der Einwand von Rot-Grün. Warum nicht? Im Pariser System nennen gut vierzig Regierungen wie die Schweiz ein absolutes Reduktionsziel pro Land. Aber über siebzig Länder messen die Emissionen relativ zum Referenzzustand, wie er ohne Bemühungen wäre, und zehn Länder nehmen die Emissionen pro Kopf oder pro Dollar Wertschöpfung.

Das Pariser Abkommen kann nie den Ansprüchen genügen, welche die Schweiz für Glasgow formuliert hat. Das System ist auf Trittbrettfahren angelegt. Wenn ein Land ernsthaft darum bemüht ist, die angegebenen Emissionsziele zu erfüllen und seine Wirtschaft bei Energieverbrauch und Emissionen zu drosseln, kann es nicht damit rechnen, dass die anderen auch so handeln. Die Klimaschwindler lachen mehr oder weniger heimlich über die braven Schweizer und ein paar andere Arglose, die ihre Wirtschaft bremsen. Es ist für die Schweiz eine Verschwendung, in einem solchen System mitzumachen.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : | Die Weltwoche, Nr. 42 (2021)| 21. Oktober 2021 ;  EIKE dankt der Redaktion der WELTWOCHE und dem Autor Beat Gygi für die Gestattung der ungekürzten Übernahme des Beitrages, wie schon bei früheren Beiträgen :  http://www.weltwoche.ch/Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

==================================================================




Suboptimale Spurensuche?

Ross McKitrick

1999 veröffentlichten Myles Allen und Simon Tett einen Artikel in der in der Zeitschrift Climate Dynamics (im Folgenden als „AT99“ bezeichnet), in dem sie ein Verfahren – den optimalen Fingerabdruck – beschrieben, um beobachtete Klimaveränderungen den zugrunde liegenden Ursachen zuzuordnen, mit besonderem Augenmerk auf den durch Treibhausgase verursachten Antrieb. Sie schlugen auch eine Methode vor, die als Residualkonsistenztest (RC) bezeichnet wird, um festzustellen, ob das statistische Modell gültig ist.

Das Optimal Fingerprinting, das manchmal auch als Optimal Detection bezeichnet wird, wurde sofort angenommen und vom IPCC in seinem Dritten Bewertungsbericht (TAR) von 2012 und wird seitdem in jedem IPCC-Bewertungsbericht erwähnt. TAR Anhang 12.1 trug die Überschrift „Optimale Erkennung ist Regression“ und begann:

Die Nachweismethode, die in den meisten Erkennungsstudien zum „optimalen Nachweis“ verwendet wurde, hat mehrere gleichwertige Darstellungen. Kürzlich wurde erkannt, dass es sich als ein multiples Regressionsproblem in Bezug auf verallgemeinerte kleinste Quadrate dargestellt werden kann (Allen und Tett, 1999; siehe auch Hasselmann, 1993, 1997.

2014 wies eine Gruppe von Autoren unter der Leitung von Jara Imbers, zu der auch Myles Allen als Koautor gehörte, auf die Auswirkungen hin, welche das statistische Verfahren in den vergangenen Jahren gehabt hatte:

Die Aussage des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC), dass es ’sehr wahrscheinlich‘ sei, dass anthropogene Emissionen das Klima beeinflussen, basiert auf einer statistischen Nachweis- und Zuordnungsmethode, die stark von der Charakterisierung der internen Klimavariabilität abhängt, wie sie von [Klimamodellen] simuliert wird .³

Die Förderung und das Vertrauen des IPCC in das Optimum Fingerprinting hält bis heute an.4 Sie wurde in Dutzenden und möglicherweise Hunderten von Studien im Laufe der Jahre verwendet. wo auch immer man in der Fachliteratur beginnt, alle Wege führen zurück zu Allen und Tett (oft über das Folgepapier Allen und Stott 2003). Außerdem stützt sich die Literatur fast ausschließlich auf den RC-Test zur Überprüfung der Gültigkeit der Ergebnisse. Also spielen die Fehler und Unzulänglichkeiten des Papiers auch zwei Jahrzehnte später noch eine akute Rolle.

Ich habe einen Artikel in Climate Dynamics veröffentlicht, der zeigt, dass das optimale Fingerprinting-Verfahren, wie es in AT99 und dem Nachfolgepapier angewendet worden war, theoretisch fehlerhaft ist und sinnlose Ergebnisse liefert.6 Es beweist nicht, dass alle Ergebnisse dieser Methode falsch sind, aber es zeigt, dass die Grundlage, auf der sie für richtig gehalten wurden, nicht vorhanden ist.

Über die Logik und die Implikationen meiner Ergebnisse

Eine sorgfältige Erklärung der Auswirkungen meiner Feststellung muss ein elementares Prinzip der Logik beachten. Wir können ohne Angst vor Widersprüchen sagen:

Angenommen, A impliziert B. Wenn A wahr ist, ist auch B wahr.

Ein Beispiel: Alle Hunde haben ein Fell. Ein Beagle ist ein Hund, also hat ein Beagle hat ein Fell. Wir können dies jedoch nicht sagen:

Angenommen, A impliziert B. A ist nicht wahr, also ist B nicht wahr.

Beispiel: Alle Hunde haben ein Fell; eine Katze ist kein Hund, also hat eine Katze kein Fell. Aber natürlich können wir auch sagen:

Angenommen, A impliziert B; A ist nicht wahr, also wissen wir nicht, ob B wahr ist.

Beispiel: Alle Hunde haben ein Fell. Ein Delphin ist kein Hund, also wissen wir wissen wir nicht, ob ein Delfin ein Fell hat.

Betrachtet man die Auswirkungen meiner Ergebnisse, so ist „A“ das mathematische Argument, das Allen und Tett anführten, um ‚B‘ zu beweisen, nämlich die Behauptung, dass ihr Modell unvoreingenommene und genaue Ergebnisse liefert. In meiner Kritik habe ich gezeigt, dass ‚A‘, ihr mathematisches Argument, falsch ist. Wir haben also keine Grundlage, um etwas über „B“ zu sagen, und schon gar nicht, dass ihr Modell unvoreingenommene und genaue Ergebnisse liefert. Die Kritik trifft auch auf den RC-Test zu: Er liefert nichtssagende Antworten. In meinem Artikel führe ich die Bedingungen auf, die nachgewiesen werden müssen, um die Behauptungen über ihre Methode zu bestätigen. Ich glaube nicht, dass dies möglich ist, aus Gründen, die in dem Papier genannt werden, aber ich lasse die Möglichkeit offen. In Ermangelung eines solchen Beweises lassen die Ergebnisse ihres Verfahrens über die letzten 20 Jahren keine Aussagen über den Einfluss von Treibhausgasen auf das Klima machen. Hier werde ich versuchen, die wichtigsten Elemente des statistischen Arguments zu erläutern.

Regression

Die meisten Menschen mit einem gewissen Maß an wissenschaftlicher Bildung sind mit dem Gedanken vertraut, eine Linie der besten Anpassung durch eine Daten-Punktwolke zu ziehen. Dies wird als lineare Regression bezeichnet. Betrachten Sie Abbildung 1. Sie zeigt für eine Stichprobe von Ehepaaren das Alter der Ehefrau im Vergleich zum Alter des Ehemannes:

Abbildung 1: Ehepaare: Altersvergleich von Ehefrauen und Ehemännern

Es besteht ein eindeutiger Zusammenhang zwischen beiden: Ältere Männer haben ältere Ehefrauen und umgekehrt. Sie können sich leicht vorstellen, eine gerade Linie der durch die Punkte zeichnen. Es ist üblich, die horizontale Achse als x-Achse und die vertikale Achse als y-Achse zu bezeichnen. Die Linie kann mit zwei Zahlen definiert werden: der Steigung und dem Achsenabschnitt auf der y-Achse. Wenn die Steigung positiv ist, sind höhere Werte auf der Werte auf der x-Achse auch mit höheren Werten auf der y-Achse verbunden. Dies ist im obigen Beispiel eindeutig der Fall; jede vernünftige Linie durch die Stichprobe würde sich nach oben neigen. Aber in anderen Fällen ist es nicht so offensichtlich. Abbildung 2 zeigt zum Beispiel den Wert von Immobilien im Verhältnis zu ihrer Nähe zu einer Hauptverkehrsstraße:

Abbildung 2: Vergleich von Immobilienpreisen relativ zur Nähe einer Autobahn

Hier kann eine Linie der besten Anpassung nahezu horizontal verlaufen, aber auch ansteigend sein. Um zu veranschaulichen, warum die statistische Theorie für die Interpretation der Regressionsanalyse wichtig ist, sollte man sich eher Abbildung 2 als Abbildung 1 vor Augen halten. Wir haben selten Daten, bei denen die Beziehung so offensichtlich ist wie im Beispiel des Ehepaares. Viel häufiger versuchen wir, subtile Muster aus viel mehr streuenden Daten herauszufinden.

Es kann besonders schwierig sein, zu erkennen, ob Steigungslinien positiv sind, wenn wir in mehreren Dimensionen arbeiten. In Abbildung 2 gibt es viele andere Variablen als die Nähe zu einer Autobahn, die die für Schwankungen bei den Immobilienwerten verantwortlich sein könnten. Wenn, sagen wir, es drei mögliche Einflussfaktoren für den Wert von Einzelhandelsimmobilien gibt, müssen wir schätzen.

Beachten Sie, dass Regressionsmodelle eine Korrelation herstellen können, aber Korrelation ist keine Kausalität. Ältere Männer verursachen nicht, dass ihre Frauen älter sind; es ist nur so, dass Menschen, die heiraten, dazu neigen, jemanden aus der gleichen Altersgruppe zu wählen. Wenn wir feststellen, dass weiter von Autobahnen entfernt liegende Grundstücke wertvoller sind, könnte das bedeuten, dass die Entfernung zu einer Autobahn den Immobilienwert beeinflusst, oder es könnte bedeuten, dass Autobahnen tendenziell auf Land gebaut werden, das aus anderen Gründen weniger wertvoll war. Regressionsmodelle können die Interpretation der Kausalität unterstützen, wenn es andere Gründe für einen solchen Zusammenhang gibt, aber man muss hierbei sehr vorsichtig vorgehen und kann erst nach einer strengen Prüfung beurteilen, ob das Modell wichtige erklärende Variablen ausgelassen hat.

Stichproben und Varianz

Unabhängig davon, wie wir den Steigungsparameter (oder die Parameter) schätzen, brauchen wir eine Möglichkeit zu testen, ob er definitiv positiv ist ist oder nicht. Das erfordert ein wenig mehr Theorie. Abbildung 1 war eine Darstellung einer Stichprobe von Daten. Es handelt sich eindeutig nicht um die gesamte Sammlung von Ehemännern und Ehefrauen auf der Welt. Eine Stichprobe ist eine Teilmenge einer Grundgesamtheit. Wenn wir eine statistische Analyse durchführen, müssen wir die Tatsache berücksichtigen, dass wir mit einer Stichprobe arbeiten und nicht mit der gesamten Grundgesamtheit. (Grundsätzlich gilt: Je größer die Stichprobe, desto repräsentativer ist sie für die Gesamtbevölkerung.)

Die Linie der besten Anpassung durch die Stichprobe kann immer nur eine Schätzung des wahren Wertes der Steigung liefern, und da es sich um eine Schätzung handelt, können wir nur von einem Bereich möglicher Werte sprechen. Die Regression ergibt also eine Verteilung möglicher Schätzungen, von denen einige wahrscheinlicher sind als andere. Wenn Sie eine Linie durch die Daten mit einem einfachen Programm wie Excel an die Daten anpasst, gibt es vielleicht nur den zentralen Schätzung, aber die zugrunde liegende Theorie liefert eine Verteilung von möglichen Werten.

Die meisten Menschen sind mit dem Gedanken einer Daten zusammen fassenden „Glockenkurve“ vertraut. Ein Beispiel wäre die Verteilung der Zensuren in einer Klasse, bei der viele Werte um den Mittelwert gruppiert sind, aber immer weniger werden, je weiter man sich vom Mittelwert entfernt. Die Streuung einer Verteilung wird durch eine Zahl zusammengefasst der sogenannten Varianz. Ist die Varianz niedrig, ist die Verteilung eng, ist sie hoch, ist sie breit (Abbildung 3).

Die Regressionsanalyse liefert also neben der Schätzung der Steigung auch einen Schätzwert für die Varianz. Ein eng verwandtes Konzept ist die Standardabweichung der Steigung – wiederum ein Maß dafür, wie wie eng die Punkte in der Stichprobe um die gerade Linie streuen, die wir an sie angepasst haben.7 Die statistische Theorie sagt uns, dass solange das Regressionsmodell eine Reihe von Bedingungen erfüllt, mit 95-prozentiger Wahrscheinlichkeit den wahre Wert der Steigung (der den man erhalten würde, wenn man eine Stichprobe der gesamten Population nehmen könnte) innerhalb von etwa plus/minus zwei Standardabweichungen der Schätzung der Steigung erhält. Dies wird als 95%-Konfidenzintervall Intervall bezeichnet.

Abbildung 3: Varianz

Wir können also Regressionsverfahren anwenden, um eine Linie durch eine Stichprobe von Daten – z. B. Häufigkeit von Hurrikanen und Temperatur – zu ziehen, und wenn die geschätzte Steigung mehr als zwei Standardabweichungen über Null liegt, können wir sagen, dass wir „zuversichtlich“ sind, dass ein Anstieg der Temperatur zu einer Zunahme der Hurrikane führt. Wenn dies nicht der Fall ist, sagen wir dass die Beziehung positiv, aber statistisch nicht signifikant ist.

Bias, Effizienz und Konsistenz

Die Steigungsschätzung wird mit Hilfe einer Formel ermittelt, in welche die Anzahl der Stichprobendaten eingeht und die eine Zahl erzeugt. Es gibt viele Formeln die verwendet werden können. Die gängigste Formel ist die Ordinary Least Quadrate (OLS).8 OLS liefert auch einen Schätzwert für die Varianzen eines jeden Koeffizienten.

Es ist möglich, die Verteilung der Steigungsschätzungen mit Hilfe eines nach der Wahrscheinlichkeit gewichteten Durchschnitts auf einen einzigen Wert herunterzubrechen. In der Statistik wird dies als Erwartungswert bezeichnet. Mit Hilfe der statistischen Theorie lässt sich zeigen, dass, solange das Regressionsmodell eine Reihe von Bedingungen erfüllt, der Erwartungswert gleich dem Wert für die Grundgesamtheit ist. In diesem Falle sagen wir, dass der Schätzer unvoreingenommen ist. Wenn die oben genannte Gruppe von Bedingungen erfüllt ist, ist auch die Varianzschätzung unverzerrt.

Da es neben der OLS-Schätzung viele weitere mögliche Schätzformeln gibt, müssen wir uns überlegen, warum wir OLS den anderen Formeln vorziehen. Ein Grund ist, dass OLS unter allen Optionen, die zu unverzerrten Schätzungen führen, die geringste Varianz aufweist.9 Sie nutzt also die verfügbaren Daten am besten aus und liefert das kleinste 95%ige Konfidenzintervall. Wir nennen dies Effizienz.

Einige Formeln (oder „Schätzer“) liefern uns geschätzte Steigungs-Koeffizienten oder Varianzen, die bei einem kleinen Stichprobenumfang verzerrt sind, aber mit zunehmendem Stichprobenumfang verschwinden. Die Verzerrung und die Varianz gehen dann gegen Null, so dass die Verteilung auf den wahren Wert kollabiert. Dies wird als Konsistenz bezeichnet. Ein inkonsistenter Schätzer hat die unerwünschte Eigenschaft, dass wenn wir immer mehr Daten erhalten, wir keine Sicherheit haben, dass unsere Koeffizienten der Schätzungen näher an die Wahrheit herankommen. Bei inkonsistenten Schätzern kann die Varianz mit zunehmendem Stichprobenumfang schrumpfen, aber die Verzerrung erreicht nie Null, was bedeutet, dass die Schätzung nicht zum wahren Wert konvergiert.

Wann sind Schätzungen zuverlässig?

Ich habe mehrfach auf „eine Reihe von Bedingungen“ hingewiesen, die ein Regressionsmodell erfüllen muss, damit OLS unvoreingenommene, effiziente und konsistente Schätzungen liefert. Diese Bedingungen sind in jedem einführenden Ökonometrie-Lehrbuch aufgelistet und werden als Gauß-Markov-Bedingungen (GM) bezeichnet. Ein Großteil des Bereichs der Ökonometrie (dem Zweig der Statistik, der versucht, Regressionsanalyse zur Erstellung von Wirtschaftsmodellen zu nutzen) ist auf das Aufspüren von Fehlern in den GM-Bedingungen konzentriert und daruf, wenn diese gefunden werden, Abhilfemaßnahmen vorzuschlagen.

Einige Ausfälle der GM-Bedingungen implizieren nur, dass die Varianz-Schätzungen verzerrt sind; die Steigungsschätzungen bleiben unverzerrt. Mit anderen Worten, wir erhalten eine sinnvolle Schätzung des Steigungsparameters, aber unser Urteil darüber, ob er signifikant ist oder nicht, ist unzuverlässig. Andere Ausfälle der GM-Bedingungen bedeuten, dass die Schätzungen sowohl der Steigung als auch der Varianz verzerrt sind. In diesem Fall kann die Analyse verfälscht und völlig bedeutungslos sein.

Ein Beispiel für ein schlechtes Forschungsdesign: Angenommen, wir haben Daten aus Hunderten von US-Städten über viele Jahre, die sowohl die die jährliche Zahl der Straftaten in der Stadt und die Zahl der Polizeibeamten auf den Straßen zeigen. Wir können eine Linie durch die Daten ziehen, um um zu prüfen, ob die Kriminalität zurückgeht, wenn mehr Polizisten eingesetzt werden. Es gibt jedoch mehrere Probleme, die wahrscheinlich zum Scheitern von mehreren GM-Bedingungen führen würden. Erstens besteht die Stichprobe aus Klein- und Großstädten zusammen, und wir können sehr unterschiedliche Kriminalitätsstatistiken in größeren und kleineren Städten erwarten. Wenn wir das nicht berücksichtigen, erhalten wir verzerrte Schätzungen der Varianzen der Steigungskoeffizienten.

Zweitens gibt es Verzögerungseffekte: Eine Veränderung der Zahl der Polizeibeamten kann erst nach einer gewissen Zeit zu einer Veränderung der Kriminalität führen. Auch dies kann die Steigungskoeffizienten und Varianzschätzungen verzerren. Drittens kann die Kriminalität zwar von der Zahl der Polizeibeamten abhängen, die Zahl der Polizeibeamten kann aber auch von der Höhe der Kriminalität abhängen, so dass beide Variablen durch die jeweils andere Variable bestimmt werden: eine ist nicht eindeutig außerhalb des Modells bestimmt. Dies kann die Koeffizienten stark verzerren und zu falsche Schlussfolgerungen führen (z. B. dass mehr Polizeiarbeit zu einer höheren Kriminalitätsrate führt).

Schließlich hängen sowohl Kriminalität als auch Polizeiarbeit von Faktoren ab, die nicht im Modell enthalten sind, und wenn diese externen Faktoren nicht mit dem Ausmaß der Polizeiarbeit korreliert sind, werden die Steigungs- und Varianzschätzungen verzerrt sein.

Daher ist es von entscheidender Bedeutung, ein Versagen der GM-Bedingungen zu testen. In der Ökonometrie gibt es eine umfangreiche Literatur zu diesem Thema, das Spezifikationstest genannt wird. Studenten, die Regressionsanalyse lernen, lernen Spezifikationstests von Anfang an. Wenn ein Regressionsmodell für die Wirtschaftsforschung verwendet wird, würden die Ergebnisse niemals für bare Münze genommen werden, ohne dass zumindest einige elementare Spezifikationstests angegeben werden.

Bei einigen Verstößen gegen die GM-Bedingungen besteht die Abhilfe in einer Transformation der Daten vor der Anwendung von OLS. Ein Beispiel wäre die Umwandlung aller Daten in Pro-Kopf-Werte. Wenn wir eine Datentransformation anwenden, um einen Verstoß gegen eine oder mehrere GM-Bedingungen zu beheben, sprechen wir von der Anwendung der Generalized Least Squares (GLS). Die Anwendung einer GLS-Transformation bedeutet nicht, dass wir davon ausgehen können, dass die GM-Bedingungen automatisch gelten; sie müssen immer noch getestet werden. In manchen Fällen reicht eine GLS-Transformation nicht aus, und weitere Änderungen am Modell sind erforderlich, um unverzerrte und konsistente Schätzungen zu erhalten.

Das Verfahren von Allen und Tett

Verschiedene Autoren hatten vor AT99 vorgeschlagen, beobachtete Klimamesswerte – z. B. Veränderungen der Temperatur, der Hurrikanhäufigkeit oder des Auftretens von Hitzewellen – mit Klima-Simulationen mit und ohne Treibhausgase zu vergleichen. Wenn die Einbeziehung von Treibhausgasen zu einer deutlich besseren Übereinstimmung mit den Beobachtungen führt, könnten die Wissenschaftler die menschlichen Emissionen als Ursache verantwortlich machen. Diese Verfahren wird als „Fingerprinting“ bezeichnet.

Diese Autoren hatten auch argumentiert, dass die Analyse durch eine Anpassung der Daten an die lokalen Klimaschwankungen gestützt werden muss, indem Gebiete mit einem von Natur aus stabileren Klima stärker gewichtet werden und Gebiete, in denen das Klima „unruhiger“ ist, weniger stark. Die erforderlichen Gewichtungen werden anhand der so genannten „Klima-Rausch-Kovarianz-Matrix“ berechnet, die die Variabilität des Klimas an jedem Ort misst und für jedes Paar von Orten angibt, wie ihre Klimabedingungen miteinander korrelieren. Die damit verbundene Mathematik würde den Rahmen dieser Abhandlung sprengen, aber für das Verständnis der Kernfragen ist es einfach notwendig zu verstehen, dass einer der erforderlichen Schritte darin besteht, die Inverse der Matrix zu berechnen.

Dies erwies sich jedoch in der Praxis als schwierig. Anstatt die Matrix anhand von Beobachtungsdaten zu berechnen, haben Klimatologen lange Zeit lieber Klimamodelle bevorzugt. Es gab zwar Gründe für diese Entscheidung, führte jedoch zu vielen Problemen (die ich in meinem Beitrag erörtere). Eines davon war, dass die Klimamodelle keine ausreichende Auflösung haben, um alle Elemente der Matrix unabhängig voneinander zu identifizieren. Dies bedeutete, dass die Matrix keine Inverse hatte.11 Daher waren die Wissenschaftler gezwungen, eine Annäherung zu verwenden, die als „Pseudo-Inverse“ bezeichnet wird, um die benötigten Gewichte zu berechnen. Dies führte zu weiteren Problemen.

Der Fehler

Die Argumentation von Allen und Tett lautete in etwa so: Sie stellten fest, dass die Anwendung eines Gewichtungsschemas das Fingerprinting Modell mit einer GLS-Regression vergleichbar macht. Und da ein richtig spezifiziertes GLS-Modell die GM-Bedingungen erfüllt, liefert ihre Methode unvoreingenommene und effiziente Ergebnisse. Das ist eine leichte Vereinfachung ihrer Argumentation, aber nicht viel. Und der Hauptfehler ist offensichtlich. Man kann nicht wissen, ob ein Modell die GM-Bedingungen erfüllt – es sei denn, man testet auf spezifische Verstöße. AT99 hat die GM-Bedingungen falsch formuliert, eine wichtige Bedingung ganz weggelassen und es versäumt, irgendwelche Tests für Verletzungen vorzuschlagen.

In der Tat haben sie die ganze Idee der Spezifikationsprüfung entgleisen lassen, indem sie argumentierten, dass sie nur testen müssten, ob die Rauschkovarianzschätzungen des Klimamodells „zuverlässig“ seien (ihr Begriff, den sie nicht definierten), und sie schlugen etwas vor, das sie die Residual Consistency (RC) nannten. Sie boten keinen Beweis dafür, dass der RC-Test das tut, was er angeblich tut.12 Tatsächlich lieferten sie nicht einmal eine mathematische Aussage darüber, was er testet; sie sagten nur, dass wenn die von ihnen vorgeschlagene Formel eine kleine Zahl ergibt, die Regression des Fingerabdrucks gültig ist. In meiner Studie habe ich erklärt, dass es leicht Fälle geben kann, in denen der RC-Test eine kleine Zahl ergeben würde, selbst bei Modellen, die bekanntermaßen als falsch spezifiziert und unzuverlässig gelten.

Zusammenfassend lässt sich also sagen, dass Allen und Tett mit ihrem Verfahren nicht sicherstellen konnten, dass die GM-Bedingungen erfüllt waren, und konnten daher nicht beurteilen, ob ihre Schätzungen zuverlässig waren. Wie ich in meinem Papier dargelegt habe, versagt die Methode von Allen und Tett, wie sie in ihrem Papier dargelegt ist, automatisch bei mindestens einer GM-Bedingung, wahrscheinlich sogar mehreren. Daher müssen die Ergebnisse als unzuverlässig angesehen werden.

In den Jahren seit der Veröffentlichung des Papiers sind jedoch niemandem die Fehler in der AT99-Diskussion über die GM-Bedingungen aufgefallen, niemand bemerkte das Fehlen einer Ableitung des RC-Tests, und keine der nachfolgenden Anwendungen der AT99-Methode wurde einer konventionellen Spezifikationsprüfung unterzogen. Das heißt, wir haben keine Grundlage für die Akzeptanz von Behauptungen, die sich auf das optimale Fingerprinting-Verfahren stützen.

Nebenbei: die leichte Modifikation

Der optimale Fingerabdruck-Ansatz von Allen und Tett wird mit nur einer geringfügigen Änderung seit 20 Jahren von den Klimawissenschaftlern verwendet.

Die leichte Änderung erfolgte 2003, als Myles Allen und ein anderer Koautor, Peter Stott, vorschlugen, von GLS auf einen anderen Schätzer mit der Bezeichnung Total Least Squares (TLS) überzugehen.13 Dabei wird die Klimavariabilität nach wie vor gewichtet, aber die Steigungskoeffizienten werden mit einer anderen Formel geschätzt. Die Begründung dafür war, dass die vom Klimamodell generierten Variablen in der Fingerprinting-Regression selbst ziemlich „verrauscht“ sind, was dazu führen kann, dass GLS Koeffizientenschätzungen liefert, die nach unten verzerrt sind. Das ist richtig, aber Ökonometriker gehen mit diesem Problem mit einer Technik namens Instrumentalvariablen (IV) an. Wir verwenden TLS nicht (in der Tat verwendet es fast niemand außerhalb der Klimatologie), weil TLS unter anderem dann, wenn das Regressionsmodell falsch spezifiziert ist, eine Überkorrektur vornimmt und den Ergebnissen eine Verzerrung nach oben verleiht. Außerdem ist sie im Vergleich zur OLS extrem ineffizient. IV-Modelle können konsistent und unverzerrt sein. TLS-Modelle können das nicht, es sei denn, der Forscher macht einige restriktive Annahmen über die Varianzen im Datensatz, die selbst nicht getestet werden können; mit anderen Worten es sei denn, der Modellierer ’nimmt das Problem weg‘. Ich werde dies in einer nachfolgenden Studie behandeln.

Implikationen und die nächsten Schritte

Optimales Fingerprinting erfüllt nicht die GM-Bedingungen. Allen und Tett behaupteten fälschlicherweise das Gegenteil, und spätere Autoren zitierten und beriefen sich auf diese Behauptung. Das Verfahren (einschließlich der TLS-Variante) liefert Ergebnisse, die zufällig richtig sein könnten, aber im Allgemeinen verzerrt und inkonsistent sind und daher nicht als zuverlässig angesehen werden können. Nichts in der Methode selbst (einschließlich der Verwendung des RC-Tests) erlaubt es den Wissenschaftlern, mehr als das zu behaupten.

Neben der Untersuchung der Verzerrungen, die durch die Verwendung von TLS in Fingerprinting-Regressionen eingeführt werden, untersuche ich die Auswirkungen der Anwendung grundlegender Spezifikationstests auf Fingerprinting-Regressionen und die Behebung der daraus resultierenden Fehler.

Soweit dieser Beitrag. Es folgt noch eine längere Erwiderung auf Kommentare dazu sowie eine Liste von Referenzen.

Das vollständige PDF ist hier:

Übersetzt von Christian Freuer für das EIKE

Zusammenfassung aus dem Vortrag von R.McKittrick auf der 14.Climate Conference des Heartland Institutes

—————————————-

Es folgt noch ein Kommentar hierzu von der EIKE-Redaktion (Michael Limburg):

Was Ross herausgefunden hat, ist für mich und viele andere, die mit den Grenzen der Statistik einigermaßen vertraut sind, wirklich keine Überraschung. Aber es ist sehr gut erklärt für alle, die 1. wirklich gläubig sind und 2. sich für die Grenzen dieser Methoden interessieren, aber nicht in der Lage sind, die Methode so klar zu entwickeln wie Ross es tut. So z.B. für mich.
Aber es gibt noch einen weiteren Aspekt, den Ross (zumindest habe ich ihn noch nicht gesehen) in seiner Kritik völlig ausklammert. Nämlich, dass die „Fingerabdruck“-Methode selbst unecht ist. (in einem Sinne von „unberechtig“). Das liegt daran, dass sie als Grundlage annimmt, dass CO2 einen zurechenbaren Einfluss auf die Lufttemperatur hat. (Diese Temperatur selbst ist ein unwissenschaftlicher Begriff, sobald man sich mit „Mitteltemperatur“ beschäftigt. Eine Temperatur braucht in der Physik immer einen Ort und ein Medium, wo sie gemessen wird, um überhaupt ein gültiger Begriff zu sein). Die Modellierer sind also gezwungen, diese Abhängigkeit in ihre Modelle einzubauen. Sonst kann der Computer nicht rechnen. Also ist alles, was die Modelle zeigen, das was die Programmierer ihnen vorher gesagt haben. Das ist in meinem Verständnis ein Zirkelschluss, aber keineswegs ein Beweis. Noch schlimmer ist, dass sie alle natürlichen Kräfte, insbesondere die der Sonne, außen vor lassen.




Der Energiebedarf will einfach nicht sinken

von Albrecht Künstle

– Guter Rat ist billig, jedenfalls der einiger Journalisten

– Weshalb gegen den Zuwachs nicht anzukämpfen ist

Alle überschlagen sich geradezu in Sachen „Klima“. Die Parteien überbieten sich, Gesetze wurden auf den Weg gebracht und weitere sind in der Pipeline. Milliardenschwere Klimaschutzprogramme wurden aufgelegt. Die Kommunen stellen Klimabeauftragte ein, es bedarf Geldbewilliger, Geldverteiler, Handwerker die das alles realisieren, Kontrolleure einschließlich der Finanzbeamten, die für die „richtige“ Verwendung der Mittel sorgen, und alle Maßnahmen werden „evaluiert“. Neben der Legislative und Exekutive lässt sich auch die Judikative nicht lumpen, „Umweltsünder“ werden härter bestraft als Gewaltverbrecher.

Die Hausbesitzer nahmen viel Geld in die Hand – eigenes und steuerfinanziertes– und steckten es in energetische Maßnahmen, insbesondere die Gebäudeisolierung. Aber es half anscheinend nicht viel. Ob es anders wird, wenn die Wohnungen verstaatlicht sind? Die Berliner wollen es jedenfalls wissen.

Dämmung alleine reicht nicht“, titelte meine Regionalzeitung – „trotz aller Wärmesanierungen von Wohngebäuden geht der Heizungsverbrauch in Deutschland nicht zurück“.

Stimmt, vom Jahr 2000 bis 2010 ging der Heizenergieverbrauch noch zurück. Seither stagniert der Verbrauch pro Quadratmeter und steigt absolut. Jener eigentlich beschlagene Artikelschreiber zerbrach sich den Kopf, ob die Schlafzimmer zu warm seien oder ob die Leute „gedankenverloren zum Fenster hinaus heizen“. Und schließt seinen Artikel damit,

Es gibt Untersuchungen, wonach viele Menschen sparsamer heizen, wenn sie die Abrechnung während der Heizperiode bekommen und nicht im Sommer“.

Frage: Sollen denn Vermieter Erzieher spielen, die Rückzahlungen im Sommer vornehmen und die Nachzahlungen erst im Winter erheben damit es weh tut? Hier eine andere Erklärung für das Problem:

Die Bevölkerung wuchs (anders als das deutsche Volk) um drei Millionen in den letzten zehn Jahren, um 3,5 Prozent. Für diesen Zuwachs wurden im gleichen Zeitraum immerhin zwei Millionen neue Wohnungen (!) gebaut, meist an die 200 000 im Jahr, aber auch einmal 300 000. Dieser Zuwachs an Wohnungen von 4,6 Prozent liegt sogar über dem Bevölkerungswachstum. Die Wohnfläche nahm sogar 5,6 Prozent zu, weil es mehr Singlehaushalte gibt. Trotzdem fehlen Wohnungen – was nicht besser wird bei weiterer Zuwanderung. Auch die Wohnfläche pro Kopf hat zugenommen, aber „nur“ um zwei Prozent und beträgt jetzt 47 m² pro Kopf. Nehmen wir einmal an, die Merkelgäste wohnen zum Eingewöhnen auf nur der Hälfte dieser Fläche, wenn sie nicht mehr in Gemeinschaftsunterkünften leben, dann ergibt sich folgende Rechnung:

Je „Neubürger“ müssen dann immerhin 56 m³ Wohnraum zusätzlich beheizt werden. Vielleicht brauchen die es auch etwas wärmer als unsereins, sie kommen ja aus dem wärmeren Süden. Drei Millionen zusätzliche Bewohner x 56 m³ ergibt 168 000 000 m³ zusätzlich zu beheizender Wohnraum! Das entspricht bei einem gedachten Quadratmeter Grundfläche der Säule mit einer Höhe der halben Entfernung bis zum Mond. Und da wundern sich welche, dass der Heizungsverbrauch mit seinem CO2-Ausstoß nicht sinken will. Auch wenn die Häuser statt 16 cm dicker Isolierung mit 20 cm eingepackt würden, kann das energetisch den Zubau infolge der Zuwanderung nicht ausgleichen. Aber solche Rechnung erfolgen von unseren Politikern vielleicht über den Daumen, von den Grünen wohl überhaupt nicht. Sonst würden sie nicht hemmungslos weitere Zuwanderung wünschen.

Es geht aber auch um Wasser, besonders warmes Wasser. Im Schnitt wurde in Deutschland schon vor fünf Jahren täglich rund 123 Liter/Person Trink- und Warmwasser im Haushalt verbraucht. Weitere 3.900 Liter Wasser pro Tag wurden für die Herstellung von Lebensmitteln, Bekleidung und anderen Bedarfsgütern verwendet, darunter für die Bewässerung von Obst, Gemüse und Getreide. Drei Millionen Menschen mehr brauchen somit täglich zwölf Millionen Kubikmeter Wasser. Die Förderung und Aufbereitung des Wassers benötigt ebenfalls Energie.

Auch der Neubau hunderttausender Wohnungen jährlich ist energieintensiv. Insbesondere mit Beton, aber auch mit anderen Baustoffen. Ebenso ist die Herstellung des aufwändigen Isoliermaterials energieintensiv. Viel Energieverbrauch emittiert viel CO2. Und Kohlendioxyd sei Klimagas und dieses schuld am Weltuntergang. Was aus Sicht der FFF-Generation auf das Konto ihrer Eltern gehe, nicht jedoch auf ihr eigenes und das ihrer neuen bunten Freunde.

Hat schon einmal jemand errechnet, wie viele Windräder und Quadratkilometer Photovoltaik erforderlich sind, um eine Million mehr Menschen zu beherbergen und zu versorgen? Ach ja, dafür sollen jetzt zwei Prozent von Deutschlands Fläche abgezweigt werden. Aber wo sollen dann die Zuwanderer wohnen, die immer mehr werden? Die Landwirtschaftsflächen werden für deren Ernährung gebraucht. Aber es gibt Schlaumeier, die auch dafür eine Lösung parat haben: Wir bräuchten angeblich ausländische Fachkräfte bis hin zu Wissenschaftlern, die für uns tätig werden sollen und alles besser können als wir Einheimische. Womit sich der Teufelskreis schließt.

Auf einem Gebiet ist ihnen zuzustimmen. Wir bräuchten mehr Journalisten von außen, die nicht an der typisch deutschen Blickverengung leiden wie eingangs erwähnt, und die meinen, dass ein sparsameres Heizverhalten der Leute eine Lösung sein könnte. Müssen wir nun etwa für die Merkelgäste frieren, damit der Mehrbedarf an Energieverbrauch kompensiert wird?

Dieser Artikel erscheint auch auf der Webseite des Autors

Zum gleichen Problem bereits erschienen auf Künstle’s Sicht: Migration, ein ökologischer Fußabdruck für Deutschland und Europa (die-andere-sicht.de)