Das Umwelt-Programm der US-Demokraten wird uns zurück ins 19. Jahrhundert bringen!

“Bekämpfung der Klimakrise und Streben nach Umweltgerechtigkeit” lautet [übersetzt] der Titel des Segments des demokratischen Programms 2020, das, falls es jemals umgesetzt wird, Amerika in die Tage vor der industriellen Revolution zurückversetzen könnte. Er besteht aus fast 3000 Wörtern und beginnt mit dem folgenden Absatz:

„Der Klimawandel ist ein globaler Notstand. Wir haben keine Zeit zu verlieren, um Maßnahmen zum Schutz des Lebens und der Zukunft der Amerikaner zu ergreifen. In den letzten vier Jahren gab es rekordverdächtige Stürme, verheerende Waldbrände und historische Überschwemmungen. Sowohl städtische als auch ländliche Gemeinden haben wirtschaftliche Verluste in Höhe von mehreren zehn Milliarden Dollar erlitten. In Michigan haben die Dämme katastrophal versagt. Die Ernten der Landwirte sind auf ihren Feldern im Mittleren Westen überflutet worden. Küstengemeinden von Florida bis New Jersey befinden sich infolge des Meeresspiegelanstiegs und stärkerer Stürme in einer existenziellen Krise. Tausende von Amerikanern sind gestorben. Und Präsident Trump leugnet immer noch gefühllos und willentlich die Wissenschaft, die erklärt, warum so viele leiden“.

Weiter wird beschrieben, wie sie die Nation dekarbonisieren und alle Aktivitäten auf Null-Emissionen bringen werden, wobei Kraftwerke bis 2035 eine Vorreiterrolle spielen werden. Innerhalb von fünf Jahren planen sie die Installation von 500 Millionen Sonnenkollektoren, 8 Millionen Solardächern zusammen mit kommunalen Solarnetzen, 60.000 Windturbinen und die Umwandlung von amerikanischem Einfallsreichtum in Arbeitsplätze zur Bereitstellung erneuerbarer Energielösungen.

Dieser Plan ignoriert einen der größten Betrügereien in neuzeitlichen Regierungen ist, nämlich die Milliarden von Dollar, die Unternehmen und Investoren aus dem Silicon Valley seit Jahrzehnten einheimsen durch Subventionen für grüne Energie. Zu den schlechten Wetten auf erneuerbare Energien gehören seit den 1970er Jahren direkte Subventionen, Regierungsdarlehen, Kreditbürgschaften, Steuervergünstigungen, üppige Zuschüsse und Regulierungsauflagen, die zugunsten von Wind- und Sonnenenergie verzerrt sind. Dennoch bleibt die so genannte grüne Energie (die in Wirklichkeit alles andere als grün ist) eine unbedeutende Quelle amerikanischer Energie, obwohl allein durch die Regierungen Bush und Obama mehr als 100 Milliarden Dollar in sie investiert wurden.

Es gibt Nischenmärkte für Wind- und Sonnenenergie, aber die Annahme, dass die derzeitigen erneuerbaren Technologien die gleichen Energiedienstleistungen erbringen können, die heute mit Öl, Kohle und Erdgas möglich sind, widerspricht der Realität. Ohne üppige Subventionen könnte die erneuerbare Energie tatsächlich ihre Nischenmärkte finden.

Amerikas vor dem Virus 18 Billionen Dollar schwere industrielle Wirtschaft kann nicht mit Windmühlen und Solarpaneelen betrieben werden, wenn wir nicht die vier Gesetze der Thermodynamik überwinden können, die den Menschen auf den Mond gebracht sowie zur Entwicklung von Mikroprozessoren, Halbleitern, unzähligen technologischen Durchbrüchen und einer Verlängerung unseres eigenen Lebens geführt haben.

Die Zukunft der erneuerbaren Energien ist nicht viel besser als ihre düstere Vergangenheit. Selbst unser Energieministerium prognostiziert, dass ihre Rolle in einem weiteren Jahrzehnt nicht mehr als zehn Prozent ausmachen wird. Selbst dieser geringe Anstieg würde von milliardenschweren Bundessubventionen abhängen, die im Programm der Demokraten enthalten ist. Es wird nur dann nicht zustande kommen, wenn die derzeitige Regierung eine Verlängerung erhält.

Europas Streben nach erneuerbaren Energien begann ein Jahrzehnt früher als das unsere und bewies die Notwendigkeit, die Subventionen zu erhöhen und die Stromtarife anzuheben. Dies wurde in der oben erwähnten Demokratischen Plattform völlig ignoriert.

Deutschland und England mussten erfahren, dass je mehr erneuerbare Energie sie in ihre Netze einspeisen, sie desto mehr Kohle verbrennen müssen, um ihre intermittierende Erzeugung zu unterstützen. Es ist ziemlich erstaunlich, dass diese Tatsache nicht allgemein erkannt bzw. geleugnet oder ignoriert wird. Wenn ein Land oder ein Unternehmen von einer gewissen Menge an Wind- oder Solarkapazität in seinen Netzen abhängig sein will, muss es eine gleiche oder größere Menge an fossilen Brennstoffen im Bereitschaft halten, die in Zeiten ohne Sonne oder Wind jederzeit zur Verfügung steht. In dem neuen Buch A Hitchhikers Journey Through Climate Change [etwa: Eine Reise per Anhalter durch den Klimawandel] erkennen die Autoren dies als die Chiccone/Lehr-Faustregel an.

Vor einigen Jahren kündigte Google an, dass es bald ausschließlich mit erneuerbarer Energie betrieben werden würde. Nicht lange danach musste man aber zugeben, dass es sich um eine große Fehlkalkulation handelte. Man musste zur Kenntnis nehmen, dass der Übergang zu grünen Stromsystemen zwei- bis dreimal mehr Erzeugungskapazität erfordern würde, um die gleiche Strommenge zu liefern wie ein Kohle- oder Erdgaskraftwerk. Trotzdem behauptet Amazon jeden Tag in Fernsehspots, dass sie alle innerhalb von 5 Jahren erneuerbar sein werden. Der Bildschirm zeigt Dutzende von wirbelnden Windturbinen, während der Erzähler diesen Unsinn von sich gibt. Es ist schlicht und ergreifend nicht machbar.

Google erkannte auch, dass diese Strukturen enorme Mengen an Stahl, Beton, Kupfer, Glas, Kohlefaser, vielen seltenen Erden und große Mengen an Energie benötigen, um sie zu entwickeln.

Die Praxis, die amerikanischen Steuerzahler zur Finanzierung von Hirngespinsten über alternative Energiequellen zu schröpfen, geht auf die späten 1970er Jahre zurück. Die Carter-Regierung gab Milliarden von Dollar für die Synthetic Fuels Corporation aus, eines der größten „Wohlfahrts“-Unternehmen in der amerikanischen Geschichte. Der verstorbene F.A. Hayek nannte dies die „fatale Überheblichkeit“, da er dachte, Politiker wüssten, wohin die Zukunft geht.

Der vielleicht größte Wahn von allen sind die Hunderttausende von Arbeitsplätzen, die inmitten der Umstellung auf erneuerbare Energien versprochen werden. Trotz des Versprechens von Präsident Obama, im Falle seiner Wahl innerhalb von zehn Jahren fünf Millionen grüne Arbeitsplätze zu schaffen, kam nur ein sehr kleiner Bruchteil zustande. Eine Studie des Instituts für Energieforschung aus dem Jahr 2013 ergab, dass für die 26 Milliarden Dollar, die zwischen 2009 und 2016 für Kreditgarantieprojekte des Energieministeriums zugesagt wurden, nur 2298 dauerhafte Arbeitsplätze geschaffen wurden. Das entspricht 11,45 Millionen Dollar, die der Steuerzahler für jeden Arbeitsplatz ausgegeben hat.

Das Büro des Generalinspekteurs der Arbeitsabteilung prüfte einen Zuschuss in Höhe von 500 Millionen Dollar an die Beschäftigungs- und Ausbildungsverwaltung, um Personen auf eine Karriere in „grünen Berufen“ vorzubereiten. Der Bericht stellte fest, dass von 80.000 Teilnehmern nur 8.035 der Ausgebildeten eine Arbeitsstelle gefunden hatten und nur 1.033 von ihnen länger als sechs Monate angestellt waren. Mr. Bidens Bilanz, so er gewinnen sollte, wird wahrscheinlich nicht viel besser ausfallen.

Noch mehr Schikane steckt in dem grünen Jobwahn, der deutlich wird, wenn man die vielen als grün gezählten Jobs sieht, was einen zum Lachen bringt. Zu ihnen gehören EPA-Aufsichtsbehörden, Ökologieprofessoren an Universitäten, Schulbusfahrer, Fahrradwerkstatt-Angestellte und sogar Lobbyisten in Washington DC, die sich mit grüner Finanzierung befassen.

Zum Glück für uns ist das demokratische Programm völlig transparent. Wenn die Öffentlichkeit es lesen würde, kann sie nicht vorgeben, getäuscht worden zu sein, wenn sie ihr Wahlkreuzchen entsprechend setzt.

Portions of this article were excerpted directly from the book “Fueling Freedom” with permission of the authors Steve Moore and Kathleen White. The book is recommended as the very best treatise on American energy yet to be written.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2020/08/11/the-democrats-enviro-platform-will-drag-you-back-to-the-19th-century/

Übersetzt von Chris Frey EIKE




Aus dem wöchentlichen WUWT-Klimarundbrief

Vor vier Wochen überprüfte TWTW [The Week That Was] die neue Studie von Richard Lindzen, in dem er zusammenfasst, was wir mit hinreichender Sicherheit wissen, was wir vermuten und von was wir wissen, was in Bezug auf Klimawandel, Treibhauseffekt, Temperaturtrends, Klimamodellierung, Ozeanchemie und Meeresspiegelanstieg falsch ist. Grundlegende Erkenntnisse sind u. A. Folgende (mit Ergänzungen in Fettschrift):

1) Das Klimasystem befindet sich niemals im Gleichgewicht.

2) Im Mittelpunkt des Systems befinden sich zwei turbulente Flüssigkeiten, die miteinander in Wechselwirkung stehen und von der Sonne ungleichmäßig erwärmt werden, was zu einem Wärmetransport vom Äquator zu den Polen (meridional) führt, wodurch wiederum Ozeanzyklen entstehen, die bis zu 1000 Jahre dauern können.

3) Die beiden wichtigsten Akteure im Treibhauseffekt sind Wasserdampf und Wolken, die nicht vollständig verstanden und nicht stabil sind.

4) Ein lebenswichtiger Bestandteil der Atmosphäre ist Wasser in seinen flüssigen, festen und gasförmigen Phasen, und die Veränderungen der Phasen haben immense dynamische Konsequenzen.

5) Die Verdoppelung des Kohlendioxids (CO2) verursacht eine 2%ige Beeinflussung des normalen Energieflusses in das System hinein und aus dem System heraus, was der Beeinflussung durch Veränderungen der Wolken und anderer natürlicher Merkmale ähnelt. Angesichts der turbulenten Bedingungen des Klimasystems, die nicht durch Gleichungen beschrieben werden können, hat das Konzept der Forcings wenig Bedeutung.

6) Die Temperaturen in den Tropen waren extrem stabil. Es sind die Temperaturunterschiede zwischen den Tropen und den Polarregionen, die extrem wichtig sind. Berechnungen wie die der globalen Durchschnittstemperatur lassen diesen bedeutenden Unterschied weitgehend außer Acht.

Vor drei Wochen nutzte TWTW die Arbeit von William van Wijngaarden und William Happer (W & H), um zusammenzufassen, was wir mit hinreichender Sicherheit wissen, was wir vermuten und was wir über den Treibhauseffekt nicht wissen. Beide Herren sind Experten auf dem Gebiet der Atom-, Molekular- und optischen Physik (AMO), was bei weitem keine einfache Physik ist, aber notwendig, um zu verstehen, wie Treibhausgase die Abstrahlung von Energie von der Oberfläche in den Weltraum beeinflussen (verzögern) – d.h. um die Prozesse zu verstehen, durch die die Erde jede Nacht Wärme verliert.

1) Es gibt kein allgemeines Verständnis des Treibhauseffektes, das ausreicht, um elegante Gleichungen zu entwickeln.

2) Die optische Tiefe oder optische Dicke der Atmosphäre (Transparenz) ändert sich mit zunehmender Höhe. Die Tiefe wird in Form eines natürlichen Logarithmus gemessen und bezieht sich in diesem Fall auf die Entfernung, die ein Photon einer bestimmten Frequenz zurücklegen kann, bevor es von einem geeigneten Molekül absorbiert wird (eines, das Photonen dieser Frequenz absorbiert und wieder aussendet).

3) Im Gegensatz zu anderen natürlichen Treibhausgasen ist Wasserdampf, das dominierende Treibhausgas, nicht gleichmäßig in der Atmosphäre verteilt. [SEPP-Kommentar: Die Variabilität des Wasserdampfs während des Tages und die Bildung von Wolken aus H2O usw. machen theoretische Berechnungen der „Klima“-Dynamik mit beliebigen Werten unmöglich. Da Wasserdampf stündlich, täglich und jahreszeitlich und je nach Ort variiert, erkannte der Charney-Bericht, dass eine vernünftige Berechnung unmöglich ist. Also ging er den falschen Weg, H2O zu ignorieren, und nahm einen CO2-Wert an, um kam dann mit einem „Feedback“-Konzept aufzuwarten, um zu versuchen, H2O zu berücksichtigen. Das Konzept scheitert und ist nach wie vor eine schlechte Modellierungspraxis, die Misserfolge produziert.

4) Es besteht eine logarithmische Beziehung zwischen Treibhausgasen und Temperatur.

5) „Sättigung“ bedeutet, dass das Hinzufügen weiterer Moleküle nur eine geringe Veränderung der Erdstrahlung in den Weltraum bewirkt. Der sehr enge Bereich, in dem Methan (CH4) Photonen absorbieren und emittieren kann, liegt unterhalb der Tropopause, wo die Atmosphäre dick ist, bereits durch Wasserdampf (H2O), das dominierende Treibhausgas, gesättigt. Daher hat die Zufuhr von Methan wenig Einfluss auf die Temperaturen.

6) Die hochauflösende Transmissions-Molekular-Absorptions-Datenbank (HITRAN) ist eine Zusammenstellung spektroskopischer Parameter zur Berechnung und Simulation der Transmission und Emission von Licht in der Atmosphäre. Das Datenbankprojekt wurde Ende der 1960er Jahre von den Air Force Cambridge Research Laboratories (AFCRL) als Antwort auf den Bedarf an detaillierten Kenntnissen über die Infraroteigenschaften der Atmosphäre gestartet. „Das Ziel von HITRAN ist ein in sich konsistenter Satz von Parametern. Gleichzeitig besteht jedoch die Anforderung, möglichst genaue Parameter zu archivieren. Es muss betont werden, dass die in HITRAN vorhandenen Parameter eine Mischung aus berechneten und experimentellen Parametern sind. Häufig sind die experimentell ermittelten Werte genauer als die berechneten und umgekehrt“. Aus dieser Datenbank berechnen W & H, dass eine Verdoppelung des CO2 die Temperaturen um nicht mehr als 1,5 ⁰ C erhöht – eine obere Grenze auf der Grundlage dessen, was wir heute über die Atmosphäre wissen. Diese Obergrenze ähnelt der, die von den erfahrenen Apollo-Wissenschaftlern und Ingenieuren des TRCS-Teams berechnet wurde. Die Apollo-Veteranen nahmen an den Meilensteinen des Raumfahrtprogramms der NASA teil.

Vor zwei Wochen überprüfte TWTW die Probleme mit Modellen, wie sie vom etablierten japanischen Klimamodellierer Mototaka Nakamura diskutiert und in einer neuen Studie von Ross McKitrick und John Christy aufgezeigt wurden. Zuvor fasste Tony Thomas einige der von Nakamura erkannten Hauptprobleme zusammen:

● Unwissenheit über groß- und kleinräumige Ozeandynamik.

● Völliges Fehlen aussagekräftiger Darstellungen von Aerosolveränderungen, die Wolken erzeugen.

● Mangelndes Verständnis der Treiber von Eis-Albedo-Rückkopplungen (Reflektivität): „Ohne eine einigermaßen genaue Darstellung ist es unmöglich, aussagekräftige Vorhersagen über Klimaschwankungen und -änderungen in den mittleren und hohen Breiten und damit auf dem gesamten Planeten zu machen.

● Unfähigkeit, mit Wasserdampfelementen umzugehen.

● Willkürliche „Anpassungen“ (Fudges) von Schlüsselparametern, die nicht verstanden werden.

Ferner lehnt Nakamura das Konzept des IPCC ab, dass der Einfluss des CO2 hinzufügenden Menschen durch Modelle vorhergesagt werden kann. Er stellt fest:

Ich möchte auf eine einfache Tatsache hinweisen, dass es unmöglich ist, auch nur den Sinn oder die Richtung der Veränderung eines Systems korrekt vorherzusagen, wenn das Vorhersageinstrument wichtige nichtlineare Prozesse, insbesondere Rückkopplungen, die im tatsächlichen System vorhanden sind, vermisst und/oder grob verzerrt“. Kurz gesagt, wir wissen einfach nicht, ob die Rückkopplungen Störungen des Systems verstärken oder dämpfen werden“.

Nakamura stellt weiter fest, dass zwei Hauptprobleme in den Modellen die Ozeanströmungen (Ozeanzirkulation) und das Wasser in der Atmosphäre sind. Beide Probleme werden von Lindzen benannt.

McKitrick und Christy testeten die aus 38 neuen CMIP6-Modellen berechneten Werte für den Zeitraum von 1979 bis 2014 mit Datensätzen aus drei verschiedenen Arten von Beobachtungen. 1) Vier verschiedene Sätze von Radiosonden- (oder Sonden-)Daten von Wetterballonen. 2) Vier verschiedene Datensätze von Mikrowellensensoren an Bord polumlaufender Satelliten, die die Intensität der Mikrowellenemissionen von Luftsauerstoff messen, welche direkt proportional zur Temperatur sind. 3) Vier verschiedene Datensätze, bekannt als Reanalysen, zwei aus Europa, einer aus Japan und einer aus den USA, NASA.

Die 12 Datensätze decken 35 Jahre ab und sind seit mindestens 5 Jahren verfügbar. Die drei verschiedenen Arten von Datensätzen aus Beobachtungen sind sowohl für den globalen als auch für den tropischen Raum eng gruppiert. Bei den meisten Modellen liegt der Mittelwert für Satellitenbeobachtungen unter dem unteren Teil des 95%-Konfidenzintervalls für dieses Modell, was darauf hinweist, dass das Modell keine atmosphärischen Temperaturtrends abschätzen kann. Wie Nakamura geschrieben hat, haben die globalen Klimamodelle keinerlei Vorhersagewert. Das IPCC und seine Anhänger haben sich eindeutig von der wissenschaftlichen Methode verabschiedet und in die Welt der wilden Spekulation eingestiegen.

TWTW vom 27. Juni knüpfte an Roy Spencers Vergleich der Ergebnisse von 13 CMIP6-Modellen mit Temperaturdaten an der Erdoberfläche an, die weit weniger umfassend als atmosphärische Daten sind und viel mehr menschlichen und natürlichen Einflüssen unterliegen als atmosphärische Daten. Die CMIP6-Modelle erzeugen deutlich mehr Erwärmung als die älteren CMIP5-Modelle und überschätzen die HadCRUT4-Oberflächenerwärmung tendenziell um etwa 50%. Daher haben die getesteten Klimamodelle wenig oder keine nachgewiesene Fähigkeit zur Vorhersage von Temperaturtrends jetzt oder in der Zukunft.

In der vergangenen Woche erörterte TWTW zwei Versuche, den Einfluss von Kohlendioxid zu verzerren: erstens die Veränderung der Ozeanchemie, die so genannte Versauerung der Ozeane, und zweitens den so genannten beschleunigten Anstieg des Meeresspiegels. Einige der fruchtbarsten Gebiete der Ozeane sind jene mit stärkerem Aufwallen, weil dabei Tiefenwasser an die Oberfläche kommt, welches Nährstoffe und vermehrt Kohlendioxid aus der Tiefe mitbringt. Dies wiederum fördern die Photosynthese, das pflanzliche und tierische Leben und den Beginn der marinen Nahrungskette. Wie Jim Steele beschrieb, erlebte der pazifische Nordwesten der USA in den Jahren 2006 bis 2008 einen besonders starken Auftrieb, der zu einem Absterben der Austern führte.

Das Absterben erfolgte nicht durch atmosphärisches CO2, sondern durch die Austernindustrie, die pazifische Austern aus Japan importierte, welche sich im Nordwestpazifik nicht entwickelt haben. Diese Austern geben ihre Eier einfach ins Wasser ab, weil sie sich in Gewässern ohne rasche Änderungen des pH-Wertes infolge Aufwallen entwickelt haben. So starben die Eier und Larven in den Jahren 2006-2008 bei starken Veränderungen des pH-Wertes ab. Umgekehrt „brüten“ die im pazifischen Nordwesten heimischen Olympia-Austern ihre Larven in ihren Schalen, wo der pH-Wert besser kontrolliert wird. Diese natürlichen Bedingungen, die das Absterben in den Jahren 2006-2008 verursachten, wurden durch die Handlungen der Austernzüchter im Nordwesten kompliziert.

Bei der Erörterung der sogenannten Beschleunigung des Meeresspiegelanstiegs erörterte TWTW die beobachtete Änderungsrate des Meeresspiegels am geologisch stabilen Newlyn, Cornwall, England, wie in einem Beitrag von E. Bradshaw im Journal of Marine Geodesy dargelegt. Es gibt zwei verschiedene Änderungsraten, eine hundertjährige Änderungsrate, gemessen mit Gezeitenmessern von 1,8 mm pro Jahr. Die zweite Änderungsrate beträgt 3,8 mm pro Jahr über einen Zeitraum von 11 Jahren (von 1993-2014), gemessen durch Satelliten. Man kann nicht sagen, dass die zweite Änderungsrate die richtige ist und dass sich der Anstieg des Meeresspiegels beschleunigt, denn während der hundertjährigen Aufzeichnung der Gezeitenpegel gab es mehrere andere Perioden mit ähnlichen Änderungsraten wie die des Satelliten. Daher ist die Behauptung, dass der Meeresspiegelanstieg zunimmt, eine übereilte Schlussfolgerung, die auf einem Wechsel der Instrumentierung beruht.

Link: https://wattsupwiththat.com/2020/08/10/weekly-climate-and-energy-news-roundup-419/
Übersetzt von Chris Frey EIKE




McIntyre über die Studie von Kaufman et al. 2020 -Wie man wieder mal Daten zurecht biegt.

Andrew Revkin lobhudelte gerade über die Studie auf Twitter, als sich McIntyre einschaltete.

Hier die vollständige Replik von Steven McIntyre:

1: Ich fragte mich, warum sich ihre neue Antarktis-Rekonstruktion so dramatisch von PAGES2K von vor nur sieben Jahren unterschied – eine Frage, über die sowohl die Autoren als auch die Gutachter hätten nachdenken sollen. Der Unterschied ergibt sich hauptsächlich aus einem katastrophalen Fehler und 2 unplausiblen neuen Datenreihen.

2: Der größte Unterschied zu PAGES2K – und der Hauptgrund für das „neue“ Blatt – lag in Kaufmans Version der Dahl-Jensen-Bohrloch-Inversionsreihe. Kaufman bekommt einen Hockeyschläger (HS) heraus (schlechter mit Gruppierung [binning]) – im Gegensatz zum Original.

3: Wie haben sie also ein so unterschiedliches Aussehen erhalten? Totaler Schwachsinn. Sie senkten den frühesten Dahl-Wert und kehrten dann die Jahre um. So wurde für 1995 n. Chr. der Dahl-Wert von 5502 v. Chr. verwendet, von 4438 v. Chr. 1987 und so weiter. Ein Patzer von Mann’schen Proportionen.

4: Es war leicht zu bemerken. Ich habe dies innerhalb eines Tages oder so nach der Veröffentlichung getwittert. Es gibt zwei weitere sehr fragwürdige „neue“ Serien. Anstatt die neue WAIS-Isotopenserie – die höchstauflösende antarktische Serie über das Holozän – zu verwenden, zogen sie eine WAIS-Bohrloch-Umkehrung heran.

5: Darin sind die Isotope eine Art Randgebiet. Die bei der Bohrloch-Inversion verwendeten Inversionsmatrizen sind enorm vielschichtig, so dass die Inversionsmatrix sehr instabil ist. Dieses ganze Verfahren sollte aus diesen Gründen verworfen werden. Es gibt jedoch ein besonderes Problem mit Eiskern-Inversionen.

6: Es gibt sehr starke jahreszeitliche Schwankungen der Temperaturen der antarktischen Eiskernbohrungen um die oberen 15 Meter oder so. In dem veröffentlichten Artikel über die WAIS-Inversion schlossen sie den oberen Teil aus – das sind die Schichten, die nach 1960 oder so abgelagert wurden. Daher der vermeintliche jüngste Aufwärtstrend im WAIS

7: Die Rekonstruktion der Temperatur ergibt sich aus Eisschichten, die vor 1960 abgelagert wurden. Es ist eine wirklich stupide Serie. Und doch ist die WAIS-Isotopenserie über lange Serien fantastisch hochauflösend. d18O-Serien sind das Rückgrat des Paläoklimas – warum haben sie also nicht einfach d18O verwendet?

8: Man kennt die Antwort. Die WAIS-d18O-Reihe zeigte keinen Hockeyschläger. Daher zogen sie die idiotische Eiskern-Inversion heran, in welcher dies doch der Fall war.

9: die einzige andere Serie, die zum „neuen“ HS beiträgt, ist eine Schmelzschicht-Frequenzreihe von der Bohrstelle Siple Dome – von wo es eine Isotopenreihe gibt. Der Siple Dome liegt in der Nähe des Ross-Meeres, wo die Eisschicht während des Holozäns allmählich erodiert ist, da sie auf See geerdet ist. Infolgedessen, …

10: … obwohl die Isotopendaten einen leichten Temperaturrückgang gegenüber dem Holozän zeigen, gab es einen leichten Anstieg der Schmelzfrequenz in Siple Dome. Sie berechneten diese Serie als eine laufende Summe von Schmelzschichten in den vergangenen 1000 Jahren, die Kaufman fälschlicherweise als Jahresauflösung verwendete.

11: Kaufman hat diese Serie dann auf Eis gelegt. Wenn man diese schlechten Daten überhaupt verwenden würde, müsste man die Originaldaten speichern, nicht die laufenden 1000 Jahre. Wenn Sie das täten, dann reicht es maximal 500 Jahre zurück, nicht im 20. Jahrhundert.

12: Im Gegensatz zu Isotopenreihen, die an vielen Orten und mit vielen bekannten Eigenschaften und Unwägbarkeiten aufgenommen wurden, eignet sich die Verwendung einer Singleton-Reihe, bei der es keine Vergleiche in der Region gibt, auch für missbräuchliches „Cherrypicking“, wie es hier der Fall war.

13: Ich habe nicht auf andere Regionen geschaut, aber Kaufmans Rekonstruktion der Antarktis ist ein Chaos und muss zurückgezogen werden. Man erinnert sich vielleicht daran, dass Kaufmans arktische PAGES2K-Serie in Island und Grönland, die ähnlich verunreinigt waren, in ähnlicher Weise auf den Kopf gestellt wurde.

14: zu den kontaminierten finnischen See-Sedimentserien (die auch invertiert wurden) stützte man sich auf Manns vermeintliche No-Dendro-Rekonstruktion aus dem Jahr 2008.

Link: https://wattsupwiththat.com/2020/08/12/mcintyre-on-kaufman-et-al-2020/
Übersetzt von Chris Frey EIKE




Kaskaden von Irrtümern bei der Bewertung von Klimarisiken

Hier geht es nicht um Neuseeland. Die Verfasser der Bewertung machen deutlich, dass es sich um einen neuen Ansatz handelt, von dem sie hoffen, dass er weltweit Anwendung findet. Es geht hier also um die Welt, einschließlich Amerika.

Der umfangreiche Report trägt den Titel [übersetzt] „Erste nationale Risikobewertung des Klimawandels für Neuseeland“. Nach dem neuseeländischen Klimagesetz sollen diese Bewertungen alle fünf Jahre durchgeführt werden, und dies ist die erste.

Der Umfang ist atemberaubend. Es geht darum, alle signifikanten Risiken des vom Menschen verursachten Klimawandels zu identifizieren, die in den Jahren 2050 und 2100 auftreten werden. Darüber hinaus werden diese vermeintlichen Risiken priorisiert.

Leider ist dieses aufwendige Verfahren nur eine Kaskade von Trugschlüssen. Einige der wichtigsten sind nachstehend aufgeführt.

Zunächst sagen sie mit Hilfe von Computermodellen genau aus, wie das durchschnittliche Wetter in den Jahren 2050 und 2100 aussehen wird. Dazu gehören kurz- und langfristige Temperaturen, Niederschlagsmuster und andere Klimaeigenschaften.

Der Trugschluss ist, dass es heute kein Computermodell gibt, das solche Vorhersagen genau treffen kann. Verschiedene wichtige Modelle sind sich bei der Vorhersage all dieser Merkmale sehr uneinig. Zum Beispiel liegt die Sensitivität des Modells für die CO2-Verdoppelung zwischen 1 und 6 Grad Celsius, was eine riesige Spanne ist.

Zweitens verwenden sie den Durchschnitt der so genannten CMIP5-Klimamodellläufe. Dabei handelt es sich um Läufe mit einer großen Anzahl von Klimamodellen, die in den IPCC-Prozess einfließen sollen. (Hier gibt es mehrere Probleme. Insbesondere sind die Modelle alle so darauf fixiert, dass alle wesentlichen Kräfte menschlichen Ursprungs sind, aber das ist eine andere Frage).

Der Trugschluss ist, dass es keinen Grund gibt zu glauben, der Durchschnitt aus einer Vielzahl schlechter Modelle sei gut. Tatsächlich hat sich gezeigt, dass der CMIP5-Durchschnitt im Vergleich zur beobachteten Erwärmung diese drastisch übertreibt. (CMIP6 ist sogar noch schlechter).

Drittens entscheiden sie sich dann für die Modellierung eines „wild worst case“-Emissionsszenarios namens „RCP 8.5“. Dieses Szenario für zukünftige Emissionen ist so hoch, dass es als unmöglich kritisiert wurde. Die Verwendung des RCP 8.5 ist sicherlich ein Trugschluss.

Viertens machen sie das, was man „Scale-Verkleinerung“ dieser fragwürdigen Modell-Ergebnisse nennt. Scale-Verkleinerung bedeutet, die groben Modell-Ergebnisse für ein großes Gebiet zu nehmen und irgendwie Ergebnisse für bestimmte Orte zu erzeugen. Es gibt keine wissenschaftliche Methode, um aus den großräumigen Vorhersagen des Modells kleinskalige Vorhersagen abzuleiten. Die Daten sind einfach nicht vorhanden. Wie auch immer es gemacht wird, es ist willkürlich.

Neuseeland ist geographisch ziemlich klein mit einer Landfläche von etwas mehr als 100.000 Quadratmeilen, was ungefähr der Größe von Colorado entspricht. Die Risikoeinschätzung teilt Neuseeland in 8 winzige Zonen ein, für die jeweils eine einzigartige Klimavorhersage gilt. Dies ist ein eklatanter Trugschluss.

Fünftens wurden diese unmöglichen kleinskaligen Vorhersagen dann von einer großen Zahl von Menschen auf unterschiedlichste Weise diskutiert, um alle bedeutenden Risiken zu definieren. Dies ist eine Übung in Phantasie, nicht in Wissenschaft. Aus der Entscheidungstheorie ist bekannt, dass die Ergebnisse solcher Gruppen-Diskutiererei stark davon abhängen, wer da ist, was ihnen gegeben wird und wie sie geleitet werden.

Der Trugschluss besteht hier darin, so zu tun, als handele es sich um eine systematische Bestandsaufnahme von Risiken, die sich als Grundlage für politische Entscheidungen eignet.

Sechstens wurden die vermeintlichen Risiken auf der Grundlage einer Umfrage unter den Teilnehmern in eine Rangfolge gebracht. Zu dem Problem der Gruppen-Diskutiererei kommt noch die lästige Tatsache, dass das Risiko ein zweidimensionales Konzept ist, so dass Risiken nicht einfach in einer Dimension eingestuft werden können. Jedes Risiko hat sowohl einen Schweregrad als auch eine Wahrscheinlichkeit.

Im Allgemeinen lohnt es sich nicht, Risiken mit hohem Schweregrad, aber geringer Wahrscheinlichkeit zu behandeln. Meteoriteneinschläge sind ein Standardbeispiel (die Auswirkung ist wirklich eine Auswirkung). Dasselbe gilt für Risiken mit hoher Wahrscheinlichkeit, aber niedrigem Schweregrad. Was man sucht, sind Risiken, die einen relativ hohen Schweregrad mit einer relativ hohen Wahrscheinlichkeit verbinden.

Diese 2-Wert-Rangliste wurde nicht erstellt, was den Trugschluss einer einzigen Risikoeinstufung nahe legt.

Der siebte Trugschluss liegt noch vor uns. Diese falsch gereihte Liste imaginierter Risiken, die auf einer willkürlichen Scale-Verkleinerung eines Durchschnitts fragwürdiger Ergebnisse von Computermodellen auf der Grundlage eines unmöglichen Szenario beruht, soll in zwei Jahren zu einem Nationalen Anpassungsplan führen. Das wäre ein Mega-Trugschluss.

Was die amüsante Seite betrifft, so denke ich, dass man das am höchsten eingestufte Risiko richtig eingeschätzt hat. Das ist das Risiko, dass die Regierung das Falsche tut. Dem stimme ich voll und ganz zu, vor allem, wenn sie diese Risikobewertung verwendet.

Sehr lustig ist auch das Risiko „Gebt uns viel mehr Geld“. Es geht so:

Risiko einer verzögerten Anpassung und Fehlanpassung aufgrund von Wissenslücken, die sich aus zu geringen Investitionen in die Anpassungsforschung und den Aufbau von Anpassungs-Kapazitäten im Bereich des Klimawandels ergeben.

Zusammenfassung der Risiken:

Unterdurchschnittliche Investitionen in Forschung und Kapazitätsaufbau, um das Verständnis für die Risiken und Auswirkungen des Klimawandels zu verbessern, untergraben Neuseelands Fähigkeit, eine evidenzbasierte Anpassungspolitik zu entwickeln. Kritische Forschungslücken beziehen sich auf:

– atmosphärische Prozesse
– Auswirkungen des hydrologischen Zyklus‘
– Reaktionen des Ökosystems
– Biodiversität und Biosicherheit
– ländliche und städtische Gemeinden in Neuseelands
– die ökonomischen Kosten des Klimawandels
– Auswirkungen auf den primären Sektor
– Auswirkungen auf Gesundheit und Gesundheitsdienste
– Durchführung der Klimawandel-Anpassung bei verschiedenen Größenordnungen

Diese Forschungslücken sind ein entscheidendes Hindernis für eine fundierte Entscheidungsfindung. Auch wenn diese Lücken bestehen bleiben, sind unangepasste Maßnahmen ein zentrales Risiko“. (Seite 188)

Angesichts all dieser signifikanten Lücken sollte man meinen, dass eine genaue Bewertung zu dem Schluss kommen würde, dass zum gegenwärtigen Zeitpunkt keine Risikobewertung möglich ist. Das ist meine Einschätzung.

Schlussfolgerung:
Die neuseeländische Klima-Risikoeinschätzung ist eine Kaskade von Trugschlüssen, die als Grundlage politischer Entscheidungen absolut ungeeignet ist.

Autor: David Wojick, Ph.D., is an independent analyst working at the intersection of science, technology and policy.

Link: https://wattsupwiththat.com/2020/08/10/cascading-fallacies-in-climate-risk-assessment/
Übersetzt von Chris Frey EIKE




Ist das 30-prozentige Klimabudget der EU nur ein grüner Anstrich?

Unter ihrer Führung schlug die Kommission vor, 25% des Siebenjahreshaushalts der Europäischen Union und des Coronavirus-Wiederherstellungspaketes für „Klimaziele“ auszugeben – obwohl der ursprüngliche Vorschlag noch vor ihrer Präsidentschaft vorlag.

Die EU-Regierungen drängten auf noch mehr und verpflichteten sich, 30 % des EU-Haushalts für den Klimaschutz auszugeben – ein Sprung von 10 % gegenüber dem Haushalt 2014-20. Bei einem Gesamtpaket von 1,8tn Euro beläuft sich das Klimaziel auf 600 Milliarden Euro.

Aber während das auf dem Papier gut klingen mag, bleiben die Umweltschützer skeptisch.

„Das Problem ist gerade jetzt, dass es sich zu einer massiven Grünfärberei entwickelt hat“, sagte Berenice Dupeux, Senior Policy Officer für Landwirtschaft beim Europäischen Umweltbüro, einem Netzwerk verschiedener Umweltgruppen. Ihren Worten zufolge würde der größte Teil der Ausgaben, die die EU unter ihrem Klimaschutz-Dach zähle – etwa 50% – nicht wirklich für die Umwelt ausgegeben werden. Stattdessen gingen sie in die Gemeinsame Agrarpolitik der Union, ohne zusätzliche Klimakriterien festzulegen. Und ein großer Teil dieses Geldes wurde als Direktzahlung an die Landwirte ausgezahlt, um deren Einkommen zu stützen.

Da die Kommission jedoch von den Landwirten erwartet, dass sie die von der EU eingeführten Umweltvorschriften einhalten, zählt sie automatisch 20% der Direktzahlungen als für das Klimaziel bestimmt. Da die Standards aber nur das absolute Minimum seien und niemand prüfe, wofür die Landwirte das Geld verwenden, entspreche der Prozentsatz nicht der Realität. Dupreux behauptete, dass ein Großteil dieses Ansatzes, der ihrer Meinung nach nicht wissenschaftlich belegt sei, auf politischen Druck zurückzuführen ist.

Da die Kommission oft von der Zustimmung der 27 Regierungen im Block abhängig ist, zielten ihre Regeln darauf ab, einen Ausgleich zwischen den verschiedenen Interessen herzustellen. Die nationalen Landwirtschaftsminister wiederum würden es nicht gutheißen, die Mittel der Direktbauern zu kürzen und stattdessen reine Klimaaktivitäten zu finanzieren.Und weiter: „Politisch werden sie nicht überleben, wenn sie das tun. Sie wollen den Topf mit dem Geld, das für soziale Belange ausgegeben wird, nicht anrühren und es auf das Klima verlagern“, sagte sie.

Die Europäische Kommission wies den Vorwurf zurück. „Dies ist das größte grüne Investitionspaket, das die Welt je gesehen hat“, sagte ein Kommissionssprecher. „Die Ambitionen für ein grüneres, stärkeres und widerstandsfähigeres Europa werden Leitprinzipien der EU der nächsten Generation und des nächsten langfristigen Haushalts bleiben“.

Der Sprecher sagte, dass sie einer „klaren und gut etablierten“ Methode zur Messung des Fortschritts folgte, nämlich den so genannten Rio-Markern. Die Rio-Marker messen, ob die Reduzierung der Treibhausgasemissionen das Hauptziel einer Aktivität ist, ein sekundäres, aber signifikantes Ziel, oder ob sie überhaupt nicht auf den Klimawandel abzielt.

Abhängig von dieser Bewertung wird angegeben, wie viel Prozent einer Ausgabenaktivität für den Klimaschutz aufgewendet wurden.

Für Dupeux brachte die Anwendung dieser Methode durch die EU keine greifbaren Ergebnisse, da sie nicht die tatsächlichen Auswirkungen eines Projekts auf das Klima untersuchte. Markus Trilling, Koordinator für Finanz- und Subventionspolitik beim Climate Action Network, schloss sich ihrer Einschätzung an und sagte, dass viel klarere Maßstäbe erforderlich seien, um zu beurteilen, für welche Projekte und Investitionen das Geld ausgegeben werden sollte.

Der derzeitige Haushaltsansatz zum Thema Klima, so Trilling, „ist eher eine buchhalterische Übung als ein strategischer, vorausschauender Planungsansatz“. Aber die Kommission sagte, dass ihre Agrarpolitik von den EU-Ländern verlange, dem Klima genügend Gewicht beizumessen. „Die Mitgliedsstaaten werden die rechtliche Verpflichtung haben, im Hinblick auf die Sorge um die Umwelt und das Klima deutlich mehr Ehrgeiz als derzeit zu zeigen“, sagte ein Sprecher.

Der ganze Beitrag steht hier.
Link: https://wattsupwiththat.com/2020/08/07/is-the-eus-30-climate-budget-greenwashing/
Übersetzt von Chris Frey EIKE
Anmerkung des Übersetzers: Es ist unglaublich, für welchen Unsinn so viel von unserem Steuergeld verbrannt wird! Die Übersetzung dieses Beitrags soll das mal belegen.