Gibt es wirklich eine Klimakrise?

Ivor Williams

Summary

Es gibt zwei Gründe, daran zu zweifeln, dass unser sich veränderndes Klima eine „Krise“ ist:

1. Die Wissenschaft basiert weitgehend auf steigenden globalen Temperaturwerten. Doch diesen wird durch ihre unglaubliche Messung auf ein Hundertstel Grad Celsius eine falsche Aura der Genauigkeit verliehen.

2. Das Wetter und das Klima in England und Wales werden viel länger als anderswo auf der Welt genauer überwacht. Warum gibt es in den Temperatur-, Niederschlags-, Sturm- und Gezeitenmessungen keine Spur eines Klimanotstands?

Man macht uns weis, dass es einen Klimanotstand gibt

Die britische Regierung im Mai 2019: „Die Abgeordneten haben einem Antrag zugestimmt, einen Umwelt- und Klimanotstand auszurufen …. Dieser Vorschlag, der den Willen des Unterhauses demonstriert … wurde ohne Abstimmung angenommen.

Die Lehrer wurden durch ein 29-seitiges Handbuch ermutigt, Maßnahmen zu ergreifen: „Wie erklärt man einen Klimanotstand an Ihrer Schule oder Hochschule … Erklären Sie einfach einen Klimanotstand oder proklamieren Sie einen BEDEUTENDEN Klimanotstand? Eine sinnvolle Klimanotstandserklärung erfordert direktes Handeln und messbare systemische Veränderungen.“

Lokale Verwaltungen im Vereinigten Königreich schlossen sich schnell an: „300/404 (74 %) der District, County, Unitary & Metropolitan Councils haben bis heute den Klimanotstand ausgerufen. Auch 8 zusammen hängende Behörden/Stadtregionen.“ (Oktober 2021)

Die UN fügten weitere Details hinzu: ‚Der Klimawandel ist die entscheidende Krise unserer Zeit, und er vollzieht sich noch schneller als wir befürchtet haben … Steigende Temperaturen führen zu Umweltzerstörung, Naturkatastrophen, Wetterextremen, Nahrungsmittel- und Wasserversorgungsunsicherheit, wirtschaftlichen Störungen, Konflikten und Terrorismus. Der Meeresspiegel steigt, die Arktis schmilzt, Korallenriffe sterben ab, die Ozeane versauern und die Wälder brennen‘.

Das IPCC ist das Gremium der Vereinten Nationen, das die wissenschaftlichen Erkenntnisse über den Klimawandel bewertet: „Wissenschaftler beobachten in allen Regionen der Erde Veränderungen des Klimas“, heißt es in ihrem Bericht vom August 2021. Viele der beobachteten Veränderungen … sind seit Tausenden, wenn nicht Hunderttausenden von Jahren beispiellos, und einige der Veränderungen … sind über Hunderte bis Tausende von Jahren unumkehrbar“.

Diese Katastrophenwarnungen haben jede Überschwemmung, jeden Sturm, jede Dürre und jeden „Temperaturrekord“ zu einem eindeutigen Beweis für einen gefährlichen Klimawandel gemacht. Aber das Wetter auf der Welt wurde nur in den letzten zwei Jahrhunderten regelmäßig überwacht – das sind nur 2 % des Zeitraums seit dem Ende der letzten Eiszeit. In den nächsten ein oder zwei Jahrtausenden werden noch viele weitere Rekorde gebrochen werden.

Sind diese Daten real?

Treibhausgase

Kohlendioxid (CO2): Untersuchungen haben ergeben, dass der CO2-Gehalt der Atmosphäre vor der Industrialisierung (1750-1800) bei 278 ppm (parts per million) lag. Dies wird vom IPCC als Basiswert verwendet. Messungen am Mauna Loa Observatorium auf Hawaii seit 1958 zeigen einen stetigen Anstieg.

September 1961: 315 ppm

September 2021: 413 ppm, ein Anstieg um rund 30 % in 60 Jahren

413 Teile pro Million = 0,04 %.

Nach Ansicht von Wissenschaftlern ist der kontinuierliche Anstieg dieser und anderer Treibhausgase für die globale Erwärmung verantwortlich.

Die Atmosphäre enthält 1-4 % Wasserdampf, der bei weitem das größte Treibhausgas ist. Die anderen sind Methan (CH4), Distickstoffoxid (N20), Ozon (O3) und fluorierte Gase, alle in viel geringeren Mengen.

Diese Gase halten die Erde warm. [?] Ohne sie würde die Durchschnittstemperatur der Erde um mehr als 30 Grad Celsius sinken, von plus 14 auf minus 18 Grad. Aber es gibt auch ein Rückkopplungsproblem: Wenn sich die Atmosphäre erwärmt, kann sie mehr Wasserdampf aufnehmen, was ihre Auswirkungen auf Wetter und Klima noch verstärkt.

Globale Temperatur

Die globalen Temperaturen werden von der US National Aeronautics & Space Administration, Goddard Institute of Space Studies (NASA/GISS), der US National Oceanic & Atmospheric Administration (NOAA), der Japanese Meteorological Agency (JMA), dem European Centre for Medium Range Weather Forecasts (ECMWF) und dem britischen Met Office Hadley Centre überwacht. Die Berichte werden in Form einer Temperaturanomalie mit Bezug auf einen vereinbarten Durchschnittszeitraum, in der Regel 30 Jahre, erstellt.

Das NASA/GISS-Diagramm der globalen Temperaturen von 1880 bis 2020 verwendet Anomalie-Daten mit Bezug auf den Durchschnitt von 1951-1980.

Dieses Diagramm ist so dargestellt, wie es auf der NASA/GISS-Website erscheint. Beachten Sie, dass die y-Achse (Temperaturskala) übertrieben dargestellt ist, um den Trend deutlicher zu machen. Diese Form, bei der die x-Achse (Jahr) manchmal gequetscht wird, um die Übertreibung noch zu verstärken, findet sich überall in den Medien.

Die NOAA verwendet ebenfalls Daten aus dem Jahr 1880. Ihr Diagramm stellt die globalen Temperaturen als Anomalie in Bezug auf den Durchschnitt von 1901-2000 dar und hat eine sehr ähnliche Form wie das obige.

Die JMA berechnet die globale Temperaturanomalie entweder mit Bezug auf den Durchschnitt von 1991-2020 oder auf 1901-2000.

Das UKMO Hadley Centre verwendet Daten aus dem Jahr 1850. Ihre Anomalie für 2020 lag +0,92 Grad Celsius über dem Durchschnitt von 1961-1990, der tatsächlich 14,0 Grad Celsius betrug.

Temperaturwerte

Meteorologische Beobachtungsstationen geben die Temperatur auf eine Dezimalstelle genau an. In die Temperaturanalysen der NASA fließen Oberflächentemperaturmessungen von mehr als 20.000 Wetterstationen sowie schiffs- und bojengestützte Beobachtungen der Temperatur an der Meeresolberfläche ein … Diese In-situ-Messungen werden mit einem Algorithmus analysiert, der die unterschiedlichen Abstände der Temperaturstationen rund um den Globus und die Auswirkungen der städtischen Wärmeinsel berücksichtigt …. Aus diesen Berechnungen ergeben sich die globalen durchschnittlichen Temperaturabweichungen vom Basiszeitraum 1951 bis 1980.

Auf den Websites von NASA/GISS, NOAA und JMA werden die jährlichen globalen Anomalien für 2020 auf zwei Dezimalstellen genau angegeben: +1,02, +1,19 bzw. +0,34 Grad Celsius, erscheinen also wärmer als in den jeweiligen Durchschnittszeiträumen.

Die gesamte wissenschaftliche Grundlage für die globale Erwärmung beruht auf den Temperaturdaten dieser fünf Organisationen sowie auf den CO2-Aufzeichnungen.

Es ist sehr schwer zu glauben, dass Wissenschaftler die jährliche Gesamttemperatur unseres gesamten Globus, d.h. aller 510.000.000 km², mit einer Genauigkeit von einem Hundertstel Grad messen können. Die zwei Dezimalstellen spiegeln nur das Ausmaß des Mittelungsprozesses wider, nicht die Genauigkeit der Daten.

Die gesamte wissenschaftliche Grundlage für die globale Erwärmung beruht auf den von diesen fünf Organisationen erstellten Temperaturdaten und den CO2-Aufzeichnungen. Es gibt keinen Hinweis auf eine Fehlermarge, was zu erheblichen Zweifeln an der angegebenen Genauigkeit der Zahlen führt.

Die fünfte Temperaturreihe und andere Daten aus UK

Es gibt noch eine weitere Temperaturaufzeichnung, die ein viel kleineres Gebiet betrifft, aber schon im Jahre 1659 beginnt. Es handelt sich um die Temperaturreihe des Hadley Centre des britischen Met Office, welche die bei weitem längste instrumentelle Temperaturaufzeichnung der Welt ist. Sie deckt das Gebiet Manchester-London-Bristol in einem Dreieck ab. Derzeit werden vier Messstationen verwendet.

Die monatlichen Diagramme (unten) umfassen den letzten Teil der Kleinen Eiszeit (1300-1850) und den Beginn der industriellen Revolution (ab der zweiten Hälfte des 18. Jahrhunderts). Die y-Achse (Temperaturskala) ist kürzer als bei den NOAA- und HadCRUT-Diagrammen (oben).

Diese Diagramme zeigen die tatsächlichen Durchschnittstemperaturen (keine Anomalien) anhand von vier Messstationen in einem kleinen Gebiet. Diese viel längere Zeitspanne verwischt alle Spuren des Wetters und zeigt das Klima deutlicher. In einigen Monaten ist eine gewisse Erwärmung zu erkennen, aber nichts, was auf eine Krise hindeutet:

Niederschlag

Die Niederschlagssummen für England und Wales sind für einen Zeitraum von 254 Jahren ab 1766 verfügbar. Auch hier gibt es keine Anzeichen für einen Klimanotstand oder für eine merkliche Veränderung der aufgezeichneten Mengen:

Stürme

Es zeigt sich auich keine Klimawandel-Auswirkung bzgl. Stürmen in UK:

Meeresspiegel

Langfristige britische Messungen in North Shields und Newlyn zeigen einen langsamen und stetigen Anstieg von 2 mm/Jahr über die letzten 100 Jahre.

Summary

Die globalen Temperaturanomalien sowie der Anstieg des Kohlendioxidgehalts und anderer Emissionen sind der Grund für die Besorgnis über den Klimawandel.

Die außerordentliche Aufmerksamkeit, die den Temperaturdaten zuteil wurde, hat dazu geführt, dass jeder Fall von ungewöhnlichem Wetter in der ganzen Welt als Beweis für ein bevorstehendes Unheil angesehen wird.

Das Wetter ist meist normal, mit Schwankungen und gelegentlichen Ausreißern nach oben. Das war schon immer so.

Obwohl sich das globale Klima verändert, gibt es zwei Gründe, die Situation nicht als „Notfall“ zu bezeichnen:

1. Die Wissenschaft stützt sich weitgehend auf die steigenden globalen Temperaturwerte. Diese erhalten jedoch durch ihre unglaublichen Messungen auf ein Hundertstel Grad Celsius einen falschen Nimbus der Genauigkeit.

2. Wetter und Klima in England und Wales werden schon viel länger als anderswo auf der Welt genau beobachtet. Von einem Klimanotstand zeigt sich bei den Temperatur-, Niederschlags-, Sturm- und Gezeitenmessungen keine Spur.

Link: https://wattsupwiththat.com/2022/05/17/wuwt-contest-runner-up-general-is-there-really-a-climate-crisis/

Übersetzt von Christian Freuer für das EIKE

 




Kann Kalifornien wirklich bis zum Jahr 2030 zu 85% Kohlenstoff-freien Strom erzeugen?

Francis Menton, MANHATTAN CONTRARIAN

[In diesem Beitrag kann man die Termini „Kalifornien“ bzw. „New York“ ohne Weiteres durch den Terminus „Deutschland“ bzw. „EU“ ersetzen! A. d. Übers.]

Im Wettstreit um den tugendhaftesten aller Bundesstaaten in Bezug auf „Kohlenstoff-freien“ Strom findet das Rennen zwischen Kalifornien und New York statt. Im Jahr 2018 hat Kalifornien ein Gesetz mit der Bezeichnung „SB100“ verabschiedet, das bis 2030 einen Anteil von 60 % Strom aus „erneuerbaren Energien“ (und bis 2045 100 %) verbindlich vorschreibt. New York ließ sich nicht lumpen und erließ 2019 sein „Climate Leadership and Community Protection Act“, in dem es sein eigenes gesetzliches Ziel von 70 % Strom aus erneuerbaren Energien bis 2030 (und 100 % bis 2040) festlegt.

Ist also irgendetwas davon realistisch? Oder handelt es sich dabei nur um ein großes Getue, um zu zeigen, dass man mit der aktuellen Mode konform geht, was alles vergessen sein wird, wenn die jetzt scheinbar weit entfernten Fristen näher rücken? Was New York betrifft, so habe ich in mehreren Beiträgen (z. B. hier und hier) dargelegt, dass die angeblich verbindlichen Ziele sowohl hinsichtlich der Durchführbarkeit als auch der Kosten völlig unrealistisch sind und dass die mit der Erreichung der Ziele beauftragten Personen keine Ahnung haben, was sie tun.

Ist Kalifornien weniger ahnungslos?

Die kurze Antwort lautet „Nein“. Allerdings hat eine Schar von „Think Tanks“ gerade einen großen Bericht veröffentlicht, der uns vom Gegenteil überzeugen soll. Der Bericht spricht sich nämlich dafür aus, dass Kalifornien nicht nur sein derzeitiges gesetzliches Ziel von 60 % kohlenstofffreiem Strom bis 2030 erreichen kann, sondern sogar noch ehrgeizigere 85 % – wie die Überschrift der Pressemitteilung, in der der Bericht angekündigt wird, andeutet: „Achieving 85 Percent Clean Electricity By 2030 In California“. Der Bericht selbst trägt den Titel „Reliably Reaching California’s Clean Energy Targets[etwa: Zuverlässiges Erreichen der Ziele für saubere Energie in Kalifornien]. Die Think Tanks, die den Bericht verfassen, sind Energy Innovation, Telos Energy und GridLab. Die Autoren des Berichts sind Derek Stenclik und Michael Welch von Telos und Priya Sreedharan von GridLab.

Außerdem ist ein großer „Technischer Überprüfungsausschuss“ mit etwa 13 Mitgliedern vorgesehen. Glauben Sie, dass diese Leute die Experten sind, die sicherstellen werden, dass dieses Projekt ehrliche technische und ingenieurtechnische Antworten darauf gibt, wie die ehrgeizigen Ziele erreicht werden können? Machen Sie sich nichts vor. Fünf der 13 Mitglieder sind kalifornische Energiebürokraten (drei von der California Energy Commission und zwei von der California Community Choice Association); die übrigen sind Umwelt- und „grüne Energie“–Befürworter verschiedenster Art, darunter vom Environmental Defense Fund, Vote Solar, Jas Energies, Sharply Focused und so weiter. Selbst die wenigen, die als „unabhängige Berater“ aufgeführt sind, haben einen Hintergrund in der Befürwortung von Wind- und Solarenergie.

Und dann ist da noch diese bizarre Kombination aus „Haftungsausschluss“ und Offenlegung der Finanzierung:
„Die in diesem Bericht enthaltenen Ansichten geben nicht die Ansichten der Organisationen des technischen Prüfungsausschusses wieder und können nicht einzelnen Mitgliedern des technischen Prüfungsausschusses zugeschrieben werden. Diese Arbeit wurde mit Mitteln von Climate Imperative unterstützt“.

Mit anderen Worten: „Ihr könnt mir nicht die Schuld geben, wenn das alles nicht funktioniert.“ Und haben Sie schon einmal von der Förderorganisation Climate Imperative gehört? Ich auch nicht. Aber ein paar Augenblicke mit einer Suchmaschine werden Ihnen die Antwort geben. Zwei der sechs Mitglieder des Verwaltungsrats sind Laurene Powell Jobs und John Doerr. Ja, das ist die Laurene Jobs, die das Geld von Apple geerbt hat, und der John Doerr von Kleiner Perkins, der gerade eine Milliarde in die Stanford University gesteckt hat, um eine neue Schule für „Nachhaltigkeit“ zu gründen.

Der Bericht ist etwa 89 Seiten lang, und vieles davon ist in scheinbar hochtechnischem Jargon verfasst. Ziel ist es, Sie davon zu überzeugen, dass das Ziel, bis 2030 85 % kohlenstofffreien Strom zu erzeugen, problemlos und mit voller Zuverlässigkeit erreicht werden kann. Wir haben „Modelle“, die alle relevanten Variablen einbeziehen. Wir haben „Stresstests“ für alle möglichen Extremszenarien durchgeführt. Das Folgende stammt aus dem Werbetext für den Bericht, der auf der Website von Energy Innovation zu finden ist:

Die Modellierung von GridLab und Telos Energy zeigt, dass Kalifornien bis 2030 einen Anteil von 85 Prozent sauberer Energie erreichen kann, ohne die Zuverlässigkeit zu gefährden, selbst unter Stressbedingungen. … In der technischen Studie wurden drei Portfolios entwickelt, die bis 2030 zu 85 Prozent aus sauberem Strom bestehen und unterschiedliche Ausbaustufen der Ressourcen und eine beschleunigte Elektrifizierung widerspiegeln. Diese Portfolios wurden unter Stressfaktoren getestet, darunter die Stilllegung von Erdgasblöcken in den [US-]Bundesstaaten, der Ersatz von Kohle im gesamten Westen durch erneuerbare Energien und Energiespeicherung sowie die Nachahmung der Hitzewellen vom August 2020, die zu Stromausfällen führten. Die Studie bewertete alle Stressfaktoren zusammen, einschließlich strengerer als normaler Importbeschränkungen, und kam zu dem Ergebnis, dass das künftige saubere Netz in der Lage ist, der Last unter diesen extremen Bedingungen zu genügen.

Die Botschaft an die Kalifornier lautet also: Investieren Sie in den nächsten acht Jahren Hunderte von Milliarden Dollar an Steuer- und Abgabengeldern im blinden Vertrauen darauf, dass unsere Modelle alles berücksichtigt haben, was schief gehen kann. Übrigens, erwarten Sie von uns keine Kostenprognose – das würde den Rahmen dieses Projekts sprengen.

Wie die Leser hier wissen, habe ich eine einfache Antwort auf diese Art von Fantasien, nämlich: Zeigen Sie mir ein funktionierendes Demonstrationsprojekt, selbst für eine kleine Stadt mit 5000 oder 10.000 Einwohnern, anhand dessen wir die Durchführbarkeit und die Kosten für einen großen Staat mit 40 Millionen Einwohnern beurteilen können. Unnötig zu sagen, dass es so etwas nicht gibt.

Um zu prüfen, ob hinter diesen Bemühungen überhaupt Seriosität steckt, sollten wir uns ansehen, wie die Szenarien des Berichts mit zwei Fragen umgehen: (1) Überkapazitäten und (2) Energiespeicherung.

Es ist ein bescheidenes Verdienst des Berichts, dass er anerkennt, dass die Erreichung des Ziels von 85 % kohlenstofffreier Elektrizität die Beibehaltung eines Restanteils von etwa 15 % an der Stromerzeugung aus Erdgas bedeutet. Aber wie viel Wind- und Solarkapazität wird benötigt, um den Rest zu decken?

Außerdem wird in dem Bericht zumindest teilweise anerkannt, dass große Mengen an Speicherkapazität erforderlich sein werden. Aber wie viel Speicherung und zu welchen Kosten?

Die wichtigsten Informationen zu diesen Fragen finden sich in diesem Diagramm auf Seite 24:

Zum Vergleich: Kaliforniens Spitzenstromverbrauch aller Zeiten erreichte am 24. Juli 2006 50,27 GW. In den letzten Jahren lag der Spitzenwert im Bereich von 46 bis 47 GW. Die derzeitige Erzeugungskapazität aus allen Quellen liegt bei etwa 82 GW, was bereits eine erhebliche Überkapazität darstellt, um mit den Schwankungen der großen Mengen an Wind- und Sonnenenergie fertig zu werden. In den Szenarien des Berichts für 2030 wird der Aufbau von Kapazitäten in der Größenordnung von 140 bis 160 GW vorgeschlagen, was ungefähr dem Dreifachen des Spitzenverbrauchs entspricht. Eine Erdgaskapazität von etwa 30 GW würde fast ausreichen, um den gesamten Durchschnittsverbrauch und etwa zwei Drittel des Spitzenverbrauchs zu decken, aber anscheinend wird vorgeschlagen, sie vollständig instand zu halten und bereitzuhalten, aber etwa 85 % der Zeit abzuschalten.

Bei der Frage, wie viel Speicherplatz für diese Szenarien benötigt wird, zeigt das Diagramm eine Spanne von etwa 20 GW im Szenario „Diverse saubere Ressourcen“ bis zu etwa 25 GW im Szenario „Hohe Elektrifizierung“. OK, aber wie viele Gigawattstunden werden Sie brauchen, und wie viel wird das kosten? Obwohl dies bei weitem die wichtigste Frage ist, die bei allen Bemühungen um den Aufbau eines hauptsächlich auf Wind-/Solar-/Speicherkraft basierenden Elektrizitätssystems beantwortet werden muss, finden Sie diese Frage in diesem Bericht nicht. Wie der Rahmenplan des New Yorker Climate Action Council ist auch dieser Bericht einfach nur inkompetent. (Oder vielleicht sind sich die Autoren des Problems bewusst und vermeiden es, es anzusprechen, weil sie wissen, dass es die Unmöglichkeit des Projekts aufzeigen und die Zahlmeister verärgern würde. Es ist schwer zu sagen, was von beiden.). Die einzige Erwähnung der Energiespeicherung in Gigawattstunden im Bericht findet sich auf Seite 79, wo aus dem Kontext klar hervorgeht, dass die diskutierte Speicherung nur für den tageszeitlichen Ausgleich gedacht ist und nicht einmal ansatzweise die Saisonabhängigkeit der Wind- und Solarstromerzeugung berücksichtigen kann.

Wie hoch werden die Kosten für all das sein? Der Ausbau der Kapazitäten auf ein Niveau, das dem Dreifachen des Spitzenverbrauchs entspricht, die Aufrechterhaltung eines vollständig gewarteten, aber zu mindestens 85 % der Zeit ungenutzten Backup-Erdgassystems und die Hinzufügung ausreichender Speicherkapazitäten, um den saisonalen Schwankungen der Wind- und Solarenergie Rechnung zu tragen? Das Dreifache der Kosten des derzeitigen Systems scheint konservativ. Das Fünffache ist eher wahrscheinlich. Und natürlich geht dieser Bericht nicht auf die Kostenfrage ein.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2022/05/17/can-california-really-achieve-85-carbon-free-electricity-by-2030/

Übersetzt von Christian Freuer für das EIKE

 




Zu Bio wechseln – und verhungern!

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT!

Unbeabsichtigte Konsequenzen (oder sind sie gar – gewollt)?

Von Foreign Policy News [auswärtige politische Nachrichten]:

Angesichts der sich verschärfenden wirtschaftlichen und humanitären Krise hat Sri Lanka in diesem Winter ein schlecht durchdachtes nationales Experiment zur ökologischen Landwirtschaft abgebrochen. Der srilankische Präsident Gotabaya Rajapaksa versprach in seiner Wahlkampagne 2019, die Landwirte des Landes über einen Zeitraum von zehn Jahren auf ökologische Landwirtschaft umzustellen. Im April letzten Jahres löste die Regierung Rajapaksa dieses Versprechen ein, indem sie ein landesweites Verbot der Einfuhr und Verwendung synthetischer Düngemittel und Pestizide verhängte und den 2 Millionen Landwirten des Landes befahl, auf ökologischen Landbau umzustellen.

Das Ergebnis kam schnell und war brutal. Entgegen der Behauptung, dass mit ökologischen Methoden vergleichbare Erträge wie mit konventioneller Landwirtschaft erzielt werden können, ging die einheimische Reiserzeugung bereits in den ersten sechs Monaten um 20 Prozent zurück. Sri Lanka, das sich lange Zeit selbst versorgen konnte, war gezwungen, Reis im Wert von 450 Millionen Dollar zu importieren, obwohl die Inlandspreise für dieses Grundnahrungsmittel um rund 50 Prozent in die Höhe schnellten. Das Verbot hatte auch verheerende Auswirkungen auf die Tee-Ernte des Landes, sein wichtigstes Exportgut und seine wichtigste Devisenquelle.

Im November 2021, als die Teeproduktion zurückging, hob die Regierung das Düngemittelverbot für wichtige Exportkulturen, darunter Tee, Kautschuk und Kokosnuss, teilweise auf. Angesichts wütender Proteste, steigender Inflation und des Zusammenbruchs der srilankischen Währung hat die Regierung im letzten Monat das Düngeverbot für mehrere wichtige Kulturen, darunter Tee, Kautschuk und Kokosnuss, aufgehoben, obwohl es für einige andere weiterhin gilt. Die Regierung bietet den Landwirten außerdem 200 Millionen Dollar als direkte Entschädigung und weitere 149 Millionen Dollar an Preissubventionen für Reisbauern, die Verluste erlitten haben. Das gleicht den Schaden und das Leid, das das Verbot verursacht hat, kaum aus. Die Landwirte haben weithin kritisiert, dass die Zahlungen völlig unzureichend sind und viele Landwirte ausschließen, vor allem die Teeproduzenten, die eine der wichtigsten Beschäftigungsquellen im ländlichen Sri Lanka darstellen. Allein der Rückgang der Teeproduktion wird auf einen wirtschaftlichen Verlust von 425 Millionen Dollar geschätzt.

Die menschlichen Kosten waren sogar noch höher. Vor dem Ausbruch der Pandemie war das Land stolz darauf, den Status eines Landes mit mittlerem Einkommen zu erreichen. Heute ist eine halbe Million Menschen in die Armut zurückgefallen. Die rasant steigende Inflation und die rapide sich abwertende Währung haben die Menschen in Sri Lanka gezwungen, ihre Einkäufe von Lebensmitteln und Treibstoff zu reduzieren, da die Preise in die Höhe schießen. Wirtschaftsexperten des Landes haben die Regierung aufgefordert, die Rückzahlung ihrer Schulden auszusetzen, um die Bevölkerung mit dem Nötigsten zu versorgen.

Das Farrago aus magischem Denken, technokratischer Hybris, ideologischer Verblendung, Selbstbetrug und schierer Kurzsichtigkeit, das zu der Krise in Sri Lanka geführt hat, belastet sowohl die politische Führung des Landes als auch die Befürworter der so genannten nachhaltigen Landwirtschaft: Erstere, weil sie das Versprechen der ökologischen Landwirtschaft als kurzsichtige Maßnahme zur Kürzung von Düngemittelsubventionen und Importen genutzt haben, und letztere, weil sie behauptet haben, dass eine solche Umgestaltung des Agrarsektors des Landes überhaupt erfolgreich sein könnte.

Der ganze Beitrag steht hier.

Inzwischen scheint unsere [= UK] Landwirtschafts-Politik von der gleichen Art Idiopten diktiert zu werden:

Tony Juniper, Chef von Natural England, sagte:

Dieser Plan markiert einen historischen Wandel in der Art und Weise, wie wir unser Land bewirtschaften. Er bringt uns auf den Weg zur Erzeugung nachhaltiger Lebensmittel und stellt uns gleichzeitig vor die dringende Aufgabe, den Rückgang der Natur aufzuhalten und umzukehren.

Mehr als zwei Drittel der Fläche Englands werden landwirtschaftlich genutzt, und dieser Plan ebnet denjenigen, die das Land bewirtschaften, den Weg für die Erzeugung gesunder Lebensmittel und anderer wichtiger Vorteile wie Kohlenstoffspeicherung, sauberes Wasser, geringeres Überschwemmungsrisiko, eine blühende Tierwelt und schöne Landschaften, die jeder genießen kann.

https://www.gov.uk/government/news/government-unveils-path-to-sustainable-farming-from-2021

Vielleicht sollte die Ernährung der Welt Vorrang vor der „Kohlenstoffspeicherung“ haben?

Natürlich wünschen sich viele von Junipers Gesinnungsgenossen eine viel kleinere Weltbevölkerung. Wer braucht schon Fruchtbarkeit.

Link: https://wattsupwiththat.com/2022/05/21/go-organic-and-starve/

Übersetzt von Christian Freuer für das EIKE

 




Nicht reproduzierbare Wissenschaft – Teil 2

Dr. Jay Lehr

Der empirische Wissenschaftler führt kontrollierte Experimente durch und führt genaue, unvoreingenommene Aufzeichnungen über alle beobachtbaren Bedingungen zum Zeitpunkt der Durchführung des Experiments. Wenn ein Forscher ein wirklich neues oder bisher unbeobachtetes Naturphänomen entdeckt hat, sollten andere Forscher – mit Zugang zu seinen Aufzeichnungen und einigen selbst entwickelten Geräten – in der Lage sein, diese Entdeckung zu reproduzieren oder zu bestätigen. Wenn genügend Bestätigungen vorliegen, erkennt die wissenschaftliche Gemeinschaft schließlich an, dass das Phänomen real ist, und passt die bestehende Theorie an die neuen Beobachtungen an.

Die Validierung der wissenschaftlichen Wahrheit erfordert eine Replikation oder Reproduktion. Replizierbarkeit bedeutet in der Regel, dass das Ergebnis eines Experiments in einer unabhängigen Studie von verschiedenen Forschern mit unterschiedlichen Daten erzielt wird, während Reproduzierbarkeit bedeutet, dass verschiedene Forscher die gleichen Daten, Methoden und/oder Computercodes verwenden, um zu den gleichen Ergebnissen zu gelangen.

Doch heute funktioniert der wissenschaftliche Prozess der Replikation und Reproduktion nicht mehr richtig. Ein großer Teil der wissenschaftlichen Behauptungen in der veröffentlichten Literatur ist nicht repliziert oder reproduziert worden. Man schätzt, dass die Mehrheit dieser veröffentlichten Behauptungen, die nicht repliziert oder reproduziert werden können, in Wirklichkeit falsch sind.

Eine außerordentliche Anzahl wissenschaftlicher und sozialwissenschaftlicher Disziplinen liefert nicht mehr zuverlässig wahre Ergebnisse, ein Zustand, der gemeinhin als Irreproduzierbarkeits-Krise bezeichnet wird. Eine beträchtliche Mehrheit von 1500 aktiven Wissenschaftlern, die kürzlich von der Zeitschrift Nature befragt wurden, bezeichnete die akute Situation als „Krise“. Die völlig unangemessenen Leistungsanreize in der wissenschaftlichen Welt tragen einen Großteil der Schuld an diesem katastrophalen Versagen.

Politiker und Bürokraten handeln in der Regel, um ihre eigenen Interessen zu maximieren, anstatt als uneigennützige Diener des Gemeinwohls zu agieren. Dies gilt insbesondere für Wissenschaftler, Peer-Review-Gutachter und Regierungsexperten. Die verschiedenen Teilnehmer am wissenschaftlichen Forschungssystem dienen alle ihren eigenen Interessen, da sie den Anreizen des Systems erliegen.

Gut publizierende Universitätsforscher verdienen sich durch die Veröffentlichung aufregender neuer positiver Ergebnisse eine Festanstellung, eine Beförderung, einen Wechsel an eine renommiertere Universität, Gehaltserhöhungen, Stipendien, berufliches Ansehen und öffentliche Wertschätzung. Die gleichen Anreize wirken sich auf die Herausgeber von Zeitschriften aus, die durch die Veröffentlichung von als aufregend empfundenen neuen Forschungsergebnissen Anerkennung für ihre Zeitschrift und persönliche Auszeichnungen erhalten – auch wenn die Forschungsergebnisse nicht gründlich überprüft wurden.

Geldgeber wollen spannende Forschung finanzieren, und staatliche Geldgeber haben den zusätzlichen Anreiz, dass spannende Forschung mit positiven Ergebnissen die Erweiterung des Auftrags ihrer Organisation unterstützt. Amerikanische Universitätsverwaltungen wollen Forschungsprojekte fördern, von denen sie profitieren, indem sie die Gemeinkosten – häufig den größten Teil des Förderbetrags – erhalten. Als jemand, der dies aus erster Hand erfahren und gesehen hat, wird es den Leser verblüffen, welch großer Teil der meisten Forschungszuschüsse als Gemeinkosten an die Universität geht, anstatt die eigentlichen Forschungskosten zu unterstützen.

All diese Anreize belohnen veröffentlichte Forschung mit neuen positiven Behauptungen, aber nicht unbedingt reproduzierbare Forschung. Forscher, Herausgeber, Geldgeber, Bürokraten, Universitätsverwaltungen – sie alle haben einen Anreiz, nach scheinbar aufregenden neuen Forschungsergebnissen zu suchen, die Geld, Status und Macht bringen. Es gibt nur wenige oder gar keine Anreize, ihre Arbeit zu überprüfen. Vor allem haben sie wenig Anreiz, die Forschung zu reproduzieren und zu überprüfen, ob die aufregende Behauptung Bestand hat, denn wenn dies nicht der Fall ist, verlieren sie Geld, Status und Prestige.

[Hervorhebung vom Übersetzer]

Die Anreize der wissenschaftlichen Welt für neue Erkenntnisse und nicht für reproduzierbare Studien haben einen drastischen Einfluss darauf, was zur Veröffentlichung eingereicht wird. Wissenschaftler, die versuchen, ihre Karriere auf der Überprüfung alter Erkenntnisse oder der Veröffentlichung negativer Ergebnisse aufzubauen, werden wahrscheinlich keinen beruflichen Erfolg haben. Das Ergebnis ist, dass Wissenschaftler keine negativen Ergebnisse zur Veröffentlichung einreichen. Einige negative Ergebnisse landen in der Aktenschublade. Andere verwandeln sich irgendwie in positive Ergebnisse, weil die Forscher bewusst oder unbewusst ihre Daten und ihre Analysen frisieren (als wissenschaftliche Modellierer nennen wir das „Tuning“, ein Fachwort für Betrug). Sie führen auch nicht viele Replikationsstudien durch oder veröffentlichen sie, da die Anreize der wissenschaftlichen Welt auch diese Aktivitäten nicht belohnen.

Das Konzept der statistischen Signifikanz wird so sehr strapaziert, dass buchstäblich Hunderte, wenn nicht Tausende von nutzlosen Arbeiten, die diese Signifikanz für sich beanspruchen, überall erscheinen.

Forscher versuchen festzustellen, ob sich die von ihnen untersuchten Zusammenhänge von dem unterscheiden, was allein durch Zufall erklärt werden kann, indem sie Daten sammeln und Hypothesentests durchführen, die auch als Tests der statistischen Signifikanz bezeichnet werden. Meistens beginnen sie damit, die Wahrscheinlichkeit zu testen, dass es keinen tatsächlichen Zusammenhang zwischen zwei Variablen gibt, was als „Nullhypothese“ bezeichnet wird. Wenn diese Hypothese nicht zutrifft und es wahrscheinlich ist, dass ein Zusammenhang besteht, wird eine andere Hypothese aufgestellt. Wie gut die Daten die „Nullhypothese“ (kein Zusammenhang) unterstützen, zeigt eine Statistik, die als p-Wert bezeichnet wird. Liegt der p-Wert unter 5 % oder 0,05, wird davon ausgegangen, dass ein Zusammenhang zwischen den untersuchten Variablen bestehen könnte.

Die zentrale Rolle der Regierungen in der Wissenschaft, sowohl bei der Finanzierung wissenschaftlicher Forschung als auch bei der Verwendung wissenschaftlicher Forschung zur Rechtfertigung von Vorschriften, trägt in hohem Maße dazu bei, dass die fadenscheinige statistische Signifikanz in der gesamten akademischen Welt zunimmt. Innerhalb einer Generation hat sich die statistische Signifikanz von einer nützlichen Abkürzung, die Forscher in der Landwirtschaft und der Industrie benutzten, um zu entscheiden, ob sie ihre derzeitigen Verfahren beibehalten oder zu etwas Neuem übergehen sollten, zu einer Voraussetzung für Regulierung, staatliche Zuschüsse, Festanstellungen und jede andere Form von wissenschaftlichem Prestige entwickelt und ist auch für Veröffentlichungen unerlässlich.

Viele weitere Wissenschaftler verwenden eine Vielzahl von statistischen Verfahren mit mehr oder weniger sträflicher Nachlässigkeit, darunter:

*unrichtige statistische Methodik

*voreingenommene Datenmanipulation, die zu den gewünschten Ergebnissen führt

*Auswahl von Messwerten, die statistisch signifikant sind, und Ignorieren von Messwerten, die nicht signifikant sind

*unzulässige Manipulationen von Forschungsverfahren

Wieder andere führen statistische Analysen durch, bis sie ein statistisch signifikantes Ergebnis finden, und veröffentlichen dieses Ergebnis. Dies wird als „p-hacking“ bezeichnet. Viel zu viele Forscher geben ihre Methoden unklar an und lassen den uninformierten Leser annehmen, dass sie tatsächlich einem strengen wissenschaftlichen Prozess gefolgt sind.

Der heimtückischste aller wissenschaftlichen Betrügereien ist p-HARKING. Das bedeutet, dass ein Wissenschaftler eine Hypothese erst dann aufstellt, wenn er alle Daten gesammelt hat, die zu dem gewünschten Ergebnis führen. Ein offensichtlicheres Wort dafür ist CHEATING [to cheat = schummeln]. Nicht reproduzierbare Forschungshypothesen, die durch HARKING zustande kommen, treiben ganze Disziplinen in den Abgrund.

Publikationsverzerrungen und „p-harking“ haben die wissenschaftliche Forschung insgesamt in Mitleidenschaft gezogen. Darüber hinaus zeigen Umfragen seit Jahrzehnten, dass Forscher wahrscheinlich keine negativen Ergebnisse ihrer Studien veröffentlichen werden.

Eine falsche Forschungsbehauptung kann zur Grundlage für eine ganze Reihe von Veröffentlichungen werden, die durchweg falsch sind und dennoch zur anerkannten Wahrheit werden. Wir können nicht genau sagen, welche Forschungsarbeiten von diesen Fehlern betroffen sind, solange Wissenschaftler nicht alle veröffentlichten Forschungsarbeiten replizieren. Wir verfügen jedoch über ausgefeilte statistische Strategien, die es uns ermöglichen, bestimmte Behauptungen zu diagnostizieren, die eine staatliche Regulierung unterstützen. Eine solche Methode – ein Härtetest für statistische Betrügereien – ist die Darstellung von p-Werten, die im Handbuch der National Association of Scholars, SHIFTING SANDS, ausführlich beschrieben wird. Ein kurzes Papier zurück, das ich nicht zu sehr empfehlen kann.

Hinweis: Teile dieses Aufsatzes wurden mit Genehmigung der National Association of Scholars und ihrer Autoren Peter Wood, Stanley Young, Warren Kindzierski und David Randall aus dem NAS-Buch SHIFTING Sands entnommen.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2022/05/16/irreproducible-science-part-two/

Übersetzt von Christian Freuer für das EIKE




Wissenschaft muss reproduzierbar sein! – Teil 1

Dr. Jay Lehr

Die National Association of Scholars (NAS) ist eine gemeinnützige Organisation von Akademikern und unabhängigen Wissenschaftlern, die sich zum Ziel gesetzt hat, das Wesen der Wissenschaft wiederzuerlangen, das in der Vergangenheit so hoch geachtet wurde. Früher haben wir alle Ärzte respektiert, ohne ihren Wissensstand in Frage zu stellen. Vielleicht kennen Sie den Witz, der mit der Frage beginnt: „Wie nennt man jemanden, der sein Medizinstudium mit einem D-Durchschnitt abgeschlossen hat“ – die Antwort lautet „Doktor“.

Das Gleiche gilt für Akademiker, Hochschulprofessoren und alle, die uns an einer Hochschule oder Universität unterrichteten. Als die Regierung langsam 80 % der akademischen Forschung übernahm, sank das Niveau der Spitzenleistungen leider. Das Schlagwort von zu viel Forschung lautete: „Mit der Angst wächst auch das Geld“ und die Beteiligung der Regierung.

In der Hoffnung, das hohe Niveau von Lehrern und Forschern wiederherzustellen, wurde die NAS gegründet. Sie erforscht selbst, wie Schulen im modernen Zeitalter abschneiden. Zwar gibt es nach wie vor viel Gutes, aber auch viel Schlechtes.

Dies ist der erste von drei Aufsätzen aus ihrer neuen Veröffentlichung mit dem treffenden Titel Shifting Sands. Er konzentriert sich auf die fehlgeschlagenen Bemühungen, wissenschaftliche Forschung zu reproduzieren, die allzu oft in der Unterstützung unnötiger oder unangemessener staatlicher Vorschriften endet. Ein großer Teil ihres Buches befasst sich mit den enormen Fehlern in den Bemühungen der EPA, die ohnehin schon unhaltbaren Luftqualitätsvorschriften für Feinstaub mit einer Größe von weniger als zweieinhalb Mikrometern (Millionstel Meter) zu verschärfen, die so genannte PM2,5-Regelung. In den Wochen vom 27. März und 4. April 2022 habe ich auf diesen Seiten über die PM2.5-Anhörung geschrieben, die am 25. Februar von Zoom abgehalten wurde. Bis auf zwei Ausnahmen sprachen sich alle Teilnehmer gegen die Bemühungen der EPA zur Verschärfung der geltenden Regelung aus. Wir waren 15 Zeugen, die sich gegen den Plan aussprachen. Das EPA-Gremium stellte in der Telefonkonferenz keine einzige Frage an die 15 Personen, die gegen den Plan ausgesagt hatten. Wir vermuten, dass sie kein Interesse daran hatten, uns überhaupt zuzuhören. Wir waren uns alle einig, dass keiner der Beweise, die die EPA zur Verschärfung der PM 2,5-Vorschriften anführt, reproduzierbar ist, selbst wenn man ihre Daten erhalten könnte.

Die Krise der Nicht-Reproduzierbarkeit betrifft ein breites Spektrum wissenschaftlicher und sozialwissenschaftlicher Disziplinen von der Epidemiologie bis zur Sozialpsychologie. In der Wissenschaft gab es schon immer eine Schicht von unzuverlässigen Ergebnissen, die an seriösen Stellen veröffentlicht wurden, und von Experten, die sich schließlich als schlampig, falsch oder unwahr erwiesen. Herman Muller erhielt sogar den Nobelpreis für seine betrügerischen Studien an der Fruchtfliege, von denen heute bekannt ist, dass sie zu dem unhaltbaren linearen Modell ohne Schwellenwert geführt haben, das die Arbeit im Bereich der medizinischen Strahlung seit mehr als einem halben Jahrhundert behindert. Aber die Krise der Nicht-Reproduzierbarkeit ist etwas Neues. Ihr Ausmaß hat das Vertrauen vieler Wissenschaftler in die Forschung anderer in eine sehr skeptische Position gebracht. Und der größte Teil der heutigen Arbeit wird auf Kosten der Öffentlichkeit durchgeführt. Ein Großteil der modernen Forschung könnte durchaus falsch sein. Wie viele staatliche Vorschriften beruhen tatsächlich auf nicht reproduzierbarer Wissenschaft?

In dem NAS-Text Shifting Sands haben die Autoren 8 Quellen für Irreführung genannt, die zu Nicht-Reproduzierbarkeit führen. Dazu gehören:

Verformbare Forschungspläne

Rechtlich unzugängliche Datensätze

Undurchsichtige Methodik und Algorithmen

Nicht dokumentierte Datenbereinigung

Unzureichende oder nicht vorhandene Datenarchivierung

Unzulängliche statistische Methoden

Voreingenommenheit bei der Veröffentlichung, um negative Ergebnisse zu verschleiern

Politisches oder disziplinäres Gruppendenken (politische Korrektheit)

Staatliche Regulierung soll eine hohe Beweisschwelle überwinden. Vorschriften sollten sich auf eine umfangreiche wissenschaftliche Forschung stützen, deren kombinierte Beweise eine ausreichende Sicherheit bieten, um die Einschränkung der Freiheit der Amerikaner durch eine staatliche Vorschrift zu rechtfertigen.

Die Befürworter von Vorschriften, die auf fadenscheinigen oder unzureichenden Forschungsergebnissen beruhen, berufen sich häufig auf das „Vorsorgeprinzip“. Sie sagen, dass es sich nicht um eine Regelung auf der Grundlage strenger Wissenschaft handelt, sondern um eine Regelung, die sich auf die Möglichkeit stützt, dass eine wissenschaftliche Behauptung richtig ist. Sie tun dies mit der Logik, dass es zu gefährlich ist, auf die tatsächliche Bestätigung einer Hypothese zu warten, und dass der niedrigere Standard der Zuverlässigkeit gerechtfertigt ist, wenn es um Angelegenheiten geht, die schwerwiegende nachteilige Folgen haben könnten. Die Berufung auf das Vorsorgeprinzip ist nicht nur unwissenschaftlich, sondern verleitet auch dazu, schlechte Wissenschaft und sogar Betrug zu akzeptieren.

Wir erleben dies gerade jetzt, da die Regierung die Nutzung fossiler Brennstoffe stoppen will, weil sie glaubt, dass dies die Temperatur der Erde auf ein unerwünschtes Niveau ansteigen lassen könnte. Dafür gibt es keinerlei Beweise.

Die politischen Folgen haben unweigerlich dazu geführt, dass politische Aktivisten versucht sind, die wissenschaftliche Forschung zu verfälschen, um die Art und Weise zu beeinflussen, in der die Regierung Beweise abwägt. Jedes formale Bewertungssystem lädt unweigerlich zu Versuchen ein, es zu manipulieren.

Hinzu kommen die verzerrenden Auswirkungen der massiven staatlichen Finanzierung der wissenschaftlichen Forschung. Unsere Bundesregierung [= der USA] ist der größte Einzelgeber von Forschungsmitteln in der Welt. Ihre Erwartungen wirken sich nicht nur auf die von ihr direkt finanzierte Forschung aus, sondern auch auf alle Forschungsarbeiten, die in der Hoffnung auf eine staatliche Finanzierung durchgeführt werden. Regierungsexperten haben es daher in der Hand, ein verzerrtes Forschungsbild zu schaffen, das sie zur Rechtfertigung von Vorschriften verwenden können.

Ein für den Natural Resource Defense Council erstellter Bericht für das Jahr 2020 schätzt, dass die amerikanischen Vorschriften zur Luftverschmutzung 120 Milliarden Dollar pro Jahr kosten, und wir können diese Schätzung, die uns von einer Umweltschutzgruppe vorgelegt wurde, als die niedrigste plausible Zahl annehmen.

Es ist an der Zeit, dass die US-Bürger dies alles wissen und darauf so reagieren, dass das Pendel wieder in Richtung zuverlässigerer Forschungsergebnisse ausschlägt.

Hinweis: Teile dieses Aufsatzes wurden mit Genehmigung der National Association of Scholars (NAS) und ihrer Autoren Peter Wood, Stanley Young, Warren Kindzierski und David Randall aus dem Buch Shifting Sands entnommen.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon

Link: https://www.cfact.org/2022/05/09/science-must-be-reproducible-part-one/

Übersetzt von Christian Freuer für das EIKE