Sollten Regierungen wissenschaftliche Forschung kontrollieren?

Andy May

Bundesgelder ermöglichen es nicht gewählten Bürokraten, die wissenschaftliche Forschung zu kontrollieren. Sie diktieren die Projekte und oft auch die Ergebnisse. Sie nutzen gezielte Indiskretionen an die Presse, um jeden in Verlegenheit zu bringen, der versucht, sich ihrer Kontrolle zu widersetzen. Sie handeln mit der Angst und genießen sie. Jeder, der nicht mit ihnen übereinstimmt, unterdrückt die „Wissenschaft“.

Sie nutzen auch eine unwissende und willfährige Presse, um privat finanzierte wissenschaftliche Forschung als von „bösen“ Unternehmen „korrumpiert“ zu verteufeln [1]: Staatliche Forschung ist „Wissenschaft“ und privat finanzierte Forschung ist korrupt. Mit diesem Narrativ werden sie zur „Wahrheit“, und gegenteilige Ansichten sind nicht erlaubt.

[Hervorhebungen vom Übersetzer]

Präsident Eisenhower sagte, Zitat:

Präsident Eisenhower sagte, Zitat:

„Die Aussicht auf die Beherrschung der Gelehrten der Nation durch die Beschäftigung des Bundes, die Zuteilung von Projekten und die Macht des Geldes ist allgegenwärtig und muss ernsthaft in Betracht gezogen werden.“

Aus der Abschiedsrede von Präsident Eisenhower, 1961

H. L. Mencken schrieb, Zitat:

„Das ganze Ziel der praktischen Politik besteht darin, die Bevölkerung in Angst und Schrecken zu versetzen (und damit in Sicherheit zu bringen), indem man sie mit einer endlosen Reihe von Schrecknissen bedroht, die alle nur eingebildet sind.“

H. L. Mencken, 1918, Zur Verteidigung der Frauen

Wie kann man die Öffentlichkeit besser erschrecken als mit den Vorhersagen eines Wissenschaftlers?

Abbildung 1: Cover des Magazins „Time“ aus den Jahren 1977 bzw. 2006

In Abbildung 1 sehen wir ein Time-Titelbild vom 8. April 1977, das einen Artikel darüber ankündigt, wie man eine kommende Eiszeit überleben kann. Im Gegensatz dazu wird auf dem Titelblatt vom 3. April 2006 dazu geraten, sich wegen des vermuteten Kipppunkts der globalen Erwärmung große Sorgen zu machen.

Die von der Regierung finanzierte Forschung sagte uns 1977, dass wir alle in einer neuen Eiszeit erfrieren würden, dann hörte die Welt auf, sich abzukühlen, und begann sich zu erwärmen, und 2006 beschlossen die Herausgeber von Time, dass wir alle aufgrund der globalen Erwärmung kochen werden, wenn wir die fossile Brennstoffindustrie nicht zerstören.

Ich weiß nicht, wie viel Geld die Regierung für die Vorhersage einer neuen Eiszeit im Jahr 1977 ausgegeben hat, aber ein Bericht des Government Accountability Office aus dem Jahr 2018 behauptet, dass die USA seit 1993 über 154 Milliarden Dollar für Aktivitäten im Zusammenhang mit dem Klimawandel ausgegeben haben [2].

Abbildung 2: Jahr-2000-Warnungen

Abbildung 2 zeigt zwei Jahr-2000-Warnungen aus dem Jahr 1999. Wir würden alle sterben, weil die Computer den Unterschied zwischen 1900 und 2000 nicht erkennen könnten. Dieser Fehler würde zweifellos (sarkastisch gesprochen) Computerausfälle verursachen, die zu versehentlichen Atombombenexplosionen, gefährlichen Entlassungen von Gefangenen und Terroranschlägen führen würden. Aber nichts ist passiert. Wie Ross Perot bemerkte, ist er noch nicht von einem Auto angefahren worden, das er drei Blocks entfernt kommen sah. Angeblich drohten die Krankenhäuser überzulaufen, wenn wir das Land nicht wegen Covid-19 abriegeln würden; in der Zwischenzeit hat Schweden nichts getan und es ging ihm gut. Die Liste geht weiter und weiter.

Was hat die private Forschung für uns getan? Beispiele sind Halbleiter [3], PCs [4], Kameras [5], Telefone [6], Autos [7], Flugzeuge [8], Klebeband [9], Fernsehen und Filme [10], Teflon [11], Klettverschluss [12], Aspirin [13], und vieles mehr. Regierungen haben nicht so viele Erfindungen gemacht, aber zu den Beispielen gehören Atombomben [14], ballistische Raketen [15], AK-47 [16] und wahrscheinlich COVID-19 [17] und die COVID-19-Impfstoffe [18]! Private Erfindungen verbessern in der Regel unser Leben, staatliche Erfindungen zerstören eher Leben.

[Hervorhebung vom Übersetzer]

Aber dann fragen die Befürworter der staatlich kontrollierten Wissenschaft: „Was ist mit der Grundlagenforschung? Was ist mit der Forschung, die die Unternehmen nicht finanzieren wollen?“ Das ist Unsinn, Wissenschaft und Technologie werden sich unabhängig von staatlichen Eingriffen weiterentwickeln, Regierungen sind nicht so wichtig. So haben Newton und Leibniz etwa zur gleichen Zeit die Infinitesimalrechnung erfunden, und Elisha Gray und Alexander Graham Bell meldeten am gleichen Tag Telefonpatente an [19].

Viele staatliche Forschungsgelder werden für nutzlose oder gefährliche Forschung ausgegeben. Das COVID-SARs-Virus wurde wahrscheinlich teilweise mit Forschungsgeldern der US-Regierung entwickelt. Bestimmte NIH*-Forschungsgelder sind an das Wuhan Institute of Virology geflossen. Mit Forschungsgeldern wurden unlängst Versuche finanziert, Zebrafische nikotinabhängig zu machen, und vier Millionen Dollar wurden ausgegeben, um den Zusammenhang zwischen Alkoholkonsum und Notaufnahme zu untersuchen [20]. Wer hätte gedacht, dass es da einen Zusammenhang gibt?

[NIH = National Institutes of Health, Amerikanische Behörde für Gesundheit; Sitz in Bethesda, Maryland. A. d. Übers.]

Es ist ein Mythos, dass Wissenschaft und Technologie durch Geldausgeben hervorgezaubert werden können. Es ist auch ein Mythos, dass die wissenschaftliche Forschung die Entwicklung neuer Technologien vorantreibt; es ist genau umgekehrt: Wissenschaftliche Durchbrüche sind normalerweise das Ergebnis technologischer Veränderungen, nicht umgekehrt [21]. Die Thermodynamik wurde aufgrund der Dampfmaschine entwickelt, nicht umgekehrt. Einsteins Relativitätstheorie wäre ohne das Michelson-Interferometer und andere spektakuläre Erfindungen im 19. Jahrhundert vielleicht nicht entwickelt worden [22]. Wie jeder hier verstehen sollte, wird zuerst die Technik entwickelt, und dann findet die Wissenschaft heraus, wie es dazu kam.

Politiker und Bürokraten kontrollieren die wissenschaftliche Forschung und die Forschungsergebnisse, indem sie gezielt Projekte finanzieren, die nach potenziellen Katastrophen, idealerweise globalen Katastrophen, suchen. Viele Menschen lieben Katastrophengeschichten, Journalisten lieben Katastrophengeschichten, Wissenschaftler lieben es, in Zeitungen und im Fernsehen zitiert zu werden. Es ist eine Win-Win-Situation für alle, außer für die Allgemeinheit. Der Princeton-Physikprofessor William Happer schrieb einmal, Zitat:

„Als Direktor der Energieforschung des Energieministeriums in den frühen 1990er Jahren war ich erstaunt, dass der größte Teil der Bundesmittel für Umweltstudien des DOE, der NASA, der EPA und anderer Bundesbehörden in Forschungsprogramme floss, die eine Botschaft des drohenden Untergangs verstärkten: die Menschheit und der Planet Erde würden durch globale Erwärmung, Pestilenz, Hungersnot und Überschwemmungen verwüstet.“ [23]

Prof. William Happer, 2003

So ist es nicht verwunderlich, dass Wissenschaftler, seit die Regierung die Finanzierung der wissenschaftlichen Forschung übernommen hat, von der Forschung, die den Menschen hilft, zur Erforschung möglicher Katastrophen übergegangen sind, ganz gleich, wie unwahrscheinlich diese sind. Die Wissenschaft hat sich von der Verbesserung des menschlichen Lebens zur Entwicklung von Plots für Katastrophenfilme entwickelt. Und wenn die Menschen für die Katastrophe verantwortlich gemacht werden können, ist es noch besser, denn dann können die Politiker den Menschen vorschreiben, ihr Leben „zum Wohle der Allgemeinheit“ zu ändern. Die Macht des Politikers wächst dann, weil die Ausübung von Macht diese vergrößert, und die Menschen werden ihre Freiheiten im Austausch für Sicherheit aufgeben, ob die Gefahr nun real ist oder nicht.

Wenn ein Politiker die Phrase „für das Allgemeinwohl“ benutzt, verstecken Sie Ihre Kinder und halten Sie Ihre Brieftasche fest, dann hat er es auf etwas abgesehen und führt nichts Gutes im Schilde.

Als Al Gore 1992 für das Amt des Vizepräsidenten kandidierte, schrieb er ein Buch Earth in the Balance, in dem er auf Seite 5 sagte, Zitat:

„Professor Revelle erklärte, dass ein höherer CO2-Gehalt den so genannten Treibhauseffekt auslösen würde, der die Erde erwärmen würde. Die Implikationen seiner Worte waren verblüffend; wir hatten nur acht Jahre an Informationen, aber wenn sich dieser Trend fortsetzt, würde die menschliche Zivilisation eine tiefgreifende und zerstörerische Veränderung des gesamten globalen Klimas bewirken.“

Al Gore, Die Erde im Gleichgewicht

Revelle war ein berühmter Wissenschaftler, der eine Vorlesung gehalten hatte, die Gore in Harvard besuchte. Er schrieb das Folgende im Jahr 1991, ein Jahr bevor Gores Buch herauskam. Es stammt aus einem Cosmos-Artikel mit dem Titel: „What to do about Greenhouse Warming: Look before you Leap“ [etwa: Was tun gegen die Treibhaus-Erwärmung? Erst schauen, dann reagieren], geschrieben in Zusammenarbeit mit Fred Singer und Chauncey Starr, zwei anderen berühmten Wissenschaftlern.

Ich zitiere aus der Studie:

„Wir können unsere Schlussfolgerungen in einer einfachen Botschaft zusammenfassen: Die wissenschaftliche [Grundlage] für eine Erwärmung durch den Treibhauseffekt ist zu unsicher, um drastische Maßnahmen zu diesem [Zeitpunkt] zu rechtfertigen. Es besteht kaum ein Risiko, politische Antworten auf dieses jahrhundertealte Problem hinauszuzögern, denn es ist zu erwarten, dass sich das wissenschaftliche Verständnis innerhalb des nächsten Jahrzehnts wesentlich verbessern wird.“

(Singer, Revelle, & Starr, 1991)

Revelle hatte die Zunahme des Kohlendioxids in der Atmosphäre jahrzehntelang untersucht und war zu dem Schluss gekommen, dass es eine gewisse Erwärmung verursachen könnte, aber er war sich nicht sicher, ob dies ein Problem darstellen würde. Seine Erwähnung von „innerhalb des nächsten Jahrzehnts“ war unheimlich korrekt, denn die berühmte Pause in der Erwärmung begann im Jahr 2000, nur neun Jahre später. Sie dauerte mindestens bis 2014.

Al Gore, der kaum eine wissenschaftliche Ausbildung hatte, litt nicht unter solchen Zweifeln. Er war sich sicher, dass die Verbrennung fossiler Brennstoffe den Kohlendioxidgehalt in der Atmosphäre auf „gefährliche“ Werte ansteigen ließ, und er war überzeugt, dass dies durch den Anstieg des Meeresspiegels und extreme Wetterverhältnisse ein Problem für die Zivilisation darstellte. Er war sich sicher, dass wir den CO2-Ausstoß zum Wohle der Menschheit verringern müssen. Es gab keine Beweise für diese Annahmen, aber Al Gore brauchte keine Beweise, er konnte sich immer auf Klimamodelle verlassen, und das tat er auch. Revelle hegte ein tiefes Misstrauen gegenüber Klimamodellen.

Die Unvereinbarkeit zwischen Revelles wahren Ansichten und der Art und Weise, wie sie in Gores Buch dargestellt wurden, fiel Gregg Easterbrook, einem Redakteur von Newsweek, auf, der in der Ausgabe von The New Republic vom 6. Juli 1992 darüber schrieb [24].

Al Gore wurde durch Easterbrooks Artikel und die darauf folgenden Artikel von George Will und anderen gedemütigt. Justin Lancaster war von 1981 bis zu Revelles plötzlichem Tod im Juli 1991 Revelles Doktorand und Lehrassistent an der Scripps Institution of Oceanography. Er war auch ein Unterstützer von Al Gore. Lancaster behauptete, Revelle sei von Singer „hinters Licht geführt“ worden, damit er seinen Namen zu dem Cosmos-Artikel „Look before you Leap“ hinzufügte. Er behauptete auch, dass es Revelle „sehr peinlich war, dass sein Name damit in Verbindung gebracht wurde“. Lancaster behauptete ferner, dass Singers Handlungen „unethisch“ waren und speziell darauf abzielten, die Position von Senator Al Gore zur globalen Erwärmung zu untergraben. Lancaster bedrängte Singer 1992, beschuldigte ihn, Revelles Namen über seine Einwände hinweg in den Artikel gesetzt zu haben, und verlangte, dass Singer den Artikel entfernen ließ. Er verlangte sogar, dass der Herausgeber eines Bandes, der den Artikel enthalten sollte, diesen entfernen sollte [25].

Professor Singer, der Cosmos-Verlag und der Herausgeber des Buches widersprachen diesen Forderungen und Anschuldigungen. Daraufhin verklagte Singer Lancaster wegen Verleumdung mit Hilfe des Center for Individual Rights in Washington, D.C. Professor Singer und das Center gewannen den Prozess und zwangen Lancaster zu einer Entschuldigung.

Die Ermittlungen während des Prozesses ergaben, dass Lancaster eng mit Al Gore und seinen Mitarbeitern zusammenarbeitete. Tatsächlich rief Al Gore nach Erscheinen des Easterbrook-Artikels persönlich bei Lancaster an und fragte ihn nach Revelles geistiger Leistungsfähigkeit in den Monaten vor seinem Tod im Juli 1991. Freunde und Familie von Revelle erinnern sich, dass er bis zu dem Moment, als er an einem plötzlichen Herzinfarkt verstarb, geistig rege und aktiv war. Dies hielt Al Gore und Lancaster jedoch nicht davon ab, zu behaupten, Revelle habe an Senilität oder Demenz gelitten, und deshalb unterschied sich die Darstellung in Gores Buch so sehr von dem, was Revelle an anderer Stelle, auch in dem Cosmos-Artikel, schrieb. Lancaster selbst hatte in einem Briefentwurf an Al Gore geschrieben, dass Revelle „geistig scharf bis zum Ende“ war und „seine Integrität nicht auf die leichte Schulter nahm“ [26].

Während des Ermittlungsverfahrens stellten Singer und seine Anwälte fest, dass Lancaster wusste, dass alles in dem Cosmos-Artikel wahr war und dass Revelle mit allem darin übereinstimmte. Der Artikel enthielt sogar eine Menge Material, das Revelle bereits 1990 auf einer Tagung der American Academy for the Advancement of Science vorgestellt hatte.

Wenn Revelle gegen „drastische“ Maßnahmen plädierte, meinte er damit Maßnahmen, die Billionen von Dollar kosten und die fossile Brennstoffindustrie und die Entwicklungsländer lahmlegen würden. Bis zu seinem Tod hielt er extreme Maßnahmen für verfrüht. Er war eindeutig der Meinung, dass wir erst einmal abwägen sollten, bevor wir etwas unternehmen.

Al Gore versuchte, Ted Koppel dazu zu bringen, Singer in seiner wöchentlichen Fernsehsendung Nightline zu verunglimpfen, und scheiterte damit spektakulär. Er wollte, dass Koppel die „Anti-Umwelt-Bewegung“ untersuchte und insbesondere „die Tatsache aufdeckte“, dass Singer und andere skeptische Wissenschaftler finanzielle Unterstützung von der Kohleindustrie und der verrückten Lyndon LaRouche-Organisation erhielten. Anstatt Al Gores Vorgaben zu folgen, sagte Ted Koppel am 24. Februar 1994 im Fernsehen folgendes:

„Es entbehrt nicht einer gewissen Ironie, dass Vizepräsident Gore, einer der wissenschaftlich gebildetsten Männer, die in diesem Jahrhundert im Weißen Haus saßen, zu politischen Mitteln greift, um etwas zu erreichen, das letztlich auf rein wissenschaftlicher Grundlage gelöst werden sollte. Der Maßstab für gute Wissenschaft ist weder die Politik des Wissenschaftlers noch die Menschen, mit denen der Wissenschaftler zusammenarbeitet. Es ist das Eintauchen der Hypothesen in die Säure der Wahrheit. Das ist der harte Weg, aber es ist der einzige Weg, der funktioniert.“
Ted Koppel, Nightline, 24. Februar 1994

Al Gore als „wissenschaftlich gebildet“ zu bezeichnen, ist fragwürdig, aber Koppel hat mit dem Rest Recht. Er hat eine Integrität, die im heutigen Journalismus fehlt, und er versteht den wissenschaftlichen Prozess. Der Versuch, Koppel zu benutzen, um Singer zu teeren, hat Gore eine Menge wohlverdienter Kritik eingebracht.

In Anbetracht dessen ist es nicht verwunderlich, dass Lancaster sich nur zwei Monate später, am 29. April 1994, zu einer Entschuldigung bereit erklärte. Lancasters Rückzug war eindeutig:

„Ich ziehe alle mündlichen oder schriftlichen Äußerungen zurück, die ich gemacht habe und in denen ich behaupte oder andeute, dass Professor Revelle kein echter und freiwilliger Mitverfasser des Cosmos-Artikels war, oder die in irgendeiner anderen Weise das Verhalten oder die Motive von Professor Singer in Bezug auf den Cosmos-Artikel (einschließlich, aber nicht beschränkt auf dessen Abfassung, Redaktion, Veröffentlichung, Wiederveröffentlichung und Verbreitung) anzweifeln oder verleumden. Ich verpflichte mich, in Zukunft keine derartigen Aussagen mehr zu machen. … Ich entschuldige mich bei Professor Singer“.

Justin Lancaster, gerichtlich angeordnete Entschuldigung, 29. April 1994

In seiner eidesstattlichen Erklärung gab Lancaster also zu, dass er über Fred Singer gelogen hatte. Später zog Lancaster seinen gerichtlich angeordneten Widerruf zurück und wiederholte die gleichen Anschuldigungen. Er gibt zu, dass er unter Eid in einem Gerichtssaal und schriftlich gelogen hat, und sagt uns dann, dass er nicht gelogen hat. Er gibt zu, dass Professor Revelle ein echter Mitverfasser der Arbeit war, dann erklärt er: „Revelle hat sie nicht geschrieben“ und „Revelle kann kein Autor sein“ [27]. Es ist kaum zu glauben, was manche Menschen zu tun bereit sind, ihrem Ruf im Namen einer imaginären Klimakatastrophe zu schaden. Er zog seinen Widerruf zurück, obwohl es Beweise in Revelles eigener Handschrift und zahlreiche Aussagen von anderen gibt, die belegen, dass Revelle tatsächlich zu dem Artikel beigetragen hat. Eine Klimawandel-Katastrophe? Schauen wir weiter.

Abbildung 3 zeigt die Ankündigung des Nobelpreiskomitees für den 2018 erhaltenen Preis des Yale-Professors William Nordhaus. Er erhielt den Preis für seine jahrzehntelange Forschung zur Ökonomie des Klimawandels und für die Entwicklung des DICE-Wirtschaftsmodells für potenzielle wirtschaftliche Schäden durch den Klimawandel.

Abbildung 3. Die Ankündigung des Nobelpreiskomitees zur Verleihung des Nobelpreises für Wirtschaft an Prof. William Nordhaus.

Im Jahr 1990 schrieb Nordhaus, Zitat:

„…diejenigen, die für starke Maßnahmen zur Verlangsamung der Erwärmung des Treibhauseffekts plädieren, sind zu diesem Schluss gekommen, diese ohne eine erkennbare Analyse der Kosten und des Nutzens vorzunehmen…“

(Nordhaus, 1990)

Nordhaus erhielt den Nobelpreis 28 Jahre, nachdem er dies geschrieben hatte. Nordhaus nannte auch Al Gores Kyoto-Protokoll von 1997

„… ein konzeptionelles Desaster; es hat weder politisch noch wirtschaftlich oder ökologisch einen Zusammenhang. [28]
Yale-Konferenzprotokoll
Kyoto hatte wenig mit dem Klimawandel zu tun, es war hauptsächlich ein enormer Geldtransfer von den reichen Ländern zu den armen Ländern.

Abbildung 4. Zwei Diagramme, die Nordhaus‘ Analyse der vermiedenen künftigen Schäden (grün) und der gegenwärtigen Kosten der CO2-Minderung (rot) zusammenfassen. Das linke Diagramm zeigt die vom IPCC erwarteten Temperaturen für jedes Szenario und das rechte Diagramm die Kosten und Vorteile der Szenarien.

Abbildung 4 fasst das Ergebnis der Analyse von Nordhaus zusammen, wobei er Grafiken aus seiner Nobelpreisvorlesung von 2018 verwendet [29]. Die Folie hebt zwei wirtschaftliche Szenarien hervor: Das erste ist der vom IPCC empfohlene Weg zu einer durchschnittlichen Erwärmung im 21. Jahrhundert von 1,5 Grad Celsius, der von 2060 bis 2080 zwei Grad Erwärmung erreicht, dann aber abfällt. Dieses hypothetische Erwärmungsszenario ist in der linken Grafik in schmutzigem Gelb dargestellt. Die Ergebnisse des Nordhaus-DICE-Wirtschaftsmodells für dieses Szenario sind auf der rechten Seite des rechten Diagramms dargestellt. Der rote Balken zeigt die gegenwärtigen Vermeidungskosten, d. h. die Kosten, die entstehen, wenn die Treibhausgasemissionen so weit reduziert werden, dass die Erwärmung auf 1,5 Grad begrenzt wird. Wie man sieht, zahlen wir heute über 50 Billionen Dollar, um in der Zukunft Einsparungen von weniger als fünf Billionen Dollar zu erzielen. Wenn alles so abläuft, wie der IPCC sagt, ist das kein sehr gutes Geschäft.

Das zweite hervorgehobene Szenario ist das wirtschaftlich „optimale“ DICE-Modell. Im linken Diagramm ist es die orangefarbene, mit Dreiecken gepunktete Linie. Es erreicht eine Erwärmung von vier Grad, bevor es sich abflacht. Es ist das Szenario mit den geringsten Kosten für die Gesellschaft. Der Temperaturanstieg ist höher, als der IPCC empfiehlt, und wesentlich höher als die Beobachtungen vermuten lassen, die wir erreichen werden. Eine Erwärmung um vier Grad ist für Menschen, Tiere und Pflanzen sicherlich nicht gefährlich. Die Temperaturen steigen stärker in den hohen Breiten, nachts und im Winter. Die Veränderungen während des Tages, in den Tropen und im Sommer sind recht gering. Das Leben gedeiht in Gebieten mit sehr hohen Temperaturen, daher ist unsere Wirtschaft das Hauptanliegen, und Nordhaus sagt, dass vier Grad Erwärmung aus wirtschaftlicher Sicht optimal sind. Wie in der rechten Grafik zu sehen ist, sind die prognostizierten Vorteile dieses optimalen Szenarios (in grün) viel höher als die Kosten (in rot dargestellt).

Das rechte Diagramm zeigt die Analyse aller im linken Diagramm dargestellten Szenarien, mit Ausnahme des Szenarios „optimal (alter Damm)“, bei dem ein anderes zukünftiges Schadensszenario verwendet wird. Das „Basis“-Szenario ist das Emissionsszenario des IPCC RCP8.5, bei dem im Wesentlichen kein Versuch der Schadensbegrenzung unternommen wird.

Nordhaus kommt zu seinen Schlussfolgerungen, indem er die „sozialen Kosten der Kohlenstoffdioxid-Emissionen“ analysiert. Wenn eine Kohlenstoffsteuer auf fossile Brennstoffe erhoben wird, steigen die Kosten für diese Brennstoffe und schaden der Wirtschaft. Fossile Brennstoffe werden für die Herstellung oder den Vertrieb von fast allem verwendet, was wir in unserem täglichen Leben nutzen; folglich führt die Einführung der Steuererhöhung dazu, dass die Kosten für alles steigen, was den Verbrauch verringert und unseren Lebensstandard senkt. Wenn jedoch das Worst-Case-Szenario des IPCC zutrifft und seine Analyse der Kosten der Erwärmung zutreffend ist, bringt die Verteuerung fossiler Brennstoffe Vorteile mit sich, da wir weniger davon verbrauchen, weniger CO2 ausstoßen und Kosten aufgrund der globalen Erwärmung vermeiden werden. Die rechte Grafik vergleicht die vom IPCC berechneten Schäden mit den Kosten des Klimawandels für verschiedene CO2-Minderungssteuern zur Begrenzung der Erwärmung in unterschiedlichen Szenarien.

Der IPCC möchte, dass wir die Erwärmung auf 1,5 °C gegenüber der vorindustriellen Ära begrenzen, d. h. gegenüber der Zeit vor 1900 oder dem Ende der Kleinen Eiszeit, als der CO2-Gehalt etwa 280 bis 290 ppm betrug. Doch wie Nordhaus‘ Analyse zeigt, wäre dies eine wirtschaftliche Katastrophe und würde über 50 Billionen Dollar einer Weltwirtschaft von 88 Billionen Dollar kosten. Es würde wahrscheinlich fast jeden verarmen lassen. Selbst eine Begrenzung der Erwärmung auf weniger als zwei Grad in den nächsten 100 Jahren würde zu einer wirtschaftlichen Katastrophe führen. Vergleichen Sie dies mit der IPCC-Schätzung, wonach das weltweite BIP in 60 Jahren nur um 0,2-2 % sinken würde, wenn wir nichts unternehmen.

Nordhaus verwendete für seine Berechnungen das Emissionsszenario RCP 8.5 des IPCC, das sich als unwahrscheinliches Worst-Case-Szenario erwiesen hat und von zahlreichen Forschern diskreditiert wurde. Die anderen, gemäßigteren IPCC-Szenarien sehen wirtschaftlich und aus einer vermeintlich gefährlichen Klimaperspektive viel besser aus [30].

Bjørn Lomborg untersuchte in einem Artikel in der Zeitschrift Technological Forecasting & Social Change die potenziellen Kosten der globalen Erwärmung im Vergleich zu den Kosten einer radikalen Reduzierung der CO2-Emissionen im Jahr 2020 [31]. In einer detaillierten Analyse der Wirtschaftsprognosen von Nordhaus, dem IPCC und anderen kommt Lomborg ebenfalls zu dem Ergebnis, dass sich das globale BIP heute aufgrund des Klimawandels nicht merklich verändert. Bei einer Erwärmung von 1,5°C stellt er eine geringfügige Veränderung des BIP von -0,28% fest, und bei einer Erwärmung von 4°C wird das BIP im Jahr 2100 um 2,9% sinken, wenn wir nichts gegen den Klimawandel unternehmen.

Lomborg weist darauf hin, dass der IPCC bis zum Ende des 21. Jahrhunderts einen Anstieg des menschlichen Wohlstands um 450 % prognostiziert. Die prognostizierten Klimaschäden würden diesen Wohlstandszuwachs auf 434 % reduzieren, wenn wir nichts unternehmen. Somit wird der Klimawandel den Gewinn an globalem Wohlstand im Jahr 2100 voraussichtlich um 4 % verringern.

Lomborg weist weiter darauf hin, dass die Kosten des Nichtstuns gering sind, die Kosten der vorgeschlagenen klimapolitischen Maßnahmen jedoch sehr hoch. Das Pariser Abkommen wird, wenn es vollständig umgesetzt wird, im Jahr 2030 über 800 Milliarden Dollar pro Jahr kosten und die Emissionen nur um 1 % dessen reduzieren, was erforderlich ist, um den durchschnittlichen globalen Temperaturanstieg auf 1,5 °C zu begrenzen. Jeder Dollar, der für Paris ausgegeben wird, bringt nur 11 Cent an Nutzen. Auch das ist kein sehr gutes Geschäft.

Die Öffentlichkeit und die Medien, die eigentlich bohrende Fragen stellen sollten, sind davon überzeugt, dass sie die Wissenschaft nicht verstehen können. Sie haben die Wissenschaft zu einer Form der Magie erhoben, die nur von Hexen und Hexenmeistern verstanden wird. Sie sind darauf beschränkt, von Wissenschaftlern zu verlangen, dass sie sie mit bedeutungslosen Sätzen füttern. Mit ein wenig Mühe können die meisten Laien wissenschaftliche Arbeiten verstehen, und sie sollten es auch versuchen. Es ist nicht akzeptabel, sich darauf zu verlassen, dass Politiker, Wissenschaftler und die Medien uns sagen, was vor sich geht. Wissenschaftler sollten auch mehr für Laien verständliche Texte verfassen, wie es John Tyndall, Svante Arrhenius und viele andere frühe Wissenschaftler taten. Keine kleinen 600-800-Wörter-Op-eds, sondern echte wissenschaftliche Abhandlungen, die für den einfachen Mann geschrieben sind. Die Nachrichtenmedien sind schlecht darin, über Wissenschaft zu schreiben, weil sie oft kein Interesse an der Wahrheit haben, sondern nur Aufmerksamkeit und verblüffende Vorhersagen wollen. Ihr Ziel ist Aufmerksamkeit, nicht Bildung. Deshalb müssen wir es selbst herausfinden. Zu diesem Zweck sollten wir uns an die Worte des großen Physikers Richard Feynman erinnern:

„Wissenschaft ist der Glaube an die Unwissenheit der Experten“.

Prof. Richard Feynman

Die Wissenschaft ist eine Methode zur Aufdeckung der Wahrheit. Sie ist eine über Jahrtausende hinweg verfeinerte Methodik, die eingesetzt werden kann, um zu zerstören, was die Mehrheit für wahr hält, was aber nicht stimmt. Wenn ein Wissenschaftler aufhört, die gängige Meinung in Frage zu stellen, ist er kein Wissenschaftler mehr.

Abschließend möchten wir mit einer letzten Geschichte enden. Steven Koonin berichtet in seinem Buch Unsettled, dass „Senator [Charles] Schumer (zusammen mit den Senatoren Carper, Reed, Van Hollen, Whitehouse, Markey, Schatz, Smith, Blumenthal, Shaheen, Booker, Stabenow, Klobuchar, Hassan, Merkley und Feinstein) den Gesetzentwurf S.729 im Senat einbrachte“, in dem es unter anderem heißt, Zitat:

„… die Verwendung von Geldern für Bundesbehörden zu verbieten, um ein Gremium, eine Arbeitsgruppe, einen beratenden Ausschuss oder andere Bemühungen einzurichten, die den wissenschaftlichen Konsens zum Klimawandel in Frage stellen…“

Senatsvorlage S.729

Ja, diese Senatoren versuchten, mit Hilfe von Forschungsgeldern der Regierung Gesetze gegen die Infragestellung einer unbewiesenen wissenschaftlichen Hypothese, im Grunde einer wissenschaftlichen Meinung, zu erlassen. Viel schlimmer kann es nicht werden. Wissenschaft ist Debatte, und wenn nicht alle Seiten geprüft und argumentiert werden, ist es keine Wissenschaft. Zum Glück ist ihr Versuch gescheitert, denn das Letzte, was wir brauchen, ist, dass der US-Senat über die wissenschaftliche Wahrheit entscheidet!

„Wenn man Politik und Wissenschaft vermischt, kommt nur Politik heraus.“ [32]

Anthony Sadar, Washington Times.

In der Politik geht es darum, durch Überredung und Einschüchterung eine einheitliche Meinung zu schaffen; in der Wissenschaft geht es darum, diesen Konsens in Frage zu stellen. Bei Debatten geht es um Bildung, wir sollten alle Seiten anhören.

Download the footnotes and the bibliography here.

This talk is mostly drawn from my latest book, Politics & Climate Change: A History

  1. Politics and Climate Change: A History, by Andy May
  2. (Government Accounting Office, 2018)
  3. William Shockley, Bell Labs
  4. John Blanknbaker, Kenbak Corp.
  5. Joseph Nicephore Niepce, French inventor
  6. Either Alexander Bell or Antonio Meucci
  7. Karl Benz
  8. Wright Brothers
  9. Richard Gurley Drew, 3M
  10. Charles Francis Jenkins, Charles Jenkins Laboratories
  11. Roy Plunkett, DuPont
  12. George de Mestral, Swiss engineer
  13. Felix Hoffman, Bayer
  14. Julius Oppenheimer, Manhatten project
  15. Walter Dornberger and Wernher von Braun
  16. Mikhail Timofeyevich Kalashnikov, Soviet and Russian army general
  17. Shi, Wuhan Institute of virology, see Viral, by Aline Chan and Matt Ridley
  18. Various manufacturers under contract to the U.S. Government.
  19. (Ridley, 2015)
  20. (Schow, 2019)
  21. (Ridley, 2015)
  22. (Gallucci, 2018)
  23. (Happer, 2003)
  24. (Easterbrook, 1992)
  25. (Geyer, 1993)
  26. (Singer, 2003), Chapter 11 in Politicizing Science by Michael Gough
  27. (Lancaster, 2006), Lancaster “fully rescind and repudiate my 1994 retraction”
  28. (Yale University, n.d.)
  29. (The Nobel Prize, 2018)
  30. Wang and colleagues (Wang, Feng, Tang, Bentley, & Höök, 2017), (Ritchie & Dowlatabadi, 2017) and (Burgess, Ritchie, Shapland, & Pielke Jr., 2020)
  31. (Lomborg, 2020)
  32. (Sadar, 2022)

Link: https://andymaypetrophysicist.com/2022/01/21/should-government-control-scientific-research/

Übersetzt von Christian Freuer für das EIKE

 




ESG = Extreme Shortage Guaranteed [Extreme Verknappung garantiert]!

Ronald Stein, Ambassador for Energy & Infrastructure, Irvine, California

Die Umwelt-, Sozial- und Governance-Faktoren (ESG-Faktoren), die im Bankensektor auf der Tagesordnung stehen, um sich von fossilen Brennstoffen zu trennen, beruhen auf dem Wunsch, eine Welt wie um 1800 zu erreichen, als die Welt bereits „dekarbonisiert“ war.

Damals gab es noch keine Kohle- oder Erdgaskraftwerke, und wir hatten das Erdöl noch nicht als etwas entdeckt, das zu brauchbaren Produkten verarbeitet werden konnte. Das Leben war hart und schmutzig, und die meisten Menschen reisten nie weiter als 100-200 Meilen von ihrem Geburtsort weg, und die Lebenserwartung war kurz.

Heute hat man die Realität aus den Augen verloren, dass Erdöl in erster Linie NICHT zur Stromerzeugung verwendet wird, sondern zur Herstellung von Derivaten und Kraftstoffen, die die Grundlage für alles sind, was die Wirtschaft und der Lebensstil zum Bestehen und Gedeihen brauchen. Energie-Realismus erfordert, dass die Gesetzgeber, politischen Entscheidungsträger und Medien, die eine weit verbreitete Ignoranz gegenüber der Nutzung von Rohöl an den Tag legen, das erschütternde Ausmaß der Dekarbonisierungs-Bewegung verstehen.

Die Bemühungen, die Nutzung von Erdöl einzustellen, könnten die größte Bedrohung für die Zivilisation sein, nicht der Klimawandel, könnten diese Bemühungen doch zu Milliarden von Todesfällen durch Krankheiten, Unterernährung und wetterbedingte Todesfälle führen.

[Hervorhebung im Original]

Im Zuge des weltweiten Bestrebens, das Ziel „Netto-Null-Emissionen“ zu erreichen, hat sich „ESG“ – die Abkürzung steht für Environmental Social Governance – in den letzten fünf bis zehn Jahren von einem Akronym, das kaum jemand kannte oder für das sich kaum jemand interessierte, zu einer kultisch verehrten Top-Priorität von Finanzaufsichtsbehörden, Märkten und Institutionen in aller Welt entwickelt.  Heute gelten die ESG-Divesting-Bemühungen für alle drei fossilen Brennstoffe – Kohle, Erdgas und Erdöl.

Der Net-Zero Banking Alliance, die mit Unterstützung der Vereinten Nationen entwickelt wurde, gehören inzwischen sieben der größten und einflussreichsten Banken der Vereinigten Staaten an, darunter BOA, Citi, J.P. Morgan Chase, Morgan Stanley, Goldman Sachs, Wells Fargo und Amalgamated Bank.

Es ist ein sehr gefährlicher Präzedenzfall, wenn man den Banken erlaubt, durch geheime Absprachen die Volkswirtschaften so umzugestalten, dass sie den Präferenzen der Banken und anderer Finanzinstitute entsprechen. Das amerikanische Volk hat nie dafür gestimmt, den Banken diese Art von Kontrolle über unser Land zu geben.

Die Dominoeffekte von Eingriffen in die Lieferkette von Rohöl sind Versorgungsengpässe und steigende Preise für Tausende von Produkten, die die Wirtschaft der Welt stützen. Auf Erdöl basierende Produkte sind die Grundlage der gesamten medizinischen Industrie, aller Bereiche des Militärs, der Flughäfen, der Elektronik, der Kommunikation, der Handelsschiffe, der Containerschiffe und der Kreuzfahrtschiffe sowie des Asphalts für Straßen und der Düngemittel für die Ernährung der Welt. Die Verknappung fossiler Brennstoffe fördert die Inflation, da sie der Energie- und Rohstoff-Infrastruktur schweren Schaden zufügt.

Der Klimaalarmismus scheint unerschöpflich zu sein, und wenn man der Geschichte glauben darf, stehen das Eingeständnis von Fehlern und die überstürzte Beseitigung von Schäden nicht ganz oben auf der Liste der wahrscheinlichen Reaktionen. Wenn wir uns also von der Erdöl-Infrastruktur trennen, können wir uns auf Lieferengpässe bei Tausenden von Produkten, die aus Erdöl hergestellt werden, sowie auf horrende Strompreise und eine unzuverlässige Versorgung zur Deckung des Bedarfs der Gesellschaft einstellen.

Die Erdölprodukte, die die Kindersterblichkeit gesenkt, die Lebenserwartung auf über 80 Jahre erhöht und die Weltbevölkerung in weniger als zwei Jahrhunderten von einer auf acht Milliarden Menschen haben anwachsen lassen, werden nun benötigt, um die Nahrungsmittel, die medizinische Versorgung und die Kommunikationsmittel bereitzustellen, die für die Aufrechterhaltung und das Wachstum dieser Bevölkerung erforderlich sind. Wie können die führenden Politiker der Welt bewusst den Untergang des Erdöls unterstützen, der uns in die Zeit um 1800 zurückversetzen würde, als das Leben hart, schmutzig und kurz war?

Nach Angaben der Vereinten Nationen wird die Weltbevölkerung derjenigen, die 100 Jahre alt oder älter sind, aufgrund der aus Erdöl hergestellten Produkte von mehr als 500.000 im Jahr 2021 auf über 2 Milliarden im Jahr 2050 steigen.

Wir wissen bereits, dass in den ärmeren Entwicklungsländern, die derzeit keine aus Erdöl hergestellten Produkte des 20. Jahrhunderts verwenden, jedes Jahr etwa 11.000.000 Kinder sterben, weil die in den wohlhabenden Ländern verwendeten Produkte aus fossilen Brennstoffen nicht verfügbar sind.

Mehr als 70 Prozent dieser Todesfälle bei Kindern in Entwicklungsländern sind auf sechs Ursachen zurückzuführen: Durchfall, Malaria, Infektionen bei Neugeborenen, Lungenentzündung, Frühgeburt oder Sauerstoffmangel bei der Geburt. Etwa 29.000 Kinder unter fünf Jahren – 21 pro Minute – sterben jeden Tag, hauptsächlich aus vermeidbaren Gründen.

Ohne Ersatz für die aus Erdöl hergestellten Derivate wird der Lebensstandard der Bevölkerung in den derzeit gesunden und wohlhabenden Ländern drastisch sinken, da die Welt in die Zeit vor 1900 zurückfällt, und jeder Versuch, die Kolonialländer zu entwickeln, würde zum Stillstand kommen.

„Netto-Null“ wird uns in eine Zeit vor 1900 zurückversetzen, als die Welt noch nicht die Vorteile der fossilen Brennstoffe für die Gesellschaft entdeckt hatte. Die „Netto-Null“-Politik führt nachweislich zu immer schwerwiegenderen sozio-ökonomischen und ökologischen Schäden: In mehreren fortgeschrittenen Volkswirtschaften kommt es regelmäßig zu Stromausfällen und steil ansteigenden Strompreisen, die zu Stromarmut, übermäßigem Sterben im Winter, organisiertem sozialem und politischem Widerstand und immer mehr gewalttätigen Auseinandersetzungen führen.

Vor 1900 hatten wir KEINE der Produkte, die in der medizinischen Industrie verwendet werden, und auch keines der 6.000 Produkte, die aus Erdöl und Erdölprodukten hergestellt werden. Durch die Einstellung der Ölförderung und des Frackings wird die Versorgungskette zu den Raffinerien unterbrochen und die Raffinerien werden überflüssig, da sie kein Rohöl mehr für die Herstellung von Derivaten und Kraftstoffen für den Transport brauchen, die von der weltweiten Schwerlast- und Langstreckeninfrastruktur in der Luftfahrt, auf Handelsschiffen, Kreuzfahrtschiffen und im Militär benötigt werden.

Wie die Energy Information Administration (EIA) berichtet, wirkt sich das Divestment bereits auf die Versorgungsengpässe bei Flugzeugbenzin aus, da die geringere Produktion und die höhere Nachfrage die Vorräte an Düsentreibstoff für die 23.000 kommerziellen Flugzeuge und 20.000 Privatjets in den USA seit 2014 verringert haben.

Der IEA-Bericht weist darauf hin, dass das Nachfragewachstum für Kunststoffe und Düngemittel das Nachfragewachstum für Stahl, Aluminium und Zement übersteigt. Die Nachfrage nach petrochemischen Produkten hat sich seit 2000 fast verdoppelt, und die USA und Europa verbrauchen pro Kopf zwanzigmal so viel Kunststoff und zehnmal so viel Dünger wie Indien, Indonesien und andere Entwicklungsländer. Eine dekarbonisierte Welt ohne die drei fossilen Brennstoffe Kohle, Erdgas und Erdöl KANN KEINE dieser Petrochemikalien aus einer Windturbine oder einem Solarpanel herstellen.

Da der Ausstieg aus den fossilen Brennstoffen in Bezug auf Umwelt, Soziales und Governance (ESG) immer weiter voranschreitet, führt das kurze Gedächtnis an den Beitrag der Petrochemie als goldene Gans für die Gesellschaft die Welt in eine Ära der garantierten extremen Knappheit (ESG), wie wir sie in der dekarbonisierten Welt um 1800 hatten!

http://www.energyliteracy.net/

Link: https://www.cfact.org/2022/01/17/esg-extreme-shortages-guaranteed/

Übersetzt von Christian Freuer für das EIKE

 




Unzuverlässigkeit macht die Solarenergie absolut unbezahlbar

David Wojick

Viele [US-]Bundesstaaten und die von ihnen regulierten Versorgungsunternehmen sprechen davon, ihre kohle- und gasbefeuerten Generatoren durch Solar- und Windenergie zu ersetzen. So habe ich vor kurzem darüber geschrieben, dass das Gesetz für eine saubere Wirtschaft in Virginia mit seinem verrückten Namen bereits fast 800 Quadratmeilen an Solaranlagen in der Entwicklungsphase hat. Siehe hier.

In Anbetracht der hohen Intermittenz von Wind- und Solarenergie ist die Idee, sich mit Solar- und Windenergie zu versorgen, eine extrem kostspielige Angelegenheit. Es geht vor allem um Zuverlässigkeit. Die Elektrizität muss da sein, wenn wir sie brauchen. Im Folgenden stelle ich einige einfache Berechnungen vor, die zeigen, wie schlecht diese Idee wirklich ist.

Die Zuverlässigkeitsanalyse von Solar- und Windenergieanlagen in großem Maßstab kann sehr komplex sein. Beide sind vom Wetter abhängig, das sich schnell und dramatisch ändern kann. Beide können in hohem Maße von anderen verfügbaren Energiequellen abhängen, falls vorhanden. Unter bestimmten Bedingungen können sie auch voneinander abhängig sein.

Hier werden wir einfach bestimmte grundlegende Merkmale der Stromerzeugung analysieren, um die Probleme zu skalieren. Für den Anfang betrachten wir einfach, was ein eigenständiges 1.000-MW-Solarsystem mit Batteriespeicher für die Zuverlässigkeit benötigt.

Die 1.000 MW sind Strom, der rund um die Uhr zuverlässig ins Netz eingespeist wird. Wegen der Intermittenz werden deutlich mehr als 1.000 MW an Erzeugungskapazität benötigt. Außerdem wird eine Menge Batteriespeicher benötigt. Daher werden die Kapitalkosten viel höher sein als die Kosten für 1.000 MW Erzeugungskapazität. Wir werden diese zusätzlichen Kosten erörtern. Beachten Sie, dass die Hinzunahme von Windenergie diese sehr hohen Kosten nicht verringert.

Ausgehend von dieser einfachen 1.000-MW-Analyse wird es relativ einfach sein, andere mögliche Systeme unterschiedlicher Größe und mit unterschiedlichen Merkmalen zu betrachten.

Zuverlässigkeit der 1000 MW Stromerzeugung rund um die Uhr

Solarenergie ist aufgrund des vorhersehbaren täglichen Zyklus von Tag und Nacht relativ einfach abzuschätzen. Die Erzeugungszeiten variieren jedoch je nach Jahreszeit. Sie hängen auch davon ab, wie beweglich die Paneele sind, d. h. inwieweit sie der täglichen Bewegung der Sonne am Himmel folgen können.

Der Fall der vollen Sonnenscheindauer

Der Einfachheit halber gehen wir zunächst von 8 Stunden voller Sonne und voller Leistung pro Tag aus. Dann brauchen wir natürlich jede Nacht 16 Stunden Speicherplatz. Das sind 16.000 MWh an Batteriespeichern. Außerdem benötigen wir weitere 2.000 MW an Erzeugungskapazität, um die Batterien jeden Tag aufzuladen.

Bei voller Sonneneinstrahlung sind also 3.000 MW an Solarstromerzeugungskapazität und 16.000 MWh an Speicherkapazität erforderlich, um rund um die Uhr zuverlässig 1.000 MW zu erzeugen.

Dunkle Tage mit viel Bewölkung

An dunklen, wolkenverhangenen Tagen kann die Solarstromleistung drastisch reduziert werden. Bei starker Bewölkung kann die Leistung auf nur 10 % der Nennkapazität reduziert werden. Dichte Bewölkung kann sich tagelang halten, so dass neben der Stromerzeugungskapazität auch eine größere Batteriepufferung erforderlich ist, um die Batterien an diesen dunklen Tagen aufzuladen.

Wie viele aufeinanderfolgende Tage mit starker Bewölkung zu berücksichtigen sind, ist eine komplexe Frage der lokalen und regionalen Meteorologie. Hier nehmen wir einfach 5 Tage an, aber es könnten leicht mehr sein. Fünf verhangene Tage kommen in den meisten Staaten sicherlich von Zeit zu Zeit vor. Im Fall von Virginia kann dies in der gesamten mittelatlantischen Region vorkommen, so dass niemand über nennenswerten Solarstrom verfügt. Das schließt den Kauf von Solarstrom aus Nachbarstaaten aus.

Zuverlässigkeit erfordert eine Auslegung für diese relativ extremen Ereignisse. Bei der konventionellen Stromerzeugung plant man für den maximalen Strombedarf, aber bei Wind- und Solarenergie muss man auch für die Mindestversorgung planen. Um diesen Minimalfall geht es mir hier.

Die erforderliche Batteriekapazität ist einfach. Fünf Tage mit 24 Stunden pro Tag sind 120 Stunden. Um eine konstante Leistung von 1.000 MW zu liefern, sind das satte 120.000 MWh an Speicherkapazität. Wir haben bereits eine Nachtspeicherkapazität von 16 Stunden, also brauchen wir jetzt zusätzliche 104 Stunden, also 104.000 MWh an zusätzlicher Speicherkapazität.

Die erforderliche zusätzliche Stromerzeugungskapazität zum Aufladen der Batterien für diese wolkenreichen Tage ist jedoch alles andere als einfach. Es hängt alles davon ab, wie lange wir für das Aufladen Zeit haben. Je mehr Zeit wir haben, desto geringer ist die erforderliche Stromerzeugungskapazität.

Es ist von entscheidender Bedeutung, dass die Batterien für die dunklen Tage aufgeladen werden, bevor die nächsten dunklen Tage kommen, was in einigen Fällen sehr bald sein kann. Auch dies ist eine Frage der Meteorologie. Um konservativ zu sein, gehen wir zunächst davon aus, dass wir zwei helle Sonnentage haben, um die Arbeit zu erledigen.

An zwei Tagen haben wir 16 Stunden Ladezeit für die benötigten 120.000 MWh, was eine große Erzeugungskapazität von 7.500 MW erfordert. Wir verfügen bereits über 3.000 MW an Erzeugungskapazität, die jedoch rund um die Uhr für die Stromversorgung an sonnigen Tagen genutzt wird. Sie steht nicht zur Verfügung, um die Batterien für die dunklen Tage aufzuladen. Es stellt sich heraus, dass wir satte 10.500 MW an Solarstromerzeugungskapazität benötigen.

Diese 10.500 MW sind eine Menge, wenn man bedenkt, dass wir nur 1.000 MW rund um die Uhr zuverlässig erzeugen wollen. Außerdem wird ein Teil dieser zusätzlichen Erzeugungskapazität nur selten genutzt werden. Aber die Zuverlässigkeit ist wegen der großen Wetterschwankungen so. Bei der konventionellen Stromerzeugung mit fossilen Brennstoffen ist das Extremereignis, das für die Auslegung ausschlaggebend ist, der Spitzenbedarf (auch Nachfragespitze genannt). Für diesen Fall werden spezielle Generatoren, sogenannte „Peaker“, eingesetzt. Im Falle der Solarenergie handelt es sich bei der speziellen Ausrüstung um Batterien oder andere Formen der Speicherung.

Wenn wir 5 Tage Zeit haben, um die Batterien für die dunklen Tage aufzuladen, ist die erforderliche Erzeugungsmenge viel geringer. An fünf Tagen haben wir 40 Stunden Zeit, um die 120.000 MWh aufzuladen, so dass wir nur 3.000 MW an zusätzlicher Erzeugungskapazität benötigen, zusätzlich zu den 3.000 MW, die wir für die tägliche Stromerzeugung an sonnigen Tagen benötigen.

An diesem Punkt benötigen wir 120.000 MWh Batteriespeicher und 6.000 bis 10.500 MW Erzeugungskapazität, um rund um die Uhr zuverlässig 1.000 MW Strom zu liefern.

Diese großen Zahlen kommen zustande, weil wir nach einer Periode dunkler, bewölkter Tage während der Erzeugungsstunden bei Tageslicht drei Dinge gleichzeitig tun. Wir erzeugen (1) 1.000 MW sofort verbrauchten Strom und laden gleichzeitig sowohl die (2) Nachtbatterien als auch die (3) Batterien für die dunklen Tage wieder auf.

Beachten Sie auch, dass die Zahlen eigentlich größer sein müssten. Die Batterien werden nicht zu 100 % geladen und dann auf Null entladen. In der Regel werden sie zwischen 80 % und 20 % betrieben. In diesem Fall beträgt die verfügbare Speicherkapazität nur 60 % der Nennkapazität. Das macht aus den 120.000 MWh der dunklen Tage einen Bedarf von 200.000 Mwh.

Kosten im Falle von Tagen mit dichter Bewölkung

Ein Standardwert der EIA für die Kosten von netzweiten Batteriespeichern liegt bei 250 $ pro kWh, was 250.000 $ pro MWh ergibt. Bei diesen Kosten belaufen sich die erforderlichen 200.000 MWh Speicher für rund um die Uhr verfügbare 1.000 MW auf 50 Mrd. $.

Ein Standardwert der EIA für PV-Solarkapazität beträgt 1300 $ pro kW oder 1.300.000 $ pro MW. Damit liegen die Kosten für 6.000 bis 10.500 MW bei 7,8 bis 13,7 Milliarden Dollar.

Damit sind 60 Mrd. $ für nur 1.000 MW eine gute grobe Schätzung für die alleinige Solarkapazität, um den Fall von 5 dunklen bewölkten Tagen zu erfüllen. (Wie weiter unten erläutert, verringert die Hinzunahme von Windkraft diese Zahl nicht, da an den 5 dunklen Tagen auch die Windkraftleistung gleich Null sein kann*).

[*Ein Musterbeispiel hierfür sind die häufigen Hochdrucklagen bei uns in diesem Winter. Dabei hält sich tage-, wenn nicht wochenlang zäher Hochnebel bei praktisch Windstille von den Alpen bis auf die Nordsee hinaus. A. d. Übers.]

Bei wechselnder Bewölkung

Der Fall der Tage mit wechselnder Bewölkung ist weitaus komplexer. In den meisten Fällen kann dieser Verlust an Solarstromerzeugung mit den Batterien für dunkle Tage ausgeglichen werden. Dies ist jedoch möglicherweise nicht der Fall, wenn dem Ereignis der dunklen Tage teilweise bewölkte Tage vorausgehen oder folgen, insbesondere wenn diese relativ dunkel sind. Beachten Sie, dass „teilweise bewölkt“ hier auch vollständige Bewölkung einschließt, bei der die Wolkendecke leicht genug ist, um immer noch deutlich mehr als die 10 % Stromerzeugung an den dunklen Tagen zu ermöglichen.

Angesichts dieser komplexen Zusammenhänge sprengt dieser teilweise bewölkte Fall den Rahmen dieser einfachen Analyse. Es ist sehr wahrscheinlich, dass in diesem Fall zusätzliche Batteriespeicher und Erzeugungskapazitäten erforderlich sind. Wie viel, ist schwer zu sagen.

Es ist auch zu beachten, dass mehrere kostspielige Funktionen nicht berücksichtigt sind. Ein Beispiel ist die Übertragung, um den Solarstrom vom Ursprungsort zu den möglicherweise weit entfernten Lastzentren zu bringen. Ein weiteres Beispiel ist die Reserveerzeugungskapazität oder Sicherheitsmarge, die bis zu 20 % betragen kann. Man kann nicht davon ausgehen, dass alles perfekt funktioniert, wenn das System belastet wird. Dies gilt vor allem dann, wenn die dunklen Tage von starken Schneefällen begleitet werden, die das Aufladen stark verzögern können.

Zuverlässigkeit der Winderzeugung rund um die Uhr zur Unterstützung der Solarenergie

Die Winderzeugung hat nicht den vorhersehbaren Tageszyklus wie die Solarenergie und ist daher von Anfang an komplexer. Bei der Solarenergie können wir an den meisten Tagen mit einer relativ guten kontinuierlichen Erzeugung rechnen. Bei der Windenergie kann es vorkommen, dass die Leistung im Laufe eines Tages häufig auf Null sinkt, dass sie mehrere Tage hintereinander ausbleibt und dass sie an vielen Orten über längere Zeiträume hinweg nur sehr wenig liefert.

Es geht nicht darum, dass kein Wind weht, sondern dass nur wenig Wind weht. Windkraftanlagen benötigen anhaltende Winde von beträchtlicher Geschwindigkeit, um nennenswerte Mengen an Strom zu erzeugen. In vielen Teilen des Landes verursachen stagnierende, mehrtägige Hochdrucksysteme sowohl Windstille als auch einen hohen Strombedarf.

Es ist sehr wichtig zu beachten, dass aufgrund dieser großen Variabilität die Windenergie nicht genutzt werden kann, um den massiven Bedarf an Solarenergie an dunklen Tagen zu reduzieren. Es ist nämlich immer möglich, dass während der dunklen Tage kein Windstrom zur Verfügung steht, ebenso wie während der Wiederaufladezeit nach diesem Extremereignis. Ein eigenständiges Solar- und Windsystem muss für diese extreme, aber häufige Möglichkeit ausgelegt sein.

Solar- und Windenergie können Kohle und Gas nicht zu vertretbaren Kosten ersetzen. Die Intermittenz macht Solar- und Windenergie zu einem untragbaren Kostenfaktor. Dies gilt wahrscheinlich nicht nur für alle US-Bundesstaaten und ganz sicher für Virginia, sondern für alle Länder dieser Welt.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2022/01/19/unreliability-makes-solar-power-impossibly-expensive/

Übersetzt von Christian Freuer für das EIKE




Google geht gegen Klima-Realisten vor

Anthony Watts, H. Sterling Burnett

Es scheint, dass es bei Meinungsverschiedenheiten über den Klimawandel nur einen Standpunkt der Linken geben kann: „my way or the highway“.

Am 7. Oktober 2021 erklärte Google in einer Ankündigung mit dem Titel [übersetzt] „Aktualisierung unserer Anzeigen- und Monetarisierungsrichtlinien zum Klimawandel“, dass es Anbietern von Inhalten, die einen skeptischen Standpunkt zum Klimawandel vertreten, nicht mehr erlauben würde, Geld über die Google AdWords-Plattform zu verdienen:

Auseinandersetzung mit der Leugnung des Klimawandels

In den letzten Jahren haben wir direkt von einer wachsenden Zahl unserer Werbe- und Verlagspartner gehört, die sich besorgt über Anzeigen geäußert haben, die neben unzutreffenden Behauptungen über den Klimawandel laufen oder diese propagieren. Werbetreibende wollen einfach nicht, dass ihre Anzeigen neben solchen Inhalten erscheinen. Und Verleger und Autoren möchten nicht, dass Anzeigen, die diese Behauptungen unterstützen, auf ihren Seiten oder Videos erscheinen.

Aus diesem Grund kündigen wir heute eine neue Monetarisierungsrichtlinie für Google-Inserenten, Herausgeber und YouTube-Ersteller an, die Anzeigen für und die Monetarisierung von Inhalten verbietet, die dem etablierten wissenschaftlichen Konsens über die Existenz und die Ursachen des Klimawandels widersprechen. Dazu gehören Inhalte, die den Klimawandel als Schwindel oder Betrug bezeichnen, Behauptungen, die leugnen, dass langfristige Trends zeigen, dass sich das globale Klima erwärmt, und Behauptungen, die leugnen, dass Treibhausgasemissionen oder menschliche Aktivitäten zum Klimawandel beitragen.

Google beruft sich bei dieser Maßnahme auf den IPCC sowie auf nicht genannte „Experten“:

Bei der Erstellung dieser Richtlinie und ihrer Parameter haben wir maßgebliche Quellen zum Thema Klimawissenschaft konsultiert, darunter auch Experten, die an den Bewertungsberichten des IPCC mitgewirkt haben. Wie bei vielen unserer Richtlinien setzen wir eine Kombination aus automatisierten Tools und menschlicher Überprüfung ein, um diese Richtlinie gegen verletzende Publisher-Inhalte, von Google geschaltete Anzeigen und YouTube-Videos, die über das YouTube-Partnerprogramm monetarisiert werden, durchzusetzen.

Getreu dieser Ankündigung hat Google bereits mehrere prominente Plattformen, die skeptische Standpunkte zum Klimawandel vertreten, aus dem Verkehr gezogen. Eine der ersten betroffenen Websites war meine eigene Watts Up With That (WUWT), die weltweit meistbesuchte Website zum Klimawandel. Am 11. Oktober 2021 erhielt ich diese E-Mail von meinem Werbepartner Sortable:

Dr. Spencer writes:

Hallo Anthony,

wir haben vor kurzem eine Mitteilung von Google erhalten, dass die Anzeigenschaltung auf Ihrer Website aufgrund der neuen Richtlinien für Inhalte zum Klimawandel deaktiviert wurde.

Ohne die Zustimmung von Google müssen wir unsere Partnerschaft leider beenden. Wir verstehen, dass dies frustrierend ist und schlagen vor, dass Sie sich an das Google-Team wenden, um eine erneute Genehmigung zu erhalten. Wenn sie diese kippen, würden wir unsere Partnerschaft gerne wieder aufnehmen.

Natürlich wäre ein Einspruch sinnlos gewesen, denn es handelt sich nicht um eine faktenbasierte Aktion von Google. Meiner Meinung nach ist es Teil einer orchestrierten Hexenjagd.

Ich habe erfahren, dass auch andere Websites betroffen waren, und die wahrscheinlich überraschendste war die des ehemaligen NASA-Wissenschaftlers Dr. Roy Spencer, der über seine Erfahrungen in einem Beitrag vom 7. Januar schrieb: „’Unzuverlässige und schädliche Behauptungen‘: Diese Website wurde von Google demontiert“.

Dr. Spencer schreibt:

Aus finanzieller Sicht ist das keine große Sache, denn was ich mit Google-Anzeigen verdiene, liegt im Rahmen des monatlichen Budgets meiner Familie. Ich verdiene kaum mehr, als ich an Hosting-Gebühren und einem (immer teurer werdenden) Kommentarspam-Screener zahle….

Seit einigen Monaten erhalte ich Google-Warnungen wegen „Richtlinienverstößen“, aber nirgendwo wurde aufgeführt, welche Seiten gegen die Richtlinien verstoßen und worin diese Verstöße bestehen….

Erst als die Anzeigen entfernt wurden, bot Google Links zu den fraglichen Seiten an und nannte den Grund dafür.

Spencers Erfahrung ähnelt der meinen: keine konkreten „Verstöße“, nur dass WUWT gegen diese nebulösen neuen Richtlinien verstoßen hat.

Was den Inhalt betrifft, so hat Dr. Spencer Folgendes zu sagen:

Ich hatte irgendwie gehofft, dass mein Inhalt Mainstream genug war, um nicht gesperrt zu werden, weil:

1. Ich glaube, dass sich das Klimasystem erwärmt hat

2. Ich glaube, dass der größte Teil dieser Erwärmung wahrscheinlich auf die Treibhausgas-Emissionen aus der Verbrennung fossiler Brennstoffe zurückzuführen ist.

Viele von Ihnen wissen, dass ich einen Großteil der Mainstream-Klimawissenschaft verteidige, einschließlich der Klimamodellierung als Unternehmen. Wo ich vom „Mainstream“ abweiche, ist die Frage, wie viel Erwärmung stattgefunden hat, wie viel Erwärmung in Zukunft zu erwarten ist und was aus energiepolitischer Sicht dagegen getan werden sollte.

Wow, gefährliche Gedanken, oder?

Aber wie ich bereits sagte, geht es hier nicht um Fakten. Es ist eine Hexenjagd.

Laut einer Gallup-Umfrage aus dem Jahr 2018 hält weniger als die Hälfte der amerikanischen Bürger den Klimawandel für eine „Krise“. Nur 45 Prozent glauben, dass die globale Erwärmung zu ihren Lebzeiten eine ernsthafte Bedrohung darstellen wird, und nur 43 Prozent sagen, dass sie sich große Sorgen über den „Klimawandel“ alias die „globale Erwärmung“ machen. Dennoch ist die Linke entschlossen, diese Meinung zur Mehrheit zu machen, egal was die Fakten dagegen sprechen, und sie setzt einen Monopolhammer in Form von Google ein, um jede abweichende Meinung zu unterdrücken.

Die Gallup-Umfrage weist darauf hin, dass dies nichts anderes als eine Erweiterung der großen politischen Kluft ist, die unser Land erfasst hat. Die Autoren stellen fest, dass die Demokraten die globale Erwärmung ernst nehmen, während die Republikaner ihr skeptisch gegenüberstehen: 69 Prozent der Republikaner, aber nur 4 Prozent der Demokraten, halten die globale Erwärmung für übertrieben.

Das Problem ist mehr als nur ein Konflikt zwischen politischen Standpunkten. Es hat mit der Kompetenz bei der Bewertung von Klimainformationen zu tun. Unabhängige „Faktenchecker“ haben oft nicht mehr Wissen als eine Sammlung von Schlagzeilen im Kopf.

„Google hat bereits gesagt, dass Sie aus dem Adsense-Programm ausgeschlossen werden sollen. Ich kann nicht erwarten, dass deren geisteswissenschaftlich ausgebildete ‚Faktenprüfer‘ die Nuancen der Debatte über die globale Erwärmung verstehen“, schreibt Spencer.

Und das tun sie natürlich nicht. Spencer weist darauf hin, dass seine am häufigsten besuchten Seiten, die mit „unzuverlässigen und schädlichen Behauptungen“ angegriffen werden, „unsere (UAH) monatlichen Seiten zur globalen Temperaturaktualisierung sind. Das liegt offensichtlich daran, dass einigen Aktivisten, die bei Google angestellt sind (die wahrscheinlich noch nicht einmal geboren waren, als John Christy und ich sowohl von der NASA als auch von der Amerikanischen Meteorologischen Gesellschaft für unsere Arbeit ausgezeichnet wurden), die Antwort nicht gefällt, die unser 43 Jahre langer Satellitendatensatz gibt.“

Der UAH-Satellitendatensatz ist nach wie vor einer der zentralen globalen Temperaturdatensätze, der von Mainstream-Klimaforschern in ihrer Arbeit verwendet wird, doch jetzt, wo die Google-Hexenjagd in vollem Gange ist, wurde er von Leuten, die wahrscheinlich nicht einmal wissen, wie der Prozess funktioniert, aber pauschale Marschbefehle erhalten und die Macht haben, diese durchzusetzen, als Daten non grata gebrandmarkt.

Es ist ein trauriger Tag für die Wissenschaft und die Wahrheit [nicht nur] in Amerika, wenn ein Monopolist darüber entscheiden darf, was die Amerikaner sehen und was nicht, und zum selbsternannten Schiedsrichter der Wahrheit wird.

[Hervorhebung und Hinzufügung in eckigen Klammern vom Übersetzer]

Quellen: Dr. Roy Spencer; NewsBusters, Climate Realism; Watts Up With That

Link: https://www.heartland.org/news-opinion/news/google-demonetizes-climate-skepticism

Übersetzt von Christian Freuer für das EIKE




Weitere Klima-Rückzieher: „Eine sich erwärmende Arktis trieb die Erde in die kleine Eiszeit“

Cap Allon

Sie tun so, als sei dies eine neue Nachricht, als hätte noch nie jemand daran gedacht: „Wissenschaftler entdecken, dass eine sich erwärmende Arktis die Erde in die kleine Eiszeit getrieben hat“. Sie nennen es sogar „überraschend“.

Wie MSN berichtet, sanken die Temperaturen in Europa im frühen 15. Jahrhundert nach der so genannten mittelalterlichen Warmzeit – es gab sie also wirklich?! – in einer Zeit, die als Kleine Eiszeit (LIA) bekannt geworden ist.

Diese bemerkenswerte, mehrere Jahrhunderte währende Kälteperiode brachte eine zunehmende Vergletscherung der Berge, Ausdehnung des Meereises, Ernteausfälle, Hungersnöte und Krankheiten auf dem gesamten europäischen Kontinent. Wechselnde Sommer – mit Extremen an beiden Enden des Spektrums – wurden von brutal strengen Wintern abgelöst, in denen Flüsse und Kanäle regelmäßig zufroren. In UK wurde beispielsweise 1608 die erste „Frostmesse“ auf der zugefrorenen Themse abgehalten, die bis zur letzten im Jahr 1814 fast jährlich stattfand – also noch vor dem von der AGW-Partei vorgeschlagenen Datum für den Beginn der industriellen Revolution (≈1880), als die globalen Temperaturen angeblich aufgrund der zunehmenden CO2-Emissionen zu steigen begannen …[eines Tages werden wir lachen]…

Es gibt, wie es sich gehört und wie es vernünftig ist, zahlreiche mögliche Erklärungen für die Ursachen des Temperaturabfalls während der LIA. Ganz oben auf der Liste stehen verstärkte vulkanische Aktivitäten, verringerte Sonnenaktivität und sogar die Auswirkungen des Schwarzen Todes, der die menschliche Bevölkerung reduzierte – Bill Gates‘ Favorit.

Doch Wissenschaftler der Universität von Massachusetts glauben, einen „neuen“ Schlüsselfaktor dafür gefunden zu haben, warum die Temperaturen auf den niedrigsten Stand seit 10.000 Jahren gefallen sind – und sie tun so, als ob dies nicht schon seit Jahren von „alternativen“ Medien berichtet worden wäre: „Überraschenderweise“, so die Forscher, „scheint die Abkühlung durch eine ungewöhnlich warme Episode ausgelöst worden zu sein.“

Die „Entdeckung“ kam zustande, nachdem der Hauptautor Francois Lapointe, ein Postdoktorand und Dozent für Geowissenschaften an der Universität von Massachusetts, und Raymond Bradley, angesehener Professor für Geowissenschaften, ebenfalls an der Universität von Massachusetts, auf neue Daten gestoßen waren, die auf eine rasche Veränderung der Meerestemperaturen hindeuteten.

Ihre frühere Arbeit, die eine 3.000-jährige Rekonstruktion der Meeresoberflächentemperaturen des Nordatlantiks enthüllte, zeigte einen plötzlichen Wechsel von sehr warmen Bedingungen in den späten 1300er Jahren zu beispiellos kalten Bedingungen in den frühen 1400er Jahren, nur 20 Jahre später.

Dr. Lapointe und Professor Bradley nutzten verschiedene Quellen, um detaillierte Meeresaufzeichnungen zu erhalten, und entdeckten, dass es in den späten 1300er Jahren einen ungewöhnlich starken Transfer von warmem Wasser nach Norden gegeben hatte, der um 1380 seinen Höhepunkt erreichte. Infolgedessen wurden die Gewässer südlich von Grönland und die nordischen Meere viel wärmer als üblich.

„Niemand hat dies zuvor erkannt“, so Dr. Lapointe…!?

Die Forscher erklärten, dass es einen Transfer von warmem Wasser aus den Tropen in die Arktis gibt. Dabei handelt es sich um einen gut bekannten Prozess, der als Atlantische Meridionale Umwälzzirkulation (Atlantic Meridional Overturning Circulation AMOC) bezeichnet wird und mit einem planetarischen Förderband verglichen werden kann. Wenn er normal funktioniert, fließt warmes Wasser aus den Tropen entlang der nordeuropäischen Küste nach Norden, und wenn es höhere Breiten erreicht und auf kälteres arktisches Wasser trifft, verliert es Wärme und wird dichter, wodurch das Wasser sinkt. Dieses Tiefenwasser fließt dann entlang der nordamerikanischen Küste nach Süden und zirkuliert weiter um die Welt.

Diese topografische Karte zeigt die schematische Zirkulation der Oberflächenströmungen (durchgezogene Kurven) und der Tiefenströmungen (gestrichelte Kurven) des Atlantischen Ozeans, die einen Teil der AMOC bilden. Die Farben der Kurven geben die ungefähren Temperaturen an.

In den späten 1300er Jahren verstärkte sich die AMOC jedoch erheblich, was bedeutete, dass viel mehr warmes Wasser als üblich nach Norden strömte, was wiederum zu einem raschen Verlust des arktischen Eises führte. Im Laufe weniger Jahrzehnte Ende des 13. und Anfang des 14. Jahrhunderts strömten riesige Mengen eisigen [Schmelz-, Süß-]Wassers in den Nordatlantik, das nicht nur den Nordatlantik abkühlte, sondern auch seinen Salzgehalt verdünnte, was schließlich zum Zusammenbruch der AMOC führte. Dieser Zusammenbruch des Förderbandes war der Auslöser für die erhebliche Abkühlung in Europa, so die Forscher.

Beunruhigenderweise scheint heute ein ähnlicher Prozess im Gange zu sein (auch mit dem Beaufortwirbel stimmt etwas nicht).

In den letzten Jahrzehnten, insbesondere in den 1960er und 1980er Jahren, war eine rasche Verstärkung der AMOC zu beobachten, ein Phänomen, das mit dem anhaltend hohen Druck in der Atmosphäre über Grönland zusammenhängt. Dr. Lapointe und Professor Bradley sind der Meinung, dass sich derzeit die gleiche atmosphärische Situation abspielt wie kurz vor der Kleinen Eiszeit. Aber was könnte dieses anhaltende Hochdruckereignis in den 1380er Jahren ausgelöst haben? Laut Dr. Lapointe kann die Antwort in Bäumen zu finden sein.

Die Forscher verglichen ihre Ergebnisse mit einer neuen Aufzeichnung der Sonnenaktivität, die durch in Baumringen konservierte Radiokohlenstoff-Isotope ermittelt wurde, und entdeckten, dass in den späten 1300er Jahren eine ungewöhnlich hohe Sonnenaktivität verzeichnet worden war.

Eine verstärkte Sonnenaktivität führt tendenziell zu hohem Luftdruck über Grönland. Sie korreliert auch mit weniger Vulkanausbrüchen, was bedeutet, dass weniger Asche in der Luft ist – eine sauberere Atmosphäre führt dazu, dass die Erde besser auf Veränderungen der Sonnenleistung reagiert: „Daher war die Auswirkung der hohen Sonnenaktivität auf die atmosphärische Zirkulation im Nordatlantik besonders stark“, so Dr. Lapointe.

Aber hier versäumt es der MSN-Artikel, ehrliche Antworten zu geben und/oder Vergleiche zu heute anzustellen. Er stockt, wahrscheinlich weil er einem dogmatischen Narrativ folgen und pflichtbewusst die Linie der AGW-Partei verfolgen muss, um überhaupt eine Chance auf Veröffentlichung zu haben.

Der Artikel fährt fort mit der Behauptung, dass in der Arktis nicht mehr genug Eis vorhanden ist, um einen solchen Einbruch von kaltem Wasser in den Nordatlantik zu verursachen – was absurd ist; aber dann widerspricht er sich sofort mit diesem Zitat von Dr. Lapointe: „Wir müssen die Ansammlung von Süßwasser in der Beaufortsee im Auge behalten, die in den letzten zwei Jahrzehnten um 40 Prozent zugenommen hat. … Klimamodelle erfassen diese Ereignisse nicht zuverlässig, so dass wir den zukünftigen Eisverlust des Eisschildes möglicherweise unterschätzen, wobei mehr Süßwasser in den Nordatlantik gelangt, was zu einer Schwächung oder einem Zusammenbruch der AMOC führen könnte.“

Ein Zusammenbruch der AMOC würde Europa und weite Teile Nordamerikas fast über Nacht in eine Eiszeit stürzen, und Dr. Lapointe ist, zumindest meiner Meinung nach, ein Wissenschaftler, der vor einer echten, bevorstehenden Katastrophe warnt – vielleicht vor einer, die durch die Freisetzung seitens des Beaufortwirbels ausgelöst wird, der oft als „tickende Klimabombe“ bezeichnet wird.

Was der MSN-Artikel ebenfalls nicht erwähnt ist, dass die Daten, die als Beginn der modernen Verstärkung der AMOC genannt werden (1960er bis 1980er Jahre), Jahrzehnte mit außergewöhnlich hoher Sonneneinstrahlung waren – die höchste in Tausenden von Jahren – und die im Ende des modernen Grand Solar Maximum (2007 oder so) gipfelten, was die Theorie weiter untermauert.

Unerwähnt bleiben auch die langjährigen Forschungsergebnisse der NASA, die zeigen, dass die Gesamttemperatur der Erde während längerer Phasen geringer Sonnenaktivität (wie dem heutigen Abstieg in das nächste Große Solare Minimum, das wahrscheinlich während des Sonnenzyklus 24 begann) zwar tendenziell kälter wird, aber nicht alle Regionen von der Abkühlung betroffen sind. Wie in der „Maunder Minimum Reconstruction Map“ der NASA (siehe unten) dargestellt, erwärmen sich Gebiete wie die Arktis, Alaska und der Nordatlantik während der Perioden einer ansonsten „globalen“ Abkühlung sogar.

Temperaturschwankungen zwischen 1780 (einem Jahr mit normaler Sonnenaktivität) und 1680 (einem Jahr während des Maunder-Minimums) – NASA.

Temperaturschwankungen zwischen 1780 (einem Jahr mit normaler Sonnenaktivität) und 1680 (einem Jahr während des Maunder-Minimums) – NASA.

Die Autoren, deren Forschungsergebnisse in der Fachzeitschrift Science Advances veröffentlicht wurden, kommen zu dem Schluss, dass es nun „dringend notwendig“ ist, weitere Forschungsarbeiten durchzuführen, um all diese Ungewissheiten zu beseitigen.

Das ist mit Sicherheit so!

Link: https://electroverse.net/warming-arctic-drove-earth-into-the-little-ice-age/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Dieser Beitrag kommt aus einer ganz anderen Richtung zum gleichen Ergebnis wie der jüngst hier vorgestellte Beitrag von Valentina Zharkova! Siehe dazu auch meinen Kommentar zu diesem Beitrag.