PCR-Tests: (Viel?) zu hohe Fallzahlen

Der ct-Wert gibt an, wie lange es gedauert hat, wie viele Zyklen notwendig waren, bis in einer Probe genügend genetisches Material vorhanden war, um SARS-CoV-2 nachzuweisen. Im Zusammenhang mit der heftigen Kritik am PCR-Test, den Corman und Drosten et al. entwickelt haben, über die wir hier berichtet haben, spielt der ct-Wert eine große Rolle. So schreiben Borger et al. (2020) in ihrer Kritik am von Corman, Drosten et al. entwickelten PCR-Test, der zum Standard der WHO-Empfehlungen geworden ist:

“PCR data evaluated as positive after a Ct value of 35 cycles are completely unreliable.”

Dessen ungeachtet wird im WHO-Protokoll, das auf dem Corman, Dorsten et al. Paper basiert, behauptet, es seien bis zu 45 Zyklen möglich, um reliable Ergebnisse zu erhalten:

“But an analytical result with a Ct value of 45 is scientifically and diagnostically absolutely meaningless (a reasonable Ct-value should not exceed 30).”



Dessen ungeachtet sind unzählige PCR-Tests im Umlauf, deren Hersteller den Cutoff-Point für den ct-Wert, ab dem die Ergebnisse nicht mehr reliabel sind, bei 40 und zum Teil noch über 40 ansetzt:

Der ct-Wert ist derzeit wohl ein Rettungsring für diejenigen, die im Meer der Willkür und der unterschiedlichen Anwendung eines PCR-Tests zu ertrinken drohen. Dies gesagt, fällt uns Werner Bergholz ein. Bergholz ist das, was man wohl einen Standardisierungsprofi nennt. Und in dieser Funktion hat Bergholz am 30. Oktober 2020 eine schriftliche Stellungnahme zur Öffentlichen Anhörung des Ausschusses für Gesundheit des Deutschen Bundestages abgegeben, in der er sich explizit mit der Frage beschäftigt, ob PCR-Tests ein zuverlässiges Maß für den Stand des Infektionsgeschehens in Deutschland sind.

Antwort: Sie sind es nicht.

Warum nicht?

Wichtigste Zutaten dafür, dass eine Messung brauchbar ist, sind Reliabilität und Validität.

Reliabilität bezieht sich auf die Konstanz in Zeit und Raum. Wenn ein Labor X die Probe Y analysiert, dann muss dabei dasselbe Ergebnis herauskommen, das herauskommt, wenn Labor X1 die Probe Y analysiert und wenn Labor X die Probe Y zweimal analysiert, dann muss jedes Mal dasselbe Ergebnis dabei herauskommen.

Validität bezieht sich darauf, dass der Test, der das Vorhandensein von SARS-CoV-2 feststellen soll, auch dazu geeignet ist, dieses Vorhandensein festzustellen und wenn ja, innnerhalb welchem Fehlerbereich.

Bergholz spricht hier von Vergleichbarkeit, meint aber mehr oder weniger dasselbe wie wir.

Validität bei PCR-Tests wird gemeinhin als Spezifizität und als Sensitivität angegeben. Erstere bezieht sich auf die Anzahl von positiven Testergebnissen, die falsch sind (false positives), Letztere auf die Anzahl der negativen Testergebnisse, die falsch sind (false negatives). Dazu kommen wir gleich.

Um die Vergleichbarkeit von Gewebeproben zu gewährleisten, ist es notwendig,

  • dass die Gewebeproben in gleicher Weise entnommen werden, dass die “Testumgebung” vergleichbar ist;

Um die Vergleichbarkeit der Analyse der Proben durch unterschiedliche Labore sicherzustellen, ist es unabdingbar, dass die Labore

  • einheitlich vorgehen,
  • denselben Test oder die selbe Klasse von Tests verwenden;
  • den Labortest unter vergleichbaren Bedingungen und unter Einsatz vergleichbarer Reagenzien durchführen und
  • die selben Daten zum Ergebnis des Tests übermitteln.

Keines der fünf Kriterien wird derzeit eingehalten. Die Bestimmung der Inzidenz von SARS-CoV-2 in der Bevölkerung ist ein einzigartiges Patchwork unterschiedlicher Vorgehensweisen, unterschiedlicher Erhebungs- und Analysemethoden. Eine Standardisierung des Vorgehens, so Bergholz, sei dringend geboten.

Zudem findet derzeit keinerlei Monitoring der falsch positiven oder falsch negativen Testhäufigkeit statt. Das ist vollkommen unwissenschaftlich. Jeder der sich mit Daten befasst, weiß, dass die Unsicherheit, mit der die Ergebnisse belastet sind, Bestandteil der Ergebnisse ist. Ohne die Angabe von Vertrauensintervallen oder Irrtumswahrscheinlichkeit sind wissenschaftliche Ergebnisse wertlos. Dennoch fehlt beides bei PCR-Tests. Dass alle Ergebnisse, die aus Labors an das RKI übermittelt werden korrekt sind, ist eines dieser Märchen, die Politdarsteller entweder selbst glauben oder auf keinen Fall der Öffentlichkeit mitteilen wollen.

Dabei ist nur gesunder Menschenverstand notwendig, um sich die vielen Punkte, an denen ein Fehler geschehen kann, zu vergegenwärtigen:

  • Proben können bei Entnahme verunreinigt werden;
  • Proben können im Labor kontaminiert werden;
  • Proben können verwechselt werden;
  • Eine Messung kann fehlerhaft vorgenommen werden;
  • Der Test-Kit kann fehlerhaft sein;
  • Proben können zerstört werden (was in diesen Fällen, die sicher vorkommen, geschieht, ist unbekannt);
  • Ergebnisse können falsch übermittelt werden;

Gerade ein immenses Aufkommen, wie es derzeit in Labors zu verzeichnen ist, führt mit Sicherheit dazu, dass die Zahl der Fehler sehr hoch ist. In Unternehmen nennt man so etwas Ausschuss. Selbst bei hochstandardisierten Prozessen kann Ausschuss nicht ausgeschlossen werden. Aber deutsche Politdarsteller wollen der Öffentlichkeit erzählen, dass alle positiven Tests, die beim RKI gezählt werden, fehlerfrei sind, dass es in den Labors keinerlei Ausschuss gibt. Das ist absurd.

Wohlgemerkt, die bislang besprochenen Fehler sind nicht die Fehler, die dem PCR-Test immanent sind, die Fehler, die er quasi eingebaut hat: Spezifiziät und Sensitivität. Bergholz hat in seiner Stellungnahme eine Beispielrechnung, die in dieser Hinsicht sehr aufschlussreich ist:

“Bei 10 000 Tests, 1% wirklich Infizierte (also echt Positive), einer Spezifität von 1,4% und 98% Sensitivität (Werte aus dem Ringversuch vom April) ergibt der Test 98 echt Positive [1% von 10.000 minus 2% Fehler (Sensitivität) = 98) und zusätzlich 140 falsch Positive [1,4% Fehler bei Spezifizität]. Das heißt der positive Vorhersagewert (PPV = positive predictive value) beträgt 98/(98+140)x100% = 41%. Mit anderen Worten, es gibt mehr falsch Positive als echt Positive, also ein Messfehler grösser als ein Faktor 2.

Es ist schlicht unverständlich, dass dies bei der Aufbereitung der Rohdaten unberücksichtigt bleibt!”

Was Bergholz hier anspricht, ist, dass das Problem mit false positives dann, wenn die Häufigkeit eines Virus in einer Bevölkerung gering ist, erheblich ist. Wir haben das einmal für Inzidenzen von 1%, 2% und 4% durchgespielt. Das Ergebnis sieht wie folgt aus:




Operationalisiert man die Inzidenz von SARS-CoV-2 als Anteil der positiv Getesteten an allen Getesteten, dann beträgt die Inzidenz in Deutschland derzeit 4,1% und befindet sich damit in einem Bereich, in dem man mit rund 75% Test-Akkuratheit rechnen kann.

75% Test-Akkuratheit ist nicht wirklich der Goldstandard, denn eine Fehlerquote von 25%, mit anderen Worten, 25% der offiziellen Testangaben wären, auf Basis einer Spezifizität von 1,4% falsch, false positiv, ist eher erheblich. Vermutlich ist darin die Ursache dafür zu sehen, dass in Florida nunmehr versucht wird, über den ct-Wert zumindest ein wenig Verlässlichkeit in die Daten zu bringen.

Um verlässliche Angaben über die Verbreitung von SARS-CoV-2 in einer Bevölkerung machen zu können, immer vorausgesetzt, man will das und ist nicht an Zahlen interessiert, die so hoch wie nur möglich ausfallen, wäre es somit notwendig, die Tests, den Testablauf zu standardisieren, die zu erwartende Fehlerrate der veröffentlichten Zahlen anzugeben sowie eine Untersuchung dazu zu veranlassen, wie viele fehlerhafte Tests dadurch entstehen, dass Proben verunreinigt oder verwechselt werden oder die Häufigkeit zu untersuchen, mit der ein anderer Fehler unterläuft. Das Ergebnis wäre eine geringere Anzahl positiv Getesteter, und es wäre ein Mehr an Ehrlichkeit gegenüber der Öffentlichkeit, der vorgemacht wird, die veröffentlichten Zahlen wären exakt, ohne Fehler und ohne Makel.

So viel Ehrlichkeit ist natürlich politisch nicht gewollt.

der Beitrag erschien zuerst bei ScienceFiles hier

 




Speisen natürliche Quellen den CO2-Anstieg in der Atmosphäre?

Im November 2020 fand man im Fachjournal “nature communications“ (1) eine Arbeit, die sich mit den CO2-Emissionan aus den Böden befasste. Die Forscher der Universität im britischen Exter wollen herausgefunden haben, dass bei einer Temperaturerhöhung von 2°C im Vergleich zum vorindustriellen Zeitalter, etwa 230 Milliarden Tonnen Kohlenstoff aus den Böden in die Atmosphäre freigesetzt werden. Umgerechnet sind das 843 Milliarden Tonnen Kohlendioxid.

Nun bewegt sich die Erde nachweislich aus einer kalten Phase, der kleinen Zwischeneiszeit, die um das Jahr 1850 endete, heraus. Diese Erwärmung ist also durchaus eine ganz natürliche Erscheinung und hat mit Kohlendioxid nichts zu tun. Aber durch diese natürliche Erwärmung wird natürlich, so wie die britischen Forscher festgestellt haben, Kohlendioxid aus den sich erwärmenden Böden freigesetzt.

Lauf IPCC erwärmten sich die globalen Landflächen seit der industriellen Revolution um ca. 1,53 °C (2).

Wenn nun eine Temperaturerhöhung um 2°C 843 Milliarden Tonnen Kohlendioxid freisetzen, dann bewirkt die bisherige Temperaturerhöhung von 1,53 °C eine Freisetzung von 645 Milliarden Tonnen Kohlendioxid.

Der vorindustrielle Gehalt an Kohlendioxid in der Atmosphäre soll um die 270 ppm betragen haben. Das sind 2100 Milliarden Tonnen Kohlendioxid in der Atmosphäre.

Nun ist der Gehalt des Kohlendioxids in der Atmosphäre auf 410 ppm angestiegen; es sind nun also 3190 Milliarden Tonnen, also 1090 Milliarden Tonnen mehr.

Wir haben aber gerade gesehen, dass allein durch die Ausgasung der Böden 645 Milliarden Tonnen Kohlendioxid in die Atmosphäre gelangten. Das bedeutet, dass 59% der Konzentrationssteigerung des Kohlendioxids in der Atmosphäre aus den Böden stammt und nicht aus den Auspuffen und Kaminen!

Derselbe Effekt tritt natürlich auch in den Meeren auf. Diese haben sich seit Beginn der industriellen Revolution um 0,87°C erwärmt (2).

Pro Kelvin gasen rund 0,06 g CO2 aus einem Kilogramm Wasser aus.

Eine Temperaturerhöhung von 0,87 Kelvin setzt also rechnerisch 10815 Milliarden Tonnen CO2 frei (vorausgesetzt man setzt eine homogene Durchmischung der Meere in allen Tiefen voraus, was sicher nicht der Fall ist).

Das ist dreimal mehr, als sich derzeit überhaupt in der Atmosphäre befinden!

D.h. die Ausgasung von CO2 aus Böden und den Meeren durch die natürliche Temperaturerholung seit Ende der kleinen Zwischeneiszeit ist der treibende Faktor bei der Erhöhung der CO2– Konzentration in der Atmosphäre.

Es gibt einen weiteren Indikator, der dies stützt.

Durch die Corona-Krise sank die Industrieproduktion in Deutschland um 9,2% (3). Ähnlich dürfte es in anderen Ländern sein. Das Handelsblatt meldete, dass Russlands Industrieproduktion um 9,6% gesunken ist (4). BNEF, das Analyse- und Beratungsunternehmen der Nachrichtenagentur Bloomberg schreibt in seinem neuesten * New Energy Outlook 2020‘: „Infolge der Covid-19-Pandemie gingen die Energieemissionen im Jahr 2020 um etwa 8% zurück“ (5). Hinzu kommen die deutlich reduzierten Fahrten mit dem Auto, der völlig weggebrochene Flugverkehr usw.

Wenn nun die jährlich steigende Konzentration des CO2 in der Atmosphäre auf die menschlichen Aktivitäten zurückzuführen ist, wie ja behauptet wird, dann müsste sich der massive weltweite Rückgang der CO2-Emissionen auf die Konzentration des CO2 in der Atmosphäre auswirken. Mann müsste eine Abschwächung, eine Delle in der Steigungskurve erkennen können.

Diese ist aber nicht zu erkennen (6)! Der drastische Einbruch der Produktion, der nahezu weltweite Lockdown, der Zusammenbruch der Flugindustrie und des Tourismus hinterlässt keinerlei Spuren in der Atmosphäre.

Folglich wird der Anstieg des CO2 nahezu ausschließlich aus natürlichen Quellen gespeist.

Und deswegen werden auch die zahllosen, rein ideologisch begründeten und billiardenschweren CO2-Einsparmaßnahmen nicht annähernd den Effekt haben, den man behauptet.

Allgemein ist man der Meinung dass der Gehalt des Kohlendioxid in den letzten tausenden von Jahren relativ konstant war und um die 280 ppm betrug.

Wie kommt man zu diesem Wert?

Nun, man untersucht beispielsweise Bohrkerne von Gletschereis, das man verschiedenen Epochen zuordnet. Die im Eis eingeschlossenen Luftbläschen, so glaubt man, zeigen die Kohlendioxid- Konzentration der damaligen Atmosphäre an. Danach soll vor Beginn der Industrialisierung eine CO2-Konzentration von nur 260 ppm geherrscht haben. 

Das ist höchst verwunderlich wenn man die Ergebnisse verschiedener Forschungsgruppen sieht. Messungen in Gletschereis ergaben im norwegischen Strobreen eine Konzentration zwischen 200 und 2900 ppm Coachman, L.K., E. Hemmingsen and P.F. Scholander, 1956. Gas enclosures in a temperate glacier. Tellus, 8: 415-423. und Coachman, L.K., T. Ennis and P.F. Scholander, 1958 a. Gas loss from a temperate glacier. Tellus, 10: 493-495.] und in der Antarktis von 280 bis 2900 ppm [Matsuo, S. and Y. Miyake, 1966. Gas composition in ice samples from Antarctica. J. Geophys. Res., 71 (22): 5235-5241. Messungen, die auf verschiedenen Gebieten Grönlands durchgeführt wurden, fanden folgende Konzentrationen: 100-800 ppm Scholander, P.F., E.A. Hemmingsen, L.K. Coachman and D.C. Nutt, 1961. Composition of gas bubbles in Greenland icebergs. J. Glaciol., 3: 813-822., 1700 bis 7400 ppm Raynaud D., and R. Delmas, 1977. Composition des gaz contenus dans la glace polaire. In: Isotopes and Impurities in Snow and Ice. International Association of Hydrological Sciences (Washington, D.C.) Publ., 118: 371-381, 400 bis 1200 ppm [Berner, W., B. Stauffer and H. Oeschger, 1978. Past atmospheric composition and climate, gas parameters measured on ice cores. Nature, 276: 53-55 und 250 -1000 ppm Stauffer, B., W. Berner, H. Oeschger, J. Schwander, 1981. Atmospheric CO2 history from ice core studies. Zeitschr. für Gletcherkunde und Glaziol., 17: 1-15.

Und dennoch behauptet man, die vorindustrielle Konzentration lag dauerhaft und unverändert bei 260 -280 ppm.

  1. https://www.nature.com/articles/s41467-020-19208-8, A spatial emergent constraint on the sensitivity of soil carbon turnover to global warming
  2. https://www.ipcc.ch/site/assets/uploads/2019/08/4.-SPM_Approved_Microsite_FINAL.pdf
  3. https://www.tagesschau.de/wirtschaft/boerse/industrie-produktion-103.html
  4. https://www.handelsblatt.com/politik/international/industrie-corona-trifft-russlands-wirtschaft-hart-industrieproduktion-bricht-um-9-6-prozent-ein/25924010.html
  5. https://about.bnef.com/blog/emissions-and-coal-have-peaked-as-covid-19-saves-2-5-years-of-emissions-accelerates-energy-transition/

  6. https://www.esrl.noaa.gov/gmd/ccgg/trends//graph.html

Über den Autor: Günter Vogl ist Chemietechniker, mit fundierter naturwissenschaflicher Ausbildung. Er befasst mich seit über 30 Jahren mit diesem Thema, was inzwischen zu drei Büchern geführt hat (Die erfundene Katastrophe (2016) und Klimadiktatur (2020) sind die aktuellen.




Bericht zur Coronalage vom 07.12.2020: Wielers Offenbarungseid

Lothar Wieler gab am 3.12. eine Pressekonferenz zur Coronalage, die ein weiteres Dokument der Panikmache statt beruhigender Jahresvergleiche darstellt. Dieser Ausschnitt daraus in dem es um das Thema Impfung geht, ist der finale Offenbarungseid, denn ganz offensichtlich hat der Leiter des RKI den Verstand verloren von 50 Sekunden Länge:

Gut erkennbar anhand von drei Punkten:

Erstens: Einer der wichtigsten ärztlichen Grundsätze lautet: primum nihil nocere. Das bedeutet, der Arzt muss dafür Sorge tragen, dass seine Behandlung möglichst wenig schadet. Medizinische Maßnahme müssen ausreichend auf Nebenwirkungen geprüft werden, bevor man sie anwendet. PUNKT.

Das gilt ganz besonders bei Gesunden, die kaum ein Erkrankungsrisiko haben, und dennoch vorsorglich behandelt werden sollen. Generell halte ich Impfungen für eine Erfolgsgeschichte. Aber die klassischen Impfungen haben auf ihrem Weg zu guten und geprüften Vorsorgetherapien unzählige Todesopfer gefordert. Inzwischen sind jedoch die ernsten Nebenwirkungen selten geworden.

Ausnahme war die Schweinegrippeimpfung 2009. Hier wurde ebenfalls ein nicht seriös geprüfter Impfstoff ohne Not vom RKI zur breiten Anwendung mit ähnlichem Panikmodus empfohlen. Mit der Folge unzähliger schwerer Nebenwirkungen und der inzwischen gesicherten Langzeitfolge der Narkolepsie (Schlafkrankheit), von der offiziell laut Ärzteblatt etwa 1.300 Menschen betroffen sind.

Der infrage kommende Corona-Impfstoff kann ein Meilenstein in der Impfstoffentwicklung werden, aber wir wissen das noch nicht. Er kann sich auch als Desaster erweisen. Und zwar als ein vielfach größeres als das der Schweinegrippeimpfung. Um dies zu vermeiden, muss ein solches neues Verfahren sorgfältig an kleinen definierten Versuchen auf Nebenwirkungen langfristig (!) getestet werden. Das dauert viele Jahre und daran führt kein verantwortungsvoller Weg vorbei. Wäre die Situation medizinisch dramatisch, lägen auf den Straßen Leichen, dann muss man auch Kompromisse machen. Aber diese Situation liegt bei weitem nicht vor, wir haben keine außergewöhnlich abweichende Sterbesituation.

Und auch ein abklingendes Infektionsgeschehen, wie in jedem europäischen Land nach etwa 6 Wochen, egal, ob mit milden oder harten Maßnahmen – wie schon im Frühjahr. Niemand hat mir bis heute eine belastbare medizinische Kennziffer nennen können, mit der sich die Infektionssituation von denen der Vorjahre außergewöhnlich unterscheidet. Das hindert Herrn Wieler jedoch nicht daran, eine ungeprüfte Massenimpfung mit völlig unklarem Ausgang in Impfzentren anzukündigen (wer klärt dort eigentlich über die Risiken auf?), und das raubt mir ehrlich gesagt den Atem. Es kommt einem Feldversuch gleich, mit der eine gesamte Bevölkerung, nur um ein verantwortungsloses Krisenmanagement zu kaschieren, ins massive Risiko genommen wird. Ethisch absolut indiskutabel.

Zweitens: Das RKI hat bis heute nicht das kleine Einmaleins der Epidemiologe umgesetzt, nämlich die Einrichtung repräsentativer Kohortenstudien, um Licht ins Dunkel des Infektionsgeschehens und der tatsächlichen Wirkung der Schutzmaßnahmen zu bringen. Stellen Sie sich einmal vor, Sie beauftragen ein Wahlforschungsinstitut, das Ergebnis der nahenden Bundestagswahl vorauszusagen. Ginge dieses Institut so vor wie das RKI, dann würde es pro Woche 1,5 Millionen Wähler unsystematisch befragen, um dann die Prognose abzuliefern. Das wäre teuer und vor allen Dingen komplett nutzlos. Weil die Befragten nicht repräsentativ ausgewählt wurden. Deswegen befragen Wahlforschungsinstitut gut ausgewählte, repräsentative Gruppen. So reichen unter Umständen vielleicht wenige tausend Befragte aus, um dann tatsächlich ziemlich nahe an das spätere Wahlergebnis heranzukommen.

Hätte das RKI, wie von jedem kompetenten Epidemiologen seit Anfang der Corona-Krise gefordert, diese repräsentativen Studien durchgeführt, dann wüssten wir heute ziemlich genau Corona-Dunkelziffer, -Verbreitungswege, -Infektiösität und vieles mehr. Wir wüssten, welche Maßnahmen was bewirken und welcher Schaden entsteht. Am Geld lag es nicht. Meines Wissens hat allein die Charité 200 Millionen Euro für Coronaforschung erhalten, ohne dass wir heute irgendein brauchbares Ergebnis erhalten haben. Den Preis für dieses Versagen zahlen wir alle mit den physischen, psychischen und wirtschaftlichen Schäden der völlig überzogenen und ungeprüften Maximalmaßnahmen.

Drittens: Laut Lothar Wieler ist die Ursache, wenn alte Menschen nach der geplanten Impfung sterben, dann im Alter und in den Grunderkrankungen zu suchen. Doch wenn alte Menschen mit einem positiven Corona-Test sterben, dann gelten sie laut RKI selbstverständlich als COVID-Tote. Das ist das gleiche Spiel wie bei der Schweinegrippe. Damals wurden mit der gleichen Zählweise die Schäden der ungeprüften, aber vom RKI empfohlenen Impfung verschleiert. Lothar Wieler entdeckt nun plötzlich, dass in Deutschland täglich 2.700 Menschen sterben, was man nun bitte angesichts der erwartbaren Impftoten in Relation setzen muss. Ja das stimmt.

Mit diesem richtigen Hinweis könnte Lothar Wieler vor allem auch die Ängste und die Panik beruhigen, die inzwischen die wirkliche Gefahr durch COVID-19 völlig überdramatisiert. Doch wenn die Bundeskanzlerin in irreführender Weise 400 Tote benutzt und Ministerpräsident Söder von einem Flugzeug spricht, welches täglich abstürzt, dann müssen diese Toten natürlich singulär als Katastrophe gelten, obwohl die normale Tagessterblichkeit gar nicht außergewöhnlich ansteigt. Also diese 400 Teil der ganz normalen 2.700 Tagestoten sind. Das ist die billige Instrumentalisierung von Toten, um die eigene verantwortungslose Politik zu rechtfertigen. Das Wort Doppelmoral könnte für diese Argumentation neu erfunden werden.

Zur Person Lothar Wieler: Ich habe überhaupt nichts dagegen, dass ein Tierarzt Leiter der wichtigsten Seuchenbehörde ist. Tierärzte kennen Infektionsgeschehen gut, nicht selten besser als wir Humanmediziner. Das ist nicht das Problem, es liegt woanders. Mir liegen öffentliche wie auch nichtöffentliche Aussagen von Herrn Wieler vor. Daraus kann ich zum Beispiel erkennen, dass er das Versagen des RKIs im Rahmen der Schweinegrippe überhaupt nicht verstanden hat. Er glaubt offenbar wirklich, damals sei die Bevölkerung korrekt über den Impfstoff informiert wurden. Es ist nicht so, dass er nicht von vielen klugen, hochrangigen Leuten in der direkten Kommunikation gute Argumente und vernünftige Vorschläge erhält. Doch das Problem ist: Er versteht sie offenbar nicht. Ich meine tatsächlich fachlich wie intellektuell. Er lebt scheinbar in so etwas wie einem Wahn, wir hätte es mit Lepra, Beulenpest und Ebola gleichzeitig zu tun.

Lassen Sie mich versuchen, es in ein Bild zu fassen: Das Segelschiff Bundesrepublik Deutschland segelt im Seuchenmeer. Es herrscht eine mittlere Brise namens Corona, kein Problem bei kompetenter Führung. Unser Problem besteht darin, dass die Kapitänin von einem Navigator beraten wird, der an Geister glaubt und das kleine Einmaleins der Navigation nicht beherrscht. So steuern wir ohne Not auf Untiefen und Sandbänke zu. An Bord befinden sich zwar auch viele warnende Passagiere, doch die Kapitänin und ihre Mannschaft finden Sandbänke inzwischen toll. Keiner der Verantwortlichen ist willens, das Schiff wieder auf einen vernünftigen Kurs zu bringen. Jetzt kommen zu den Untiefen noch gefährliche Klippen dazu. Und diese Klippen heißen mRNA Impfstoffe.

Meinen Patienten habe ich folgende Rundmail zum Thema Corona-Impfung gesendet. Ich möchte Ihnen diese ebenfalls zur Verfügung stellen, gerne auch zur Weiterverbreitung.

Liebe Patienten und Freunde der Praxis Dr. med. Gunter Frank,

ich möchte Sie kurz zum Thema Corona Impfung aus meiner Sicht informieren.

Aus mehreren Gründen, medizinischen aber vor allem auch gesellschaftlichen, wäre es wünschenswert, einen gut geprüften Corona-Impfstoff zur Verfügung zu haben. Die Anwendung sollte meiner Meinung nach so gehandhabt werden wie bei der Empfehlung zur Grippeimpfung: sinnvoll für immungeschwächte, meist ältere Menschen, insbesondere in den Pflegeheimen.

Dieser Wunsch darf aber nicht dazu führen, dass wir eine neue Impfstofftechnik, ohne sorgfältige Prüfung auf Nebenwirkungen, in verantwortungsloser Weise einsetzen. Dies ist zuletzt 2009 im Rahmen der Schweinegrippe geschehen, als die Politik, das Robert-Koch-Institut und tatsächlich auch Professor Christian Drosten die Bevölkerung zur Impfung aufriefen, mit einem Impfstoff, der ebenfalls nicht ausreichend geprüft war und zu derart häufigen Nebenwirkungen führte, wie man es in der ärztlichen Praxis sonst selten beobachtet.

Ich möchte Ihnen die Schlussfolgerungen des Arzneimittelbriefes Nr. 11, November 2020, weiterleiten (hier teilweise zu öffnen, limitiert durch die Bezahlschranke). Der Arzneimittelbrief ist ein seriöses, kompetentes und unabhängiges Informationsblatt, welches seit 54 Jahren gute Informationen zu verschiedensten Medikamenten bietet. Im Beitrag mit dem Namen „Zur Entwicklung genetischer Impfstoffe gegen SARS-CoV-2 – technologische Ansätze sowie klinische Risiken als Folge verkürzter Prüfphasen“ wird davor gewarnt, mit Bezug auf renommierte Wissenschaftler und Publikationen, dass die Prüfung des möglichen Nutzens und Schadens durch den neuartigen mRNA Corona Impfstoff nicht solide erfolgt ist. Auch weil dazu der notwendige Zeitrahmen fehlt.

Insbesondere die Gruppe der unter 70-Jährigen, bei der ein äußerst geringes Risiko besteht, an COVID-19 zu sterben, kann auf diese Weise erheblich geschädigt werden ohne gleichzeitige Chance auf einen Nutzen. Das ist ethisch nicht verantwortbar. Schon angesichts der kurzen Beobachtungszeiträume aktueller Studien schreibt der Arzneimittelbrief: „Bei beiden aktuellen Impfstoff-Favoriten fällt eine signifikante Häufung von Nebenwirkungen auf.“ Leider ist es so, dass in den älteren Risikogruppen aufgrund ihres schwächeren Immunsystems auch Grippeimpfstoffe nur eingeschränkt wirken. Inwieweit dies bei dem neuartigen Corona-Impfstoff anders ist, ist ebenfalls nicht ausreichend geprüft.

Der Arzneimittelbrief fordert einen breiten wissenschaftlichen und gesellschaftlichen Diskurs über die Probleme der beschleunigten Impfstoffprüfung hinsichtlich der Impfstoffsicherheit sowie eine öffentliche Anhörung kritischer Experten:

„Ärztinnen und Ärzte und die Menschen, die sich impfen lassen wollen, müssen über Wirksamkeit und Risiken genetischer Impfstoffe, die nach verkürzten Zulassungsverfahren auf den Markt kommen, umfassend aufgeklärt werden. Es sollten dieselben Standards gelten, wie sie auch bei anderen Impfungen gefordert werden. Hinzu gehören die Antworten auf folgende Fragen für die Praxis:

  • Für welche Zielgruppe ist der Impfstoff zugelassen bzw. welche Zielgruppe könnte durch die Impfung profitieren und welche wissenschaftliche Evidenz gibt es hierfür?
  • Mit welchen Nebenwirkungen muss gerechnet werden?
  • Wie lange hält die durch den Impfstoff induzierte Immunität an, und warum muss gegebenenfalls erneut geimpft werden?
  • Wie wird der Impfstoff nach seiner Zulassung auf seine Sicherheit überprüft?
  • Wer haftet bei Impfschäden?“

Ich möchte Sie mit diesem Rundschreiben darüber aufklären, dass Sie, bevor Sie sich für die neue Corona-Impfung entscheiden, ein Anrecht haben, auf diese Fragen eine ausreichende und nachprüfbare Antwort zu erhalten. Gerne können Sie diese E-Mail auch weiterleiten.

Mit herzlichen Grüßen

Ihr

Dr. med. Gunter Frank

Der Beitrag erschien zuerst bei ACHGUT hier




„Wärmster November“ – und im Alpenland türmen sich Anfang Dezember die Schneemassen

Alle politischen Entscheidungsträger sollten ernster denn je darüber nachdenken, wie die Vereinbarungen des Pariser Klimaabkommens eingehalten werden können.

…meinte daher ein Copernicus-Sprecher in Paris. Da, jetzt wissen wirs. Lustigerweise hält sich die Realität nicht an das Narrativ der politisch Mächtigen: Norditalien, Bayern und Österreich melden ebenfalls Rekorde – allerdings nicht im Bereich der Temperaturerhöhung, sondern im Bereich der Schneemassen!

In der Facebook-Gruppe Fakten gegen Klimahysterie (sehr zu empfehlen!) listen die Mitglieder etliche Nachrichten dieser Kategorie auf. Beispiele:

Schneemassen: Flockdown in den SüdalpenEs schneit und schneit und schneit! In den Südalpen türmt sich der Schnee teils schon deutlich mehr als einen Meter hoch auf und es ist kein Ende in Sicht. In den kommenden Tagen fallen mancherorts noch mehrere Meter Neuschnee. Viele Straßen sind gesperrt und der Bahnverkehr ist teils eingestellt. Die Lage spitzt sich weiter zu.

Schnee und Regen – Rekordniederschlag in Österreich (07.12.2020): Unvorstellbare Mengen an Schnee und Regen sind am Wochenende im Süden Österreichs gefallen. Binnen 48 Stunden kamen teilweise über 350 Liter pro Quadratmeter zusammen. In Lienz im Süden Österreichs regnete und schneite es so viel, wie seit mindestens 140 Jahren nicht in so kurzer Zeit.

Schneemassen in Norditalien (05.12.2020): Heftiger Wintereinbruch in den Alpen: Vor allem in den Südalpen haben starke Schneefälle seit Freitag zu größeren Problemen geführt. In der italienischen Region Trentino-Südtirol fielen bereits bis zu 1 Meter Neuschnee.




KLIMA DES IRRTUMS: Die schweren physikalischen Fehler, welche einen Klima-‚Notstand‘ erschufen

Alles war ein ungeheurer Fehler. Die Befürchtungen über eine gefährliche globale Erwärmung ergaben sich aus einem schwerwiegenden Fehler der Physik aus dem Jahr 1984. Niemand hatte es bisher bemerkt, weil die Klimawissenschaftler die Rückkopplungsmathematik aus der Kontrolltheorie, einem anderen Zweig der Physik, übernommen hatten, ohne sie zu verstehen. Die Kontrolltheoretiker, deren Wissenschaft die Klimatologen ausgeliehen hatten, hatten nicht erkannt, wie sie missbraucht worden war.

Ein internationales Team hervorragender Klimatologen und Kontrolltheoretiker, das von Christopher Monckton aus Brenchley zusammengestellt wurde, verbrachte Jahre mit der Jagd nach dem Fehler. Ihre 70-seitige wissenschaftliche Arbeit errechnet, dass die vom Menschen verursachte globale Erwärmung nach Korrektur des Fehlers nur ein Drittel dessen betragen wird, was die Klimawissenschaftler vorhergesagt hatten.

Es wird zu wenig globale Erwärmung geben, um uns zu schaden. Eine kleine, langsame Erwärmung wird insgesamt eine gute Sache sein. Es gibt keinen Klima-Notstand. Den hat es nie gegeben. Die Billionen, die für die Vernichtung von Arbeitsplätzen und Industrien verschwendet wurden, können jetzt für die vielen echten Umweltprobleme der Welt ausgegeben werden. Die globale Erwärmung gehört nicht dazu.

EINIGE DEFIITIONEN: Emissions-Temperatur angetrieben durch die Wärme der Sonne, an der Oberfläche ohne Treibhausgase in der Luft erhalten würde. Die Rückkopplungsreaktion ist eine zusätzliche Erwärmung, vor allem durch mehr Wasserdampf in der wärmeren Luft, ausgelöst durch direkte Erwärmung (z.B. durch CO2). Die solare Rückkopplungsreaktion wird durch die Emissionstemperatur ausgelöst. Zu den nicht kondensierenden Treibhausgasen gehören CO2, Methan, Ozon, Distickstoffoxid und FCKW, nicht aber Wasserdampf. Der natürliche Treibhauseffekt ist die Differenz zwischen der Emissionstemperatur und der Temperatur im Jahre 1850, als das Industriezeitalter begann. Die Gleichgewichts-Klimasensitivität (ECS) ist letztlich die endgültige Erwärmung durch verdoppeltes CO2.

Infolge des Fehlers waren die Klimawissenschaftler davon ausgegangen, dass, obwohl nur etwa 1 °C – also ein Viertel der globalen Erwärmung, die sie durch die Verdoppelung des CO2 in der Luft vorhersagten – direkt von dem hinzugefügten CO2 herrührte, zu dieser direkten Erwärmung weitere 3 °C zusätzliche Erwärmung kommen würden, die als Rückkopplungsreaktion bezeichnet wird, hauptsächlich durch mehr Wasserdampf – ein Treibhausgas – der in die durch CO2 erwärmte Luft verdunstete.

Sie hatten angenommen, dass der natürliche Treibhauseffekt – die Differenz zwischen der Emissionstemperatur an der Oberfläche ohne Treibhausgase und der Oberflächentemperatur im Jahr 1850, zu Beginn des Industriezeitalters – 32 °C betrug. Davon hatten sie 8 °C für eine direkte Erwärmung durch die vorindustriellen Treibhausgase gehalten mit den verbleibenden 24 °C als Rückkopplung (Abb. 1a).

Abbildung 1: (a) irrige und (b) korrigierte Darstellung des natürlichen Treibhauseffektes

Die direkte Erwärmung durch verdoppeltes CO2 beträgt nur etwa 1°C, was nach irrtümlicher Vorstellung der Klimawissenschaftler eine Rückkopplung von 3°C auslösen wird, so dass 1°C direkte Erwärmung zu einer Enderwärmung von 4°C wird.

Sie hatten zwei Fehler gemacht, einen kleinen und einen sehr großen. Ihr kleiner Fehler: Sie hatten vergessen, dass es ohne Treibhausgase in der Luft keine Wolken gäbe, welche die Sonnenstrahlung wie ein Spiegel harmlos in den Weltraum reflektieren würden. Die wahre Emissionstemperatur – die Temperatur, die an der Oberfläche herrschen würde, wenn sich anfangs keine Treibhausgase in der Luft befänden – wäre etwa 12 °C größer als von ihnen berechnet. Der wahre natürliche Treibhauseffekt war also nicht 32 °C, sondern 12 °C kleiner, bei nur 20 °C.

Ihr sehr großer Fehler: Sie haben vergessen, dass die Sonne scheint. Denn fast die gesamte vorindustrielle Rückkopplung bis 1850 – die zusätzliche Erwärmung, von der sie alle dachten, sie sei durch nicht kondensierende Treibhausgase (andere Gase als Wasserdampf) ausgelöst worden – wurde in Wirklichkeit nicht durch diese Gase, sondern durch die Wärme der Sonne ausgelöst. Tatsächlich fügten sie hinzu, dass die solare Rückkopplung als Teil der vorindustriellen Treibhausgas-Rückkopplung, die sie um 3200% überbewertet hatten, falsch berechnet wurde.

Die Argonauten berechnen, dass von den echten 19,9 °C des natürlichen Treibhauseffekts (Abb. 1b) 13,1 °C eine Rückkopplung auf die durch die Sonnenwärme getriebene Emissionstemperatur waren (solare Rückkopplung). Nur 0,7 °C war eine vorindustrielle Rückkopplung auf die 6,1 °C direkte Erwärmung durch Treibhausgase.

Die 24 °C Rückkopplung der Klimawissenschaftler war um das 33-fache zu groß. Deshalb haben sie die Rückkopplung nicht nur der direkten vorindustriellen Erwärmung der Treibhausgase überbewertet, sondern auch die direkte Erwärmung im industriellen Zeitalter, die weitgehend durch unsere eigenen Treibhausgasemissionen von 1850-2020 verursacht wurde.

Die Auswirkungen der Überbewertung durch die Klimawissenschaftler waren gravierend. Die Argonauten sind der Ansicht, dass aufgrund des Irrtums die gegenwärtig vorhergesagte vom Menschen verursachte globale Erwärmung etwa dreimal zu groß ist. Eine Korrektur beendet die Krise.

Klimawissenschaftler hatten weit mehr globale Erwärmung prophezeit als tatsächlich eingetreten ist

In der Wissenschaft ist jede Theorie – wie schön oder gewinnbringend sie auch sein mag – falsch und muss geändert oder sogar ersetzt werden, wenn Daten aus der realen Welt ihr widersprechen. Die große Diskrepanz zwischen vorhergesagter und realer Erwärmung in den letzten Jahrzehnten hat in der Tat gezeigt, dass mit der offiziellen Theorie etwas sehr falsch sein muss.

IPCC (1990, S. xxiv) hatte zuversichtlich eine mittelfristige, vom Menschen verursachte Erwärmung von 3,4 °C pro Jahrhundert vorhergesagt. Die gemessene vom Menschen verursachte globale Erwärmung von 1990-2020 entsprach jedoch nur 1,15 °C pro Jahrhundert (Abb. 2).

Abbildung 2: Mittelfristige projizierte im Vergleich zu vom Menschen verursachten Erwärmungsraten, 1990 bis 2020

Die vom IPCC vorhergesagte mittelfristige vom Menschen verursachte Erwärmung hat sich als um das Dreifache zu groß erwiesen. Diese enorme Glaubwürdigkeitslücke zwischen Vorhersage und realem Wandel stimmt mit den Berechnungen der Argonauten überein.

Die Klimamodelle hatten auch die fast 19-jährige Pause der Erwärmung von 1997-2015 nicht vorhergesagt (Abb. 3). Gegen Ende dieses Zeitraums, als ein Drittel unseres Klimaeinflusses eingetreten war, aber keine Erwärmung eingetreten war, ersetzte das IPCC die Modellprojektionen durch sein „Expertenurteil“ und kürzte seine mittelfristigen Vorhersagen stark ab.

Abbildung 3: Keine Erwärmung während der 18 Jahre von Juli 1997 bis Januar 2016 (UAH)

Widersprüchlicherweise hat der IPCC nicht auch seine langfristige globale Erwärmungsvorhersage reduziert, die trotz Milliardenausgaben für die Klimaforschung bei 1,5-4,5 °C pro CO2-Verdoppelung bleibt. Diese Vorhersage ist seit dem Charney-Bericht (1979) vor mehr als 40 Jahren unverändert geblieben. Sie war und ist übertrieben.

Wie der Nobelpreisträger und Physiker Richard Feynman zu sagen pflegte: „Wenn Experimente mit der Theorie nicht übereinstimmen, ist die Theorie falsch. In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft.“ Vorhersagen über die globale Erwärmung stimmen nicht mit beobachteten und gemessenen Temperaturänderungen in der realen Welt überein. Die Korrektur des Fehlers löst diese Diskrepanz auf.

Wie der Fehler zustande kam: Klimawissenschaftler hatten übersehen, dass die Sonne scheint

Die Entstehungsgeschichte des Fehlers ist interessant. Zu Beginn des 20. Jahrhunderts hatten Arrhenius (1906) und Callendar (1938) vorausgesagt, dass die endgültige Erwärmung durch verdoppeltes CO2 in der Luft etwa 1,5 °C betragen würde. Obwohl die Rückkopplungstheorie damals noch in den Kinderschuhen steckte, waren ihre Schätzungen mehr oder weniger korrekt.

Eine der frühesten Arbeiten, die die mathematischen Grundlagen der Rückkopplungstheorie legten, war Black (1934). Eines Morgens im Jahr 1927 befand sich Harold S. Black auf dem Weg zur Arbeit in den Bell Labs in Manhattan, wo er Verfahren zur Reduzierung des Lärms auf Ferngesprächsleitungen entwickelte. Die Gleichungen für Rückkopplungen in dynamischen Systemen kamen ihm in den Sinn, und er notierte sie in der Zeitung jenes Tages, die bis heute im Bell Labs Museum ausgestellt ist.

Die rückgekoppelte Verstärkerschaltung von Black (Abb. 4) zeigt nicht nur den μ Verstärker (im Klima, direkte Erwärmung durch Treibhausgase) und den β Rückkopplungsblock, sondern auch das Eingangssignal e (die durch die Sonnenwärme getriebene Emissionstemperatur bei Abwesenheit von Treibhausgasen). Das Papier von Black nennt e die „Signaleingangsspannung“.

Die Klimawissenschaftler hatten nicht erkannt, dass man keinen Verstärker ohne ein zu verstärkendes Eingangssignal haben kann.

Der Verstärkungsblock μ im Blockdiagramm von Black (Abb. 4) verstärkt das Eingangssignal e, so wie die direkte Treibhausgas-Erwärmung die Emissionstemperatur verstärkt. Der β-Rückkopplungsblock erzeugt eine Rückkopplung nicht nur auf den μ-Verstärkungsblock (direkte Treibhausgas-Erwärmung), sondern auch auf das Eingangssignal e.

Abbildung 4: R+ckkopplungs-Verstärkungs-Blockdiagramm, welches das Eingangssignal e zeigt, also die Nicht-Treibhausgas-Emissionstemperatur, welche die Klimawissenschaftler übersehen hatten.

Wenn man die große solare Rückkopplung übersieht, addiert man sie effektiv zu der eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch nicht kondensierende Treibhausgase (wie CO2, Methan, Distickstoffoxid und Ozon, denn Änderungen in der Konzentration des wichtigsten kondensierenden Treibhausgases, Wasserdampf, werden als Rückkopplung behandelt) und zählt sie falsch. Diese falsche Zuordnung bläht die Rückkopplung auf die Treibhauserwärmung auf und führt dazu, dass Klimawissenschaftler die globale Erwärmung überbewerten. Die Klimawissenschaftler hatten vergessen, dass die Sonne scheint und ihre eigene substanzielle Rückkopplung antreibt.

1945 schrieb Harold Blacks Kollege bei Bell Labs, Hendrik Wade Bode, das Standard-Lehrbuch über das Design von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Bild 5) ist praktisch identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addieren hatten.

Abbildung 5: Blockdiagramm des Rückkopplungsverstärkers (Bode, 1945), welches das Eingangssignal E0 (in Klima, Emissionstemperatur) zeigt, das die Klimawissenschaftler übersehen hatten, wodurch versehentlich die solare Rückkopplung zur Rückkopplung der direkten Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase addiert wurde.

1945 schrieb Harold Blacks Kollege bei Bell Labs Hendrik Wade Bode das Standardlehrbuch über die Konstruktion von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Abb. 5) ist funktionell identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addiert hatten.

Leider zitierten die Klimaforscher Bodes Buch, ohne es jedoch zu verstehen, gerade in dem Moment, als die Digitalisierung die Bedeutung der Rückkopplungstheorie geschmälert hatte. So schrieb zum Beispiel Hansen (1984):

Wir verwenden Verfahren und Terminologie von Rückkopplungsstudien in der Elektronik (Bode, 1945), um die Beiträge verschiedener Rückkopplungsprozesse analysieren zu können. Wir definieren die Systemverstärkung als das Verhältnis des Netto-Rückkopplungsanteils der Temperaturänderung zur gesamten Temperaturänderung“.

Hier beschreibt Hansen fälschlicherweise den Rückkopplungsanteil (den Anteil der End- oder Gleichgewichtstemperatur oder Erwärmung, der durch die Rückkopplung dargestellt wird) als „Systemverstärkung“. Der Systemverstärkungsfaktor ist eigentlich die Größe, mit der die direkte Temperatur oder Erwärmung vor der Rückkopplung multipliziert wird, um die End- oder Gleichgewichtstemperatur oder -erwärmung zu erhalten, nachdem die Rückkopplung gewirkt und das Klima wieder ins Gleichgewicht gebracht hat.

Hansens schwerwiegenderer Fehler ist jedoch nicht der einer bloßen Nomenklatur. Er versäumt es, die solare Rückkopplung zu erwähnen, geschweige denn sie zu erklären. Deshalb stellt er sich vor, dass die direkte Erwärmung von wenig mehr als 1 °C durch das verdoppelte CO2 in der Luft zu einer schlussendlichen oder Gleichgewichtserwärmung von etwa 4 °C wird, so wie es Lacis et al., Hansens Kollegen am NASA Goddard Institute for Space Studies, in den Jahren 2010 und 2013 getan haben und so wie es heutige Modelle tun (z.B. Zelinka et al., 2020, Sherwood et al., 2020).

Schlesinger (1988) verschlimmerte Hansens Fehler und zementierte ihn. Sein Rückkopplungs-Blockdiagramm (Abb. 6) zeigt Verstärkungs- und Rückkopplungsblöcke, aber wie Hansen berücksichtigte er weder die Emissionstemperatur noch ihre große Rückkopplung, die er effektiv als Teil der Rückkopplung auf die direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase falsch berechnet hat.

Abbildung 6: Fehlerhaftes Rückkopplungs-Blockdiagramm (Schlesinger 1988). Das Eingangssignal, die Emissionstemperatur, ist nicht vorhanden. Schlesinger impliziert somit, dass die große solare Rückkopplung darauf Teil der eigentlich winzigen Rückkopplung auf die vorindustrielle direkte Erwärmung durch nicht kondensierende Treibhausgase ist.

So stellte sich Schlesinger vor, dass der Rückkopplungsanteil – der Anteil der End- oder Gleichgewichtserwärmung, der durch die Rückkopplung repräsentiert wird – bis zu 71% betragen würde, ähnlich wie die 75% in Lacis et al.

1988 sagte Hansen vor dem US-Senat aus und prophezeite eine sehr schnelle globale Erwärmung. Seine Vorhersagen waren jedoch in seinem Irrtum verwurzelt. In jenem Jahr wurde das IPCC ins Leben gerufen. Sein Erster Sachstandsbericht sagte 1990, ebenfalls aufgrund des Irrtums, mittelfristig dreimal so viel globale Erwärmung voraus als während der folgenden 30 Jahre bis heute eingetreten ist (Abb. 2). Sein fünfter und jüngster Sachstandsbericht (IPCC 2013, S. 1450) definierte die Klima-Rückkopplung so:

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Störung in einer Klimagröße eine Änderung in einer zweiten bewirkt und die Änderung der zweiten Größe letztlich zu einer zusätzlichen Änderung der ersten führt. Eine negative Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung durch die von ihr verursachten Änderungen abgeschwächt wird; eine positive Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung verstärkt wird … die Klimagröße, die gestört wird, ist die globale mittlere Oberflächentemperatur, die wiederum Änderungen des globalen Strahlungshaushalts verursacht. … Die anfängliche Störung … kann von außen erzwungen werden oder als Teil der internen Variabilität auftreten“.

Die IPCC-Definition spiegelt nicht die in der Kontrolltheorie inzwischen fundierte Tatsache wider, dass das Eingangssignal – in Klima, Emissionstemperatur – selbst eine große solare Rückkopplung erzeugt.

Das IPCC verfügt über ein Fehlerbericht-Erstattungsprotokoll, zu dessen Annahme er von seinen Mitgliedsstaaten verpflichtet worden war, nachdem es eine Reihe von peinlichen Fehlern veröffentlicht hatte. Nach diesem Protokoll wurde der vorliegende Fehler dem IPCC gemeldet. Das IPCC weigerte sich jedoch sogar, den Erhalt des Fehlerberichts zu bestätigen, obwohl er zweimal an mehrere IPCC-Beamte und an das Sekretariat geschickt wurde. Nun, da der Fehler ans Licht gekommen ist, wird das IPCC nicht mehr benötigt.

Konsequenzen des Fehlers

Die direkteste Folge des Fehlers ist, dass, wenn die Emissionstemperatur weggelassen wird (Abb. 6-7), die große solare Rückkopplung fälschlicherweise zur eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch Treibhausgase addiert und entsprechend falsch gezählt wird.

Abbildung 7: Klimawissenschaftler stellen sich vor, dass 8°C direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase eine Rückkopplung von 24°C bewirkten. Ihr Systemverstärkungsfaktor beträgt also 32 / 8 oder 4: Mit anderen Worten, sie multiplizieren jede direkte vom Menschen verursachte Erwärmung mit etwa 4, um die endgültige Erwärmung zu erhalten. Da die direkte Erwärmung als Reaktion auf das verdoppelte CO2 in der Luft etwa 1°C beträgt, sagen heutige Modelle nach Berücksichtigung der Rückkopplung eine mögliche Erwärmung von etwa 4°C voraus.

Das Team korrigierte diesen Fehler und berechnete, dass man die 6,1 °C direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase nicht mit einem Systemgewinnfaktor von 32 / 8 oder 4 multiplizieren sollte, wie es Klimawissenschaftler tun. Stattdessen sollte man sie mit einem Systemverstärkungsfaktor von 6,8 / 6,1 oder nur mit 1,11 multiplizieren. Da sich die Erwärmung mit zunehmender Oberflächentemperatur ein wenig beschleunigt, wird aus dem Faktor 1,11 heute etwa 1,19.

Daher wird die direkte globale Erwärmung von 1,06 °C als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft zu einer Enderwärmung von nur 1,19 x 1,06, also nur 1,25 °C.
Die globale Erwärmung wird also weniger als ein Drittel der 4 °C betragen, die sich die Klimaforscher vorgestellt hatten.

Abb. 8 vergleicht die korrigierte Erwärmung mit aktuellen Vorhersagen.

Abbildung 8: Korrigierte Enderwärmung im Vergleich zu den Vorhersagen der Klimatologen.

Abb. 1 und 8 können kombiniert werden, um Abb. 9 zu erhalten, die die signifikante Kohärenz zwischen (a) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die mittelfristige, vom Menschen verursachte globale Erwärmung bis 2020 im Vergleich zur realen Erwärmung und (b) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die langfristige, endgültige Erwärmung durch verdoppeltes CO2 im Vergleich zu den korrigierten 1,25 °C zeigt.

Später wird sich auch zeigen, dass diese dreifach überhöhten Vorhersagen der mittel- und langfristigen globalen Erwärmung mit der dreifach überhöhten Vorhersage der mittelfristigen Erwärmung der tropischen Mitteltroposphäre über die letzten Jahrzehnte zusammenhängen (Abb. 19). 

Die von den Argonauten nach Korrektur des physikalischen Fehlers der Klimaforscher abgeleitete Enderwärmung von 1,25°C stimmt mit der Rate der beobachteten Erwärmung von 1850-2020 überein, aber die gesamte Bandbreite der Vorhersagen der Klimaforscher über die Enderwärmung stimmt nicht mit der Rate der beobachteten Erwärmung überein.

Abbildung 9: Klimatologen haben (a) die mittelfristige globale Erwärmung seit 1990 und (b) die langfristige, endgültige globale Erwärmung (d.h. die gleichgewichtige Klimasensitivität oder ECS) im Vergleich zu den auf Beobachtungen basierenden Werten überprognostiziert. Mittel- und langfristige Erwärmungsvorhersagen sind kohärent, wenn die Erwärmung um das Dreifache überbewertet wird.

Die Seiten 8-9, die ein wenig technisch sind, zeigen, wie die Argonauten fünf Tests zur Bewertung von Vorhersagen der globalen Erwärmung entwickelt haben. Zunächst nutzten sie die Tests, um ihre eigene Berechnung zu überprüfen, dass es nach Korrektur des Fehlers der Klimawissenschaftler zu einer Enderwärmung von 1,25°C durch verdoppeltes CO2 kommen würde (bekannt als Gleichgewichtsklimaempfindlichkeit oder ECS), mit einem Bereich von 1,05 bis 1,50°C. Als nächstes überprüften sie den gesamten Bereich der von den Klimawissenschaftlern vorhergesagten ECS von 2,0 bis 5,7°C, wobei sie Werte in diesem vorhergesagten Bereich als Input für einen Algorithmus verwendeten, um herauszufinden, ob und in welchem Ausmaß jede Vorhersage zu einem Widerspruch führte.

Die fünf Tests zum Nachweis, dass die Prophezeiungen der Klimawissenschaftler exzessiv sind

Lewis & Curry (2015) zeigten, dass man ohne ein gigantisches Klimamodell die endgültige Erwärmung durch verdoppeltes CO2 aus der beobachteten globalen Erwärmung des Industriezeitalters, den offiziell geschätzten Veränderungen, die durch unsere Treibhausgasemissionen verursacht werden, und dem gemessenen Strahlungsungleichgewicht der Erde berechnen kann. Sie kamen zu dem Schluss, dass die endgültige Erwärmung etwa 1,5°C betragen würde, so wie es Arrhenius und Callendar vor einem Jahrhundert getan hatten.

Ungeachtet einer ähnlich geringen Erwärmung, die in Lewis & Curry und vielen anderen Arbeiten (z.B, Lindzen & Choi 2011; Aldrin et al. 2012; Otto et al. 2013; Akasofu 2013; Spencer & Braswell 2014; Skeie et al. 2014; Soon et al. 2015; Bates 2016), haben die Klimaforscher ihre Vorhersagen von etwa 4 °C Enderwärmung als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft nicht reduziert, um die Reduktion zu erreichen, zu der sie die langsame Erwärmung der realen Welt in ihren mittelfristigen Vorhersagen der vom Menschen verursachten globalen Erwärmung gezwungen hatte.

Deshalb entwickelten die Argonauten fünf mathematische Tests, um festzustellen, ob ein Wert der Enderwärmung durch verdoppeltes CO2 aus dem Vorhersagebereich der Klimawissenschaftler von 2 °C bis 5,7 °C möglich war.

Test 1 basierte auf den Berechnungen des Teams, die zeigten, dass nach Korrektur des Fehlers der Klimawissenschaftler der wahre Bereich der Enderwärmung durch verdoppeltes CO2 1,05 bis 1,5 °C beträgt, mit einer mittleren Schätzung von 1,25 °C.

Selbst die geringste Vorhersage der Klimaforscher, 2 °C, scheitert bei diesem Test (Abb. 10).

Abbildung 10: Die neuesten offiziellen Vorhersagen der endgültigen Erwärmung oder ECS (Sherwood et al. 2020), verglichen mit der von Monckton of Brenchley et al. korrigierten ECS.

Die Tests 2-5 basieren auf Unit-Feedback-Reaktionen (UFR), d.h. Rückmeldungen pro 1 °C direkter Erwärmung.

Test 2 geht davon aus, dass die UFRs als Reaktion auf die direkte Treibhausgas-Erwärmung mit der Erwärmung der Oberfläche wachsen.

Die UFR ab 2020 sollte die UFR von 1850-2020 übertreffen, die wiederum die vorindustrielle UFR übertreffen sollte.

Doch selbst UFRs auf der Grundlage der geringsten Vorhersage der Klimatologen (ECS) von 2°C durch verdoppeltes CO2 basieren, scheitern bei diesem Test (siehe Einbruch der orangefarbenen Linie in Abb. 11).

Alle Vorhersagen über 2 °C fallen in Test 2 noch stärker durch.

Abbildung 11: Rückkopplungs-Reaktionen der Einheit U0 ≤ U1 ≤ U2 (solche pro 1 °C direkter Treibhauserwärmung) sollten mit der Erwärmung zunehmen. Sie tun genau das unter der Annahme einer Enderwärmung von 1,25°C durch verdoppeltes CO2 (equilibrium climate sensitivity, oder ECS: die grüne Linie). Basierend auf der vorhergesagten ECS ≥ 2°C in aktuellen Klimamodellen geht die Reihe jedoch unweigerlich nach unten statt nach oben.

Test 3 ermittelt, wie stark sich die Erderwärmung zwischen 1850 und 2020 hätte sein sollen, wenn eine gegebene Vorhersage der endgültigen Erwärmung durch verdoppeltes CO2 (ECS) zutreffen würde. Von 1850-2020 gab es eine gemessene globale Erwärmung von 0,9 °C. Allerdings impliziert selbst die vorhergesagte abschließende Erwärmung um 2 °C durch verdoppeltes CO2 (ECS) eine Erwärmung um 1,4 °C von 1850-2020, was wiederum das Eineinhalbfache der Erwärmung um 0,9 °C in diesem Zeitraum darstellt.

Test 3: Bei der mittleren ECS von 1850-2020 von 3,7 °C hätte es nicht 0,9 °C, sondern 2,5 °C Erwärmung geben müssen.

Die Obergrenze der Enderwärmung von 5,7°C würde eine Erwärmung um 3,6 °C von 1850-2020 bedeuten: das Vierfache der realen 0,9 °C (Abb. 12).

Somit fallen alle Vorhersagen der Klimawissenschaftler in Test 3 durch.

Abbildung 12: Alle derzeitigen Prognosen der Enderwärmung (ECS) von 2°C oder mehr aufgrund einer CO2-Verdoppelung im Zeitraum 1850 bis 2020 liegen weit über den gemessenen 0,9°C.

Test 4 leitet den vorindustriellen UFR und den durch die Emissionstemperatur ausgelösten UFR aus einer ECS-Vorhersage ab und nimmt deren Verhältnis X.
Selbst die von Klimawissenschaftlern prophezeite untere Grenze der Bandbreite von
2 °C impliziert einen vorindustriellen UFR, der zehnmal so hoch ist wie der UFR bei der Emissionstemperatur. Bei 1,25 °C ECS ist sie nur 2,4-mal so hoch.
Bei größeren Vorhersagen wächst der Überschuss rasch an (Abb. 13).

Abbildung 13: Der Anstieg des Basis-UFR-Verhältnisses X (das vorindustrielle UFR geteilt durch die Emissions-Temperatur UFR), der durch die vorhergesagte Enderwärmung ΔE2 impliziert wird, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt.

Test 5 leitet die verdoppelten CO2– und 1850-2020 UFR-Werte aus einer gegebenen ECS-Vorhersage ab und nimmt deren Verhältnis X2.

Auch hier ist selbst bei 2 °C vorhergesagter ECS die Verdoppelung von CO2UFR das 5-fache von 1850-2020 UFR.

Bei 3,7 °C vorhergesagter ECS im mittleren Bereich ist der verdoppelte CO2UFR 14-mal so hoch wie der 1850-2020 UFR.

Bei 5,7 °C vorhergesagter ECS des oberen Bereichs ist der verdoppelte CO2UFR-Wert 24-mal so hoch wie der von 1850-2020 UFR.

Werte von X2 weit über 1 sind unmöglich.

Der gesamte Bereich der ECS-Vorhersagen der Klimaforscher fällt in Test 5 durch.

Abbildung 14: Der Anstieg des zeitweiligen UFR-Verhältnisses X2 (das von den UFR-Klimawissenschaftlern verdoppelte CO2-Verhältnis geteilt durch das UFR-Verhältnis 1850-2020), das sich aus der vorhergesagten Enderwärmung ΔE2 durch den gesamten Bereich der ECS ergibt, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt, fallen die Vorhersagen fallen in Test 5 durch.

Dementsprechend versagt das gesamte Spektrum der aktuellen Vorhersagen zur globalen Erwärmung in allen fünf Tests; und wie die Abbildungen 10 bis 14 zeigen, ist das Versagen umso größer, je höher die Vorhersage ist. Im Gegensatz dazu entspricht die vom Team berechnete Enderwärmung von 1,25 °C durch verdoppeltes CO2, die als Grundlage für Test 1 dient, den Tests 2-5.

Wie die Klimamodelle die Zunahme des Wasserdampfes in der oberen Atmosphäre überbewerteten

Nachdem die Argonauten den physikalischen Fehler der Klimawissenschaftler korrigiert und mit Hilfe der fünf Tests theoretisch festgestellt hatten, dass die Klimamodelle eine um das Dreifache zu hohe globale Erwärmung vorhersagen, suchten sie nach einer physikalischen Diskrepanz zwischen der Art und Weise, wie die Modelle das Verhalten eines relevanten Aspektes des Klimas simulieren, und dessen gemessenem, realen Verhalten.

Da Klimamodelle die vorindustrielle Rückkopplungsreaktion um 3200% überbewerten, begannen die Argonauten zu untersuchen, wie die Modelle die Wasserdampfrückkopplung darstellen, die von den Klimawissenschaftlern als der mit Abstand wichtigste Rückkopplungsprozess im Klima angesehen wird, löst dieser doch alle oder fast alle Netto-Rückkopplungsreaktionen aus.

Tatsächlich wurde eine bemerkenswerte Diskrepanz zwischen den Vorhersagen der Modelle und der beobachteten Realität festgestellt. Klimamodelle sagen voraus, dass sich die tropische Mitteltroposphäre in 10.000 m Höhe mehr als doppelt so schnell erwärmen dürfte wie die Oberfläche. In Wirklichkeit gibt es jedoch keinen solchen Hotspot. Die tropische obere Atmosphäre erwärmt sich nur ein wenig schneller als die Oberfläche. Alle Modelle waren falsch. Wo immer die Daten aus der realen Welt zeigen, dass die Modelle falsch sind, sind die Daten zu bevorzugen. Irgendwo lauert ein großer Fehler.

Abb. 15a (IPCC (2007, Abb. 9.1c) sagt diesen tropischen Hotspot in der Mitte der Troposphäre voraus, aber es gibt keinen Hotspot im realen vertikalen Temperaturprofil von bis zu 26.000 Metern Höhe, gemessen von Millionen von Ballonsensoren (Abb. 15b: Lanzante et al. 2006)

Abbildung 15: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre

Der Hotspot wird von vielen einschlägigen Klimamodellen simuliert (Abbildung 16). Fehlt dieser, kann die Wasserdampf-Rückkopplung nicht so substantiell sein wie von den Modellen simuliert. Warum aber fehlt dieser prophezeite Hotspot?

Abbildung 16 Der Hotspot in vier Modellen (Lee at al. 2007: jedes Farbband repräsentiert 1°C)

IPCC 2007 (Abb. 9.1: hier Abb. 17) nahm an, dass der Hotspot der Fingerabdruck der vom Menschen verursachten Erwärmung sei.

Natürliche Einflüsse durch die Sonne, Vulkane, künstliches Ozon (O3) und Aerosole schienen den Hotspot nicht zu verursachen, wohl aber die vom Menschen verursachte Treibhausgas-Erwärmung.

Doch das IPCC hatte sich geirrt. Klimawissenschaftler sagen nun, dass der Hotspot ein Zeichen der globalen Erwärmung wäre, wie auch immer verursacht.

Abbildung 17: Der imaginäre Hotspot als Fingerabdruck der vom Menschen verursachten globalen Erwärmung.

Aber der Hotspot ist und bleibt abwesend. IPCC 2007 (Abbildung 10.7, hier Abbildung 18) prophezeite, dass sich der Hotspot mit der Zeit und der globalen Erwärmung ausbilden werde. Aber das IPCC hatte sich erneut geirrt.

Abbildung 18: Der Hotspotsoll sich angeblich im Zuge der Erwärmung bilden.

Obwohl das IPCC eine rasche Erwärmung der tropischen Oberluft vorhersagte, wurde sie in den Modellen von 1981-2016 im Vergleich zu den Daten aus der realen Welt um das Dreifache überbewertet (Christy 2019: hier Abb. 19).

Die Modelle wurden so programmiert, dass sie davon ausgehen, dass Wasserdampf, wie CO2, Methan, Distickstoffoxid und Ozon, in der gesamten Atmosphäre gut vermischt wäre. Das ist natürlich Unsinn.

Abbildung 19: Die Modelle überbewerten die Erwärmung der tropischen mittleren Troposphäre um das Dreifache zu hoch.

Die Modelle sagen voraus, dass der Wasserdampf in allen Höhenlagen zunehmen wird. Das ist falsch. In der mittleren Troposphäre sinkt die spezifische Feuchtigkeit seit 70 Jahren (NASA ESRL 1948-2020: hier Abb. 20).

Kein Hot Spot bedeutet eine geringe Wasserdampfrückkopplung und sehr geringe Erwärmung, was die Analyse des Teams bestätigt und belegt, dass sie mit den Beobachtungen in der realen Welt übereinstimmt.

Abbildung 20: In der mittleren Troposphäre nimmt die spezifische Feuchtigkeit ab (Kalnay et al. 1996).

Schlussfolgerung: Der moralische Imperativ lautet: Zugang zu bezahlbarem Strom für alle!

Nachdem der schwerwiegende physikalische Fehler der Klimaforscher korrigiert worden war, beträgt die globale Erwärmung ein Drittel dessen, was prophezeit worden ist, kohärent mit der realen Erwärmung, die ein Drittel der von ihnen vorhergesagten beträgt, und kohärent mit dem Rückgang des Wasserdampfes in der mittleren tropischen Troposphäre und mit dem Fehlen des vorhergesagten Hot Spots.

Aufgrund des Fehlers vergeben viele Banken keine Kredite mehr an Entwicklungsländer für Kohlekraftwerke: ab 2010 die Weltbank; ab 2015 Credit Agricole, Citibank, ANZ und Goldman Sachs; ab 2016 JP Morgan, Deutsche Bank, PNC, Credit Suisse, ABN Amro, Standard Chartered, US Bancorp, Commerzbank und Barclays; ab 2017 DZ Bank und NAB; ab 2018 DBS; ab 2019 sogar die Afrikanische Entwicklungsbank.

Doch laut Weltgesundheitsorganisation sterben 4 Millionen Menschen pro Jahr in Haushalten ohne Strom durch das Einatmen von Kochfeuerrauch und 500.000 Frauen pro Jahr bei der Geburt – nur zwei der zahlreichen Ursachen für vorzeitigen Tod durch fehlenden Zugang zu Elektrizität. Die Internationale Energieagentur definiert „Zugang“ als nicht mehr als die Kapazität, eine 60-Watt-Glühbirne vier Stunden täglich zu benutzen. Eine Milliarde Menschen haben keinen Zugang zu elektrischer Energie – eine Entwicklungspriorität, die heutzutage sicher und erschwinglich durch Kohleverstromung erfüllt werden kann.

Die ungerechtfertigte Furcht vor einer großen, raschen und gefährlichen globalen Erwärmung hat Mittel für Umweltverbesserungen verschlungen, die für erschwingliche und praktikable Lösungen für die vielen realen Umweltprobleme hätten ausgegeben werden müssen, die sich aus Armut und Elend in den Entwicklungsländern ergeben – Lösungen wie die universelle, erschwingliche, kontinuierliche, zuverlässige, kohle- und gasbefeuerte Elektrifizierung, die jetzt wieder möglich ist.

Nach der Korrektur des Fehlers wird die Indoktrination von Kindern über die globale Erwärmung von Cannow eingestellt. Viele haben ihre Kindheit durch grundlose Angst ruiniert, manche haben sich sogar aus Verzweiflung umgebracht.

Es gibt viele wirkliche Umweltprobleme, aber die langsame, leichte und insgesamt vorteilhafte Erwärmung, die nach der Korrektur des langjährigen und kostspieligen Fehlers der Klimawissenschaftler zu erwarten ist, gehört nicht dazu.Die Palette von Klimaregeln, Beschränkungen, Steuern, Auflagen, Konferenzen, Reden und Verträgen ist unnötig. Die vom Menschen verursachte globale Erwärmung verursachte, verursacht keinen „Klima-Notstand und wird dies auch niemals verursachen“. Es ist alles vorbei.

References

Akasofu S-I (2013) On the present halting of global warming. Climate 1(1):4–11.

Aldrin M, Horden M, Guttorp P, Skeie RB, Myhre G, Berntsen TK (2012) Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics 23:253–271. https://doi.org/10.1002/env.2140

Andrews T, Gregory JM, Webb MJ, Taylor KE (2012) Forcing, feedbacks and climate sensitivity in CMIP5 coupled atmosphere– ocean climate models. Geophys Res Lett 39:L09712. https://doi.org/10.1029/2012GL051607

Arrhenius S (1906) Die vermutliche Ursache der Klimaschwankungen (“The possible cause for climate variability”) Meddelanden från K Vetenskapsakademiens Nobelinstitut 1(2):1ff

Bates JR (2016) Estimating climate sensitivity using two-zone energy–balance models. Earth Space Sci 3(5):207–225. https://doi.org/10.1002/2015EA000154

Black HS (1934) Stabilized feedback amplifiers. Bell System Tech J 1–18

Bode HW (1945) Network analysis and feedback amplifier design. Van Nostrand Reinhold, New York, 31–43

Callendar GS (1938) The artificial production of carbon dioxide and its influence on temperature. Q.J.R. Met. Soc. 64(275), 223– 240. https://doi.org/10.1002/qj.49706427503

Charney JG, Arakawa A, Baker DJ, Bolin B, Dickinson RE, Goody RM, Leith CE, Stommel HM, Wunsch CI, (1979) Carbon

Dioxide and Climate: A Scientific Assessment Report of an Ad-Hoc Study Group on Carbon Dioxide and Climate. Climate Research Board, Assembly of Mathematical and Physical Sciences, National Research Council, Woods Hole, Massachusetts Christy J (2019) The tropical skies: falsifying climate alarm. Global Warming Policy Foundation, London.

Hansen J, Lacis A, Rind T, Russel G, Stone P, Fung I, Ruedy R, Lerner J (1984) Climate sensitivity 1984: Analysis of feedback mechanisms. In: Climate Processes and Climate Sensitivity (AGU Geophysical Monograph 29). Hansen J Takahashi T (eds).

American Geophysical Union 130-163

IPCC (1990) Climate change – The IPCC Assessment: Report prepared for the Intergovernmental Panel on Climate change by Working Group 1. Houghton JT, Jenkins GJ, Ephraums JJ (eds). Cambridge University Press

IPCC (2001) Climate Change 2001: The scientific basis Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Houghton JT et al (eds). Cambridge University Press

IPCC (2007) Climate Change 2007: The physical science basi.s Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon S et al (eds). Cambridge University Press

IPCC (2013) Climate change 2013: The physical science basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Stocker TF et al (eds). Cambridge University Press

Kalnay E, Kanamitsu M, Kistler R, Collins W, Deaven D, Gandin L, Iredell M, Saha S, White G, Woollen J, Zhu Y, Chelliah M,

Ebisuzaki W, Higgins W, Janowiak J, Mo KC, Ropelewski C, Wang J, Leetmaa A, Reynolds R, Jenne R, Joseph D (1996) The NCEP/NCAR Reanalysis 40–year Project. Bull Amer Meteor Soc 77:437–471

Lacis AA, Schmidt GA, Rind D, Ruedy RA (2010) Atmospheric CO2: principal control knob governing Earth’s temperature. Science

330: 356–359

Lacis AA, Hansen JE, Russel GL, Oinas V, Jonas J (2013) The role of long-lived greenhouse gases as principal LW control knob that governs the global surface temperature for past and future climate change. Tellus B 65:19734: https://doi.org/10.3402/tellusb.v65i0.19734

Lanzante JR, Peterson TC, Wentz FJ, Vinnikov KY (2006) CCSP synthesis and assessment report 11. In: Temperature Trends in the lower atmosphere: steps for understanding and reconciling differences. US Climate Change Science Program and Subcommittee on

Global Change Research (Karl TR, Hassol SJ, Miller CD, Murray WL, eds.). National Oceanographic & Atmospheric Administration, National Climatic Data Center, Asheville North Carolina

Lee MI, Suarez MJ, Kang IS, Held IM, Kim D (2007) A moist benchmark calculation for the atmospheric general-circulation models. J Clim 21:4934–4954

Lewis N, Curry JA (2015) The implications for climate sensitivity of AR5 forcing and heat uptake estimates. Clim Dyn 45:1009–

1023. https://doi.org/10.1007/s003820142342y

Lindzen RS, Choi Y-S (2011) On the observational determination of climate sensitivity and its implications. Asia-Pacific J Atmos Sci 47(4):337–290. https://doi.org/10.1007/s131430110023x

Meehl GA, Senior CA, Eyring V, Flato G (2020) Context for interpreting equilibrium climate sensitivity and transient climate response from the CMIP6 Earth system models. Sci Adv 6(26). https://doi.org/10.1126/sciadv.aba1981

HadCRUT4 dataset: metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.6.0.0.monthly_ns_avg.txt (accessed

November 2020)

Otto A, Otto F, Boucher O et al (2013) Energy budget constraints on climate response. Nat Geosci 6:415–416. https://doi.org/10.1038/ngeo1836

Schlesinger ME (1988) Feedback analysis of results from energy balance and radiative–convective models In: MacCracken MC, Luther FM (eds). The potential climatic effects of increasing carbon dioxide. US Dept of Energy, Washington DC, pp 280–319

Sherwood SC, Webb MJ, Annan JD, Armour KC, Forster PM, Hargreaves JC, Hegerl G, Klein SA, Marvel KD, Rohling EJ, Watanabe M, Andrews T, Braconnot P, Bretherton CS, Foster GL, Hausfather Z, von der Heydt AS, Knutti R, Mauritsen T, Norris JR, Proistosescu C, Rugenstein M, Schmidt GA, Tokarska KB, Zelinka MD (2020) An assessment of Earth’s climate sensitivity using multiple lines of evidence. Rev Geophys. https://doi.org/10.1029/2019RG000678

Skeie RB, Berntsen T, Aldrin M, Holden M, Myhre G (2014) A lower and more constrained estimate of climate sensitivity using updated observations and detailed radiative forcing time series. Earth Syst Dyn 5:139–175

Soon WW-H, Connolly R, Connolly M (2015) Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19 century. Earth-Sci Rev 150:409–452. https://doi.org/10.1016/j.earscirev.2015.08.010

Spencer RW, Braswell WD (2014) The role of ENSO in global ocean temperature changes during 1955–2011 simulated with a 1D climate model. Asia–Pacific J Atmos Sci 50(2):229–237

UAH dataset: monthly global mean land and sea lower-troposphere temperature anomalies (accessed November 2020). http://www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt

Wu T, Hu A, Gao F, Zhang J, Meehl GA (2019) New insights into natural variability and anthropogenic forcing of global/regional climate evolution. Clim Atmos Sci 2(18). https://doi.org/10.1038/s4161201900757

Zelinka MD, Myers TA, McCoy DT, Po-Chedley S, Caldwell PM, Ceppi P, Klein SA, Taylor KE (2020) Causes of higher climate sensitivity in CMIP6 models. Geophys Res Lett. https://doi.org/10.1029/2019GL085782

Autoren (die Argonauten):

Christopher Monckton of Brenchley (monckton@mail.com) is a former adviser to Margaret Thatcher on science and policy at 10 Downing Street. He discovered climate scientists’ error and gathered the Argonauts to investigate it.

Dr Dietrich Jeschke is Professor of Control Theory at the Flensburg University of Applied Sciences.

Dr Willie Soon is an award-winning astrophysicist at the Harvard-Smithsonian Center for Astrophysics.

Dr David Legates is Professor of Climatology at the University of Delaware and a former State Climatologist. He is currently Executive Director of the U.S. Global Change Research Program.

Dipl.-Ing. Michael Limburg is a control engineer and climate specialist at the Europäisches Institut für Klima und Energie.

Alex Henney (alexhenney@aol.com) advises governments worldwide on the global electricity market and grid development.

He conceived the idea for this plain man’s guide and wrote the first draft.

John Whitfield is a control engineer. He designed and built the test apparatus on which this research was verified. His work was later confirmed by a similar test apparatus at a government physical laboratory.

James Morrison is an environmental consultant who once sold wind turbines to Napa Valley wineries.

Dr Tom Sheahen is a physicist and alumnus of the Massachusetts Institute of Technology.

William Rostron is an award-winning control engineer who designed and programmed the world-leading integrated control system at the Oconee Nuclear Facility, Seneca, South Carolina.

Acknowledgements

The Argonauts thank Mr William Bailey, Professor Matt Briggs, Mr Edward Bullerdieck, the late Professor Freeman Dyson,

Professor Chris Essex, Professor Pat Frank, Professor Dr Hermann Harde, Mr Michael Haseler, President Václav Klaus,

Professor Dr Mojib Latif, Mr Nic Lewis, Professor Adrian Mathias, The Viscountess Monckton of Brenchley, Dr Benoît Rittaud, Academician Dr Vladimir Semenov, Professor Nir Shaviv, Dr Roger Taguchi, Mr George White and Academician Dr

Nina Zaytseva for discussions, Professor Ray Bates, The Baron Clanmorris of Newbrook, Dr Michael Connolly, Dr Ronan

Connolly, Professor Will Happer, Dr David Heald, Professor Murry Salby and the

Global Warming Policy Foundation for pre-submission reviews; Professor Maria da Assunção Ferreira Pedrosa de Araújo, The Rev. David Foster, Mr G. Edward Griffin, Ms Pamela Matlack-Klein, the late Professor Nils-Axel Mörner, Mr Hal Shurtleff, the Cambridge Union Society, the Charles University at Prague, the Government of Colombia, the Committee for a Constructive Tomorrow, the Government of the Czech Republic, the Deutscher Bundestag, the Europäisches Institut für Klima und Energie, the European Parliament, Hancock Prospecting, the Heartland Institute, the Hong Kong and Shanghai Banking Corporation, the International Committee on Geoethics, the Moscow City Government, the Oxford Union Society, the St Andrews University Union, the Conference of the Parties to the United Nations Framework Convention on Climate Chance and the U.S. House of Representatives for facilitating discussion of these and related ideas at international conferences; and Professor Antonino Zichichi for having provided, at the Centre for Scientific Culture in Erice, Sicily, the high-level scientific forum from which these ideas sprang. Those acknowledged may or may not endorse the Argonauts’ conclusions.

Übersetzt von Chris Frey EIKE

Bemerkung: Wer die Übersetzung überprüfen will, der klicke auf das beigefügte PDF im Original. Die über die Formatierungen in dieser Übersetzung hinaus gehenden Formatierungen konnten nicht mit übernommen werden.

climate-error-guide