Größter politischer Betrug der Geschichte

Hier einige Auszüge daraus:

Tatsache ist: COVID-19 ist eine reale Krankheit, die einige krank macht, sich als gefährlich für andere erweist, zumeist ältere Menschen – und keinerlei Auswirkungen auf die große Mehrheit hat.

Das ist alles!

„Müssen wir uns immer noch verkriechen?“, fragen Dan Erickson und Artin Massih, Doktoren und Miteigentümer von Accelerated Urgent Care in Bakersfield, Kalifornien. „Unsere Antwort lautet nachdrücklich nein! Müssen wir Geschäftszweige schließen? Nachdrücklich nein … Die Daten geben eindeutig her, die Beschränkungen aufzuheben“, sagte Erickson in einem Interview vor Kurzem.

Die Wissenschaftler, welche führend waren bzgl. des Coronavirus-Shutdowns prophezeiten im März, dass in Amerika zwischen 100.000 und 200.000 Menschen sterben würden. Sie begründeten diese Schätzungen mit (fehlerhaften) Computermodellen. (Allerdings) sind etwa 56.000 Amerikaner gestorben – oder doch nicht? Auch hier – die Fakten sind fadenscheinig.

Der Kongress verabschiedete Gesetze, denen zufolge Krankenhäuser Milliarden Dollar für die Behandlung von Coronavirus-Patienten bekommen sollen. Interessenkonflikt? Ja, natürlich!

Den Zahlen bzgl. Coronavirus, bereits fehlerhaft durch Computermodelle, wurde dann auch noch eine fehlerhafte Handhabung zuteil. „In Pennsylvanien strich man über 200 Todesfälle aus der offiziellen Liste von Coronavirus-Fällen, und zwar angesichts immer weiterer Fragen hinsichtlich der Datenerfassung und -genauigkeit“, berichtet der Inquirer. „Die totale Außerkraftsetzung von Bürgerrechten ist dadurch nicht gerechtfertigt. Dieses aufgebauschte, weit über das Ziel hinaus schießende Durchgreifen dauert bereits viel, viel zu lange“.

Und noch einmal Erickson: „Als ich meinen Report über Todesfälle schrieb, zwang man mich, COVID hinzuzufügen. Warum wird dieser Druck auf uns ausgeübt? Um vielleicht die Zahlen hoch zu treiben und es schlimmer aussehen zu lassen als es ist.

Wir werden intern gezwungen, COVID der Diagnoseliste hinzuzufügen, auch wenn wir glauben, dass der eigentliche Todesfall gar nichts damit zu tun hat. Die wahre Todesursache war nicht COVID, sondern er wurde lediglich als einer der Gründe angeführt … COVID hat sie nicht umgebracht, sondern 25 Jahre intensiven Rauchens.

Entweder haben Politiker zu viel Angst, irgendetwas zu machen, weil es sie später politisch benachteiligen würde, oder Politiker nutzen dieses Coronavirus zu ihrem politischen Vorteil – also um Waffengesetze zu erlassen, wie es der Gouverneur von Virginia Ralph Northam getan hat. Oder sie machen sich Hoffnungen auf Vorteile im kommenden Wahlkampf auf der Grundlage der verwüsteten Wirtschaft – wie der ehemalige Vizepräsident Joe Biden und – ach ja – alle zur Wahl stehenden Demokraten.

Das Coronavirus ist wohl real – aber der Hype darum herum ist Narretei“.

Der ganze großartige Artikel steht hier.

Link: https://www.iceagenow.info/biggest-political-hoax-in-history/
Übersetzt von Chris Frey EKE




Globale Mittlere Temperatur verflacht die Vergangenheit

Tausendjährige Temperaturtrends zeigen globale Abkühlung

Anomalien der globalen mittleren Temperatur wurden kürzlich vom Pages 2K Consortium unter Führung von Nuekom berechnet (2019). Deren statistische Mittelwerte sind ein Konglomerat von sieben unterschiedlichen Verfahren für 7000 Proxy-Aufzeichnungen über die letzten 2000 Jahre. Das Mittel aller dieser Verfahren wird als gestrichelte Linie in Abbildung 1 gezeigt und mit den veröffentlichten regionalen Pages 2k-Rekonstruktionen verglichen. Alle Mittelwerte zeigen ähnliche Trends und werden fortan einfach als die globalen Mittel bezeichnet.

Es wurden solche regionalen Temperatur-Rekonstruktionen gewählt, die ähnliche Proxy-Datensätze heranziehen wie bei der Berechnung globaler Mittelwerte. Die Arktis-Rekonstruktion von McKay umfasst eine Palette von Proxy-Aufzeichnungen, bestehend aus Eisbohrkernen, Baumringen, Sedimenten in Seen und im Ozean nördlich von 60°N. Die Northern Hemisphere (NH) European Rekonstruktion von Luterbacher basiert auf Baumringen. Und die Antarktis-Rekonstruktion von Stenni beruht hauptsächlich auf Isotopen in Eisbohrkernen.

Das globale Mittel von Pages 2k scheint vernünftig zu sein im Vergleich zu regionalen Konstruktionen von der Gegenwart bis zurück zur Kleinen Eiszeit, genauer bis etwa zum Jahr 1250. Es ist schwierig zu erkennen, wie der Mittelwert im Vergleich zu regionalen Rekonstruktionen in der Gegenwart aussieht, wenn man einen Referenz-Zeitraum von 1961-1990 verwendet, da alle Rekonstruktionen konvergieren und den „Hockeyschläger“-Effekt erzeugen. Vor 1250 n. Chr. scheint der globale Mittelwert parallel zu den Temperaturen im NH Europa zu liegen, wovon die Antarktis weitgehend ausgespart ist.

Abbildung 1: Die obere Grafik zeigt Temperatur-Rekonstruktionen mit einem 50-Jahre Loess-Filter [?] mit den globalen Mittelwerten des 7000 Member umfassenden Ensembles von Pages 2K mit allen Verfahren. Die untere Graphik zeigt lineare Trends der letzten 2000 Jahre.

Eine lineare Regressionsanalyse der Temperatur-Rekonstruktionen in Abbildung 1 unten zeigt während der letzten 2000 Jahre Abkühlungstrends. Überraschenderweise zeigt sich sowohl in der Arktis als auch in der Antarktis ein ähnlicher langzeitlicher Abkühlungstrend von 0,4°C über 1000 Jahre. Tatsache ist, dass alle regionalen Konstruktionen eine negative Neigung – oder einen Abkühlungstrend – aufweisen während der letzten 2000 Jahre. Dies wird in Tabelle 1 dargestellt.

Interessanterweise verlaufen alle globalen Mittel fast flach oder zeigen einen dezenten Abkühlungstrend. Der globale mittlere Abkühlungstrend liegt mehr auf einer Linie mit der NH-Europa-Temperatur-Rekonstruktion. Man beachte, dass 97,5% der globalen mittleren Abkühlungstrends von 0,2°C pro 1000 Jahre immer noch flacher verlaufen als der mittlere Abkühlungstrend von 0,4°C pro 1000 Jahre in Arktis und Antarktis. Auch ist die mittlere globale geringe Bandbreite von 2,5% von 0,04°C pro 1000 Jahre viel flacher als die untere Bandbreite irgendwelcher regionalen Rekonstruktionen.

Tabelle 1: Jahrtausend-Trends räumlicher Temperatur-Rekonstruktionen während der letzten 2000 Jahre im Vergleich zu den globalen Mittelwerten von Pages 2K. Mittelwerte und Bandbreite für die Arktis stammen von McKay, für die Antarktis von Stenni, für Europa von Luterbacker und für globale Mittel von Neukom.

Von allen regionalen Temperatur-Rekonstruktionen zeigt der mittlere tausendjährige Trend von NH Europa die geringste Abkühlung während der letzten 2000 Jahre von lediglich 0,2°C pro 1000 Jahre. Diese Temperatur-Rekonstruktion beruht ausschließlich auf Baumring-Proxydaten. Es gibt eine merkliche Verschiebung hinsichtlich Datenmenge und -qualität in den Baumring-Datensätzen um das Jahr 1000. Die Anzahl der Baumring-Aufzeichnungen sind signifikant reduziert von 400 Aufzeichnungen nach dem Jahr 1600 auf weniger als 30 Aufzeichnungen vor dem Jahr 1000 (Luterbacher 2016).

McKay meldet einen Abkühlungstrend in der Arktis von 0,47°C pro 1000 Jahre im Zeitraum des Jahres 0 bis zum Jahr 1900. Der hier beschriebene Abkühlungstrend gilt für den Zeitraum von 0 bis zum Jahr 2000 und umfasst auch die Gegenwart. Bezieht man diese mit ein, reduziert sich der arktische tausendjährige Abkühlungstrend etwas, nämlich von 0,47°C auf 0,40°C pro 1000 Jahre. Wie erwartet zeigt sich in der Arktis-Rekonstruktion mit großen Temperaturschwankungen von Jahrhundert zu Jahrhundert die höchste Verteilung tausendjähriger Trends mit einer Bandbreite von -0,1°C bis -0,7°C pro 1000 Jahren.

Stenni (2017) zeigt Abkühlungstrends von 0,3°C pro 1000 Jahre für das Ostantarktische Plateau bis 0,52°C pro 1000 Jahre für die Antarktische Halbinsel, jeweils im Zeitraum 0 bis 1900. Die letzten 100 Jahre werden dabei separat betrachtet, was die größere Häufigkeit kürzerfristiger hundertjähriger Erwärmungen der Gegenwart zeigt. Bezieht man die Gegenwart mit ein, nimmt die Bandbreite des tausendjährigen Abkühlungstrends in der Antarktis etwas zu. Die Ostantarktis ist das letzte Gebiet auf der Erde, wo die gegenwärtige hundertjährige Erwärmung aufgetreten ist. Diese verzögerte Erwärmung wird von den Klimamodellen nicht erfasst, neigen diese doch dazu, die Erwärmung der Antarktis zu übertreiben (Stenni 2017).

Das globale Mittel liegt außerhalb der Arktis-Antarktis-Umhüllung

Wie schon in meinem vorigen Beitrag angesprochen ziehe ich es vor, für erweiterte Temperatur-Rekonstruktionen die Kleine Eiszeit (LIA) von 1600 bis 1700 als Referenzlinie heranzuziehen und nicht so sehr den Referenzzeitraum 1961 bis 1990. Beim Verwenden des LIA-Referenzzeitraumes bleibt die Temperaturkonvergenz während der kalten LIA erhalten, ebenso wie Temperaturdivergenzen zwischen Arktis und Antarktis in wärmeren Perioden. Damit werden die Mittelalterliche Warmzeit MWP, die Römische Warmzeit RWP und die LIA als Klima-Ereignisse in den Arktis-Daten der Abbildung 2 gut erkennbar. Zusätzlich sind diese Polargebiete dann in einen geeigneten Zusammenhang gestellt mit dem Umstand, dass es in der Antarktis stärkere negative Temperaturabweichungen gibt als in der Arktis.

Allgemeine Beobachtungen zeigen, dass die MWP und die RWP eine arktische Temperaturspitze wie das heutige Maximum von 1940 bis zur Gegenwart aufweisen. Alle drei Spitzen sind etwa 1,3°C wärmer als die LIA-Basislinie. Im Gegensatz dazu lagen die Temperaturen in der Antarktis während der MWP und der RWP um 0,25°C bis 0,50°C höher als heute.

Der globale Mittelwert wird grundsätzlich rückwärts in der Zeit abgeflacht, indem die zugrunde liegenden tausendjährigen Abkühlungstendenzen nicht berücksichtigt werden. Wenn Rekonstruktionen auf die LIA datiert werden, liegt der globale Mittelwert außerhalb der arktischen und antarktischen Bandbreite vor dem Jahr 1250. Vom Jahr 0 bis zum Jahr 1250 zeigt der Mittelwert niedrigere globale Temperatur-[Anomalien] als selbst die Antarktis. Ein einfacher Unterschied in der Durchschnittstemperatur zwischen der LIA und Rekonstruktionen von 0-1000 ist aufschlussreich. Sie zeigt den globalen Mittelwert mit einer leichten Erwärmung von nur 0,25°C vor der LIA, im Gegensatz zur Antarktis und Arktis, die eine Erwärmung von 0,5°C bzw. 0,8°C vor der LIA aufweisen. Das globale Mittel erscheint in der Gegenwart vernünftig.

Abbildung 2: Temperatur-Rekonstruktionen von Arktis und Antarktis der globalen Mittelwerte nach Pages 2K im Vergleich zum Referenzzeitraum 1600 bis 1700. Die Rekonstruktionen sind mit einem 50-Jahre-Loess-Filter versehen. Die untere Graphik ist eine Vergrößerung, welche lineare Trends von der MWP zur LIA zeigt. Diese Rekonstruktionen sind mit einem 30-Jahre-Loess-Filter versehen.

Wie erwartet ist der Jahrtausend-Trend im Hintergrund mit der Zeit vorübergehend. Beispiel: Die Abkühlung von der MWP zur LIA verlief schneller als die Abkühlung der letzten 2000 Jahre (untere Graphik in Abbildung 2). Die Arktis weist eine Abkühlung um 1,1°C pro 1000 Jahre auf, und die Antarktis kühlt sich mit einer Rate von 0,6°C ab. Unglaublicherweise zeigt das globale Mittel nach Pages 2K eine LIA-Abkühlungsrate von lediglich 0,2°C pro 1000 Jahre, das ist sogar noch geringer als in der Antarktis. Der Abflachungs-Effekt reduziert die Temperatur-Anomalie der Warmzeiten vor der LIA und zeigt nicht angemessen den LIA-Abkühlungstrend.

Der globale Mittelwert wird von Baumring-Proxys verzerrt

Die von Pages 2K zur Berechnung globaler Mittelwerte herangezogenen Daten beruhen auf 7000 Proxy-Aufzeichnungen. Die Mehrzahl der Aufzeichnungen jedoch (59%) besteht aus Baumringdaten hauptsächlich der Nordhemisphäre (Pages 2k, 2017). Nuekon (2019) räumt ein, dass Baumring-Aufzeichnungen trendbereinigt sind und daher nicht Trends im Zeitmaßstab von einem oder mehreren Jahrhunderten erfassen können. Auch erhalten sie nicht längerzeitliche tausendjährige Trends. Außerdem bestätigt er, dass sich dieses Problem verstärkt, je weiter man zeitlich zurückgeht. Das führt zu einer Unterschätzung der niederfrequenten Variabilität besonders während des ersten Jahrtausends der modernen Zeitrechnung. Das wäre analog zu Warmzeiten wie der MWP und der RWP. Die Mittelwert-Berechnungen von Pages 2K sind beherrscht von Proxydaten der Nordhemisphäre mit einer Überbetonung von Baumring-Proxys, und das ist der Hauptgrund für die Abflachung während der Vergangenheit.

Christiansen et al. (2017) haben eine exzellente Analyse und Diskussion über das Fehlen der Erhaltung niederfrequenter oder langzeitlicher Variabilität in Proxy-Aufzeichnungen sowie Temperatur-Rekonstruktionen im großräumigen Maßstab. Die Autoren stellen fest, dass Baumring-Aufzeichnungen eine absolute jährliche Datierungs-Kontrolle aufweisen und mit anderen Chronologien verglichen werden können. Allerdings räumt er ebenfalls die Probleme von Baumring-Daten bzgl. der Variabilität ein. Außerdem stellt er fest, dass die Mittelung von Proxys als ein Low-Pass-Filter wirken, was das Signal sich abflachen lässt. Damit wird die wahre Amplitude von Kalt- und Warmzeiten in Temperatur-Rekonstruktionen nicht erfasst. Beides gilt für das globale Mittel während RWP und MWP, weshalb man bzgl. der absoluten Temperaturwerte diese nicht mit der hundertjährigen Erwärmung der Gegenwart vergleichen kann.

Zusätzlich sind Baumring-Aufzeichungen vor dem Jahr 1000 hinsichtlich Datenquantität und -qualität reduziert. Für eine objektive Begutachtung der Pages 2K-Baumring-Proxys empfehle ich die Lektüre der Beiträge von Steve McIntyre hierzu. Er diskutiert die Genauigkeit von Baumringdaten, das Divergenz-Problem und die Rosinenpickerei hinsichtlich der Daten.

Conclusions

Die im Jahr 2019 veröffentlichte globale Mitteltemperatur von Pages 2K erfasst nicht den tausendjährigen Abkühlungstrend, wie er in Temperatur-Rekonstruktionen in Arktis und Antarktis aufgetreten war. Deren globales Mittel stützt sich auf eine Datengrundlage, welche verzerrt ist durch Baumring-Proxys der Nordhemisphäre, welche keine langzeitlichen Temperaturtrends der Polargebiete erfassen.

Die Auswirkung insgesamt des Pages 2K-Datensatzes und der daraus gebildeten Mittelwerte besteht darin, dass Temperaturtrends der Vergangenheit abgeflacht werden, besonders während RWP und MWP, welche Schlüssel-Analogien der heutigen Zeit sind. Die Abkühlung bis zur LIA ist weitgehend verschwunden. Höhere Temperaturen in Arktis und Antarktis während RWP und MWP sind minimiert und werden durch die globale Mitteltemperatur nicht repräsentiert.

Ergo: das Pages 2K-Consortium hat das Profil der globalen mittleren Temperatur in der Vergangenheit abgeflacht.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.
References Cited:
Christiansen, B. & Ljungqvist, F. C. Challenges and perspectives for large-scale temperature reconstructions of the past two millennia. Rev. Geophys. 55, 40–96 (2017). https://agupubs.onlinelibrary.wiley.com/doi/full/10.1002/2016RG000521
Luterbacher J et al. European summer temperatures since Roman times. Environmental Research Letters 11, 024001, DOI: 10.1088/1748-9326/11/2/024001, 2016.
McKay, N. P. and Kaufman, D. S.: An extended Arctic proxy temperature database for the past 2,000 years, Scientific Data 1:140026, doi:10.1038/sdata.2014.26, 2014 Dataset: https://www1.ncdc.noaa.gov/pub/data/paleo/pages2k/arctic2014temperature-v1.1.txt
McIntyre, S. Climate Audit blog. https://climateaudit.org/?s=Pages
PAGES 2k Consortium: Continental-scale temperature variability during the past two millennia, Nat. Geosci., 6, 339–346, Published online 21 April 2013, https://doi.org/10.1038/NGEO1797, 2013.1c PAYWALLED. Dataset available see above.
PAGES 2k Consortium- Neukom, R., Barboza, L.A., Erb, M.P. et al. Consistent multidecadal variability in global temperature reconstructions and simulations over the Common Era. Nat. Geosci. 12, 643–649 (2019). https://doi.org/10.1038/s41561-019-0400-0. Paywalled, but shared by the author at the following link. http://pastglobalchanges.org/science/wg/2k-network/nature-geosc-2k-july-19
Stenni, B., Curran, M. A. J., Abram, N. J., Orsi, A., Goursaud, S., Masson-Delmotte, V., Neukom, R., Goosse, H., Divine, D., van Ommen, T., Steig, E. J., Dixon, D. A., Thomas, E. R., Bertler, N. A. N., Isaksson, E., Ekaykin, A., Werner, M., and Frezzotti, M.: Antarctic climate variability on regional and continental scales over the last 2000 years, Clim. Past, 13, 1609–1634, https://doi.org/10.5194/cp-13-1609-2017, 2017.
Temperature Reconstruction Datasets
Arctic McKay, 2014. https://www1.ncdc.noaa.gov/pub/data/paleo/pages2k/arctic2014temperature-v1.1.txt
Antarctic Stenni, 2017. https://www1.ncdc.noaa.gov/pub/data/paleo/pages2k/stenni2017antarctica/CPSrecons/All_regions_recons_CPS.csv
Europe Luterbacher, 2016. https://www1.ncdc.noaa.gov/pub/data/paleo/pages2k/EuroMed2k/eujja_2krecon_nested_cps.txt
SH Nuekom, 2014. https://www1.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/neukom2014/SH_Fig2_recons_Ens-means_wrt1000-2000.txt
Pages 2K 2013 dataset. www.ncdc.noaa.gov/paleo/pages2k/pages-2k-network.html
Pages 2K-Nuekom Ensemble Means 2019. https://www.ncdc.noaa.gov/paleo-search/study/26872 .
Link: https://wattsupwiththat.com/2020/05/03/global-mean-temperature-flattens-the-past/
Übersetzt von Chris Frey EIKE




CO2, das chinesische Virus und die Profiteure des Untergangs

Aber Anthony Watts hat in einem Kommentar schon darauf hingewiesen, dass der Temperaturrückgang nichts mit einer Abnahme der CO2-Konzentration zu tun hat, egal ob dieser nun dem Lockdown geschuldet ist oder nicht. Die Operateure der Mauna Loa-Aufzeichnung stimmen ihm zu:

Ist eine CO2-Änderung in den Aufzeichnungen wegen COVID-19 erkennbar?

Es gab schon viele Untersuchungen zu der Frage, ob wir eine Verringerung der CO2-Emissionen in unseren Messungen am Mauna Loa aufgrund einer geringeren Verbrennung fossiler Treibstoffe erkennen können. Jener Rückgang der Emissionen muss hoch genug sein, um ihn von der natürlichen CO2-Variabilität unterscheiden zu können, die ins Spiel kommt durch jährliche und jahreszeitliche Variationen von Temperatur, Feuchtigkeit, Bodenfeuchte usw. Diese natürlichen Variationen sind erheblich, und bislang zeichnen sich die „fehlenden“ Emissionen nicht ab, aber vielleicht sind sie mit dem Fortschreiten des Jahrs erkennbar. Beispiel: Falls die Emissionen um 25% geringer sind, dann sollte man für den Monat März eine Verringerung am Mauna Loa um 0,2 ppm erkennen. Betrachten wir über viele Jahre den Unterschied zwischen Februar und März, kann man im März einen um 0,74 ppm höheren Wert erwarten. Aber die Variabilität von Jahr zu Jahr (eine Standardabweichung) der Differenz beträgt 0,4 ppm. In diesem Jahr beträgt die Differenz 0,4 ppm oder liegt um 0,33 ppm unter dem Mittelwert. Hingegen lag es im vorigen Jahr um 0,52 ppm unter dem Mittelwert.

Die meisten Emissionen stammen aus urbanen Gebieten, so dass der Effekt vielleicht im Lee von Städten einfacher zu erkennen ist, obwohl sich auch hier das Ganze von der natürlichen Variabilität abheben muss. Nur Messungen von C14 im CO2 würde es uns ermöglichen, CO2 aus fossilen Treibstoffen klar von den natürlichen CO2-Quellen zu unterscheiden, egal wie variabel Letzteres ist.

Nehmen wir für den Moment einmal an, es gäbe wirklich einen Rückgang unserer Emissions-Sünden um 25% und dass das so weitergeht bis die Pandemie in 18 Monaten endet, wie es einige Epidemiologen prophezeit haben. Nehmen wir weiter an, dass es eine weitere Reduktion des CO2-Gehaltes um 0,2 ppm in jedem der nächsten 18 Monate gibt. Dann wäre die Konzentration um schwindelnde 3,6 ppm gesunken.

Vielleicht. Das IPCC sagt, dass CO2 etwa 125 Jahre lang in der Luft bleibt. In diesem Fall wird nichts, was wir in diesem Jahrhundert tun, einen großen Unterschied in der CO2-Konzentration bewirken.

Allerdings wollen wir uns nur mal so vorstellen, dass die Konzentration in der Tat während der nächsten 18 Monate um 3,6 ppm sinken wird. Versuchen wir mal zu ergründen, wie viel globale Erwärmung uns die Zehner-Billionen, die uns das Chinesen-Virus gekostet hat, eingebracht hätten.

Im März wurde am Mauna Loa eine CO2-Konzentration C0 von 414,5 ppm gemessen. Am Ende der Pandemie wären es dann noch 410,9 ppm. Tun wir einmal so, wie es die Untergangs-Apologeten gerne hätten, dass die Konzentration danach nicht wieder steigt, sondern dass die Pandemie alle nachfolgenden CO2-Konzentrationen um 3,6 ppm reduzieren wird, egal was anderenfalls gewesen wäre. Tun wir weiter so, als würde die Reduktion sofort eintreten und nicht erst in 125 Jahren.

Der Koeffizient k in der CO2-Antriebsgleichung beträgt 5 (abgeleitet von Andrews et al. 2012). Der Planck- oder Null-Rückkopplungs-Sensitivitäts-Parameter P beträgt 0,3 K/Wm². Der system-gain-Faktor G aus Rückkopplungen ist der erheblich übertriebene Wert von 3, wie ihn sich das IPCC vorstellt (er liegt eher bei 1,2 – was bedeutet, dass es keinen Klima-„Notstand“ gibt, aber sind wir gnädig gegenüber dem Kult).

Setzt man in Gleichung (1) diese Zahlen ein, ergibt sich die Reduktion der globalen Erwärmung aufgrund der drastischen Emissions-Minderungen infolge der Pandemie unter der großzügigen Annahme, dass die Reduktion permanent ist:


Wunderbar!! Nur ein 25-stel eines Grades!! Heiliger Strohsack!!

Alle in Gleichung (1) eingegebenen Zahlen einschließlich der Gleichung selbst entsprechen der „Mainstream-Wissenschaft“. Und genau das ist das ganze Problem mit diesem Unsinn um globale Erwärmung. Die Kosten sind genauso hoch wie die Vorteile klein sind. Selbst wenn wir bis zum Jahr 2050 ganz mit CO2-Emissionen aufhören – falls das IPCC recht hat, wird diese geringe Verminderung der globalen Temperatur in 125 Jahren vollendet sein.

Allein schon aus diesem Grund, noch bevor man den eklatanten Fehler der offiziellen Klimatologie bei der Definition der Temperatur-Rückkopplung zulässt – einen Fehler, an dem das IPCC in betrügerischer Absicht in seinem Sechsten Sachstandsbericht festhalten will, obwohl ihm schriftlich mitgeteilt wurde, dass seine Definition falsch ist – macht es wirtschaftlich keinen Sinn, irgendetwas gegen die globale Erwärmung zu unternehmen, außer sie zuzulassen, sich an sie anzupassen und den Sonnenschein zu genießen.

Wer sagt es den Jüngern der Welt?

Die heutigen Graphiken zeigen einen fortgesetzten Rückgang aktueller Infektionen, aber die mittlere tägliche Rate der Gesamt-Zunahme von Todesfällen bleibt hoch. Grund hierfür ist, dass in diesem Stadium der Pandemie die Todesfall-Rate sehr hoch ist. Man denke an die USA.

Es gab bei Redaktionsschluss dieses Beitrags 66.000 registrierte Todesfälle, aber die Centers for Disease Control (CDC) folgerten vor ein paar Tagen, dass diese Zahl um etwa 15% unterschätzt worden sein könnte. Das wären dann etwa 76.000 Todesfälle.

Nimmt man im Mittel 17 Tage an vom Ausbruch der Krankheit bis zum Tod, stiegen die berichteten Fallzahlen bis zum 13. April auf etwa 715.000 Fälle. Die US-Sterberate liegt also grob geschätzt bei 10,5% im Vergleich zu global 7,5% (und mehr wie 24% in UK).

Inzwischen gibt es jedoch 1,131 Millionen Fälle in den USA. Hinsichtlich der gegenwärtigen leichten Verlangsamung sowohl der Infektionen als auch der Todesfall-Zahlen und selbst wenn es keine weiteren Fälle gibt (gegenwärtig gibt es 30.000 neue Fälle pro Tag), kann man bis Mitte Juni und vielleicht noch eher 125.000 Todesfälle in den USA erwarten in Verbindung mit dem chinesischen Virus – Tendenz steigend.

In den Zusammenhang gestellt – die CDC hat geschätzt, dass die Grippe-Saison des letzten Winters zwischen 20.000 und 62.000 Todesopfer gefordert hatte. Schon jetzt haben die Todesfälle infolge des chinesischen Virus‘ die Obergrenze der Schätzung innerhalb nur weniger Wochen überschritten. Unglücklicherweise wird es noch viele weitere Todesfälle geben.

Abbildung 1: Mittlere gesamte Todesrate bei geschätzten aktiven Fällen von COVID-19 für die Welt ohne China (rot) und für viele individuelle Nationen, gemittelt über aufeinander folgende 7-Tage-Perioden für alle Tage von 1. bis zum 30. April 2020.


Abbildung 2: Mittlere gesamte Todesrate bei geschätzten aktiven Fällen von COVID-19 für die Welt ohne China (rot) und für viele individuelle Nationen, gemittelt über aufeinander folgende 7-Tage-Perioden für alle Tage von 8. bis zum 30. April 2020.


Link: https://wattsupwiththat.com/2020/05/02/co2-the-chinese-virus-and-the-profiteers-of-doom/
Übersetzt von Chris Frey EIKE




Wind und Solar fügen dem Netz Null Wert zu

Der Begriff Netz [grid] ist der Terminus der Elektroindustrie für die gesamte Hard- und Software, die zur Umwandlung von Treibstoff in Strom erforderlich ist. Der Strom wird durch Fernleitungen, Transformatoren und Unterstationen zu uns allen geleitet. Das System muss sicher gegen Störungen sein sowie die Sicherheit der Verbraucher und der Gemeinden gewährleisten.

Hierzu ein einfaches Beispiel: Nehmen wir einen lokalen Stromversorger in Smallville in den USA. Die Stadt hat 50.000 Einwohner sowie weitere 25.000 Landwirte auf Bauernhöfen in der Umgebung. Es gibt auch kleine Fabriken, professionelle Büros, Geschäfte, ein Krankenhaus, Bäckereien usw. Jedermann in dem Gebiet braucht zuverlässigen und bezahlbaren Strom. Über die Jahre hat Smallville ein modernes Netz installiert mit einer Zuverlässigkeit von 99,98%. Um diese zuverlässige Verfügbarkeit zu erhalten, muss das Netz der Gemeinde mindestens 75% Überkapazität über der Alltagsnorm aufweisen. 25% dieser Überkapazität müssen im „Reserve-Modus“ [spinning reserve mode] gehalten werden, weitere 25% im „peaking mode“ und nochmals 25% im „Backup-mode“. Jeden dieser drei Anteile dieser notwendigen Reserven wollen wir jetzt betrachten.

Zu „spinning reserve“: Falls es zu irgendeiner Zeit zu einer Störung kommt und ein Kraftwerk seinen Betrieb einstellt, muss ein Reserve-Kraftwerk innerhalb von Sekunden einspringen und den ausfallenden Strom zu 100% übernehmen. Falls das ein paar Sekunden zu spät erfolgt, wird die Stromnachfrage das Netz überfordern mit der Folge eines „Brownout“ oder schlimmer noch, einem „Blackout“. Das ist wie ein Run auf eine Bank, wobei jeder zur gleichen Zeit all sein Geld abheben will. Es ist eine Katastrophe.

Die einzige Möglichkeit sicherzustellen, dass es nicht zu einem solchen Blackout kommt ist, ein fossil betriebenes Backup-Kraftwerk zu haben, welches bereits mit 90% bis 95% seiner Nennkapazität läuft. Dabei wird etwa die gleiche Menge von Treibstoff verbrannt wie ohne jede Anbindung von Solar- oder Windkraftwerken ans Netz, weil Wind und Solar als Backup einfach unbrauchbar sind. Die Backup-Energie muss zu 100% zuverlässig sein. Alle bestehenden Solar- und Windkraftwerke bedürfen des fossil angetriebenen Backups, während der umgekehrte Fall, also Wind und Solar als Backup für fossil betriebene Kraftwerke, wegen ihrer Unzuverlässigkeit völlig unbrauchbar sind. Als Folge davon verschwenden Versorger Kapital, Treibstoff und Betriebskosten mit dem Gedanken im Hinterkopf, dass Wind und Solar einen signifikanten Anteil der benötigten Energie beisteuern können. Das Einzige, was erreicht wird, sind immer weiter steigende Kosten für Gemeinde und Verbraucher.

Spitzenwert-Modus: Dies ist die zusätzliche elektrische Leistung, die zweimal am Tag benötigt wird, normalerweise für jeweils zwei bis drei Stunden. Die erste Spitze tritt von sechs bis neun Uhr morgens auf, um Frühstück zu kochen und sich für den Schulweg und die Arbeit vorzubereiten. Der andere Zeitraum mit hohem Bedarf liegt normalerweise zwischen fünf und sieben Uhr abends. In dieser Zeit wird die zusätzliche Leistung benötigt, um das Abendessen zu kochen, die Klimaanlage oder die Zentralheizung aufzudrehen usw. Solaranlagen können keine dieser beiden Bedarfsspitzen abdecken. Das liegt daran, dass Solaranlagen Strom hauptsächlich gegen Mittag produzieren, wenn er am wenigsten gebraucht wird. Windturbinen könnten einige Stunden morgens oder abends in Betrieb genommen werden. In allen Fällen benötigen sie jedoch immer noch als Backup die spinning reserve fossil betriebener Kraftwerke, die zu 100% der Zeit mit etwa 90% der Nennleistung laufen.

Backup-Reserve: Diese Kraftwerke sind wie ein Reservereifen im Kofferraum eines Autos; sie liegen dort, bis sie gebraucht werden. Aber im Gegensatz zur spinning reserve müssen sie nicht in Sekundenschnelle einsatzbereit sein. Sie laufen also nur, wenn sie gestartet werden, typischerweise für planmäßige Wartungsarbeiten an anderen Anlagen. Je nach Art der Anlage kann es mehrere Stunden oder noch länger dauern, bis sie online sind, und dann laufen sie Tage, Wochen oder ein Jahr lang ununterbrochen. Ein Kraftwerk, das die meiste Zeit einfach nur dasteht und nichts erzeugt, ist zwar sehr teuer, aber eine wertvolle Versicherung gegen Ausfälle.

Schauen wir mal auf die realen Erfahrungen in Deutschland, wo die Regierung die gewagte Entscheidung getroffen hat, alles auf „grün“ zu schalten. Das Land ist jetzt der Erzeuger Nummer 1 von Wind- und Solarstrom weltweit auf Pro-Kopf-Grundlage. Im Jahre 2004 setzte Deutschland einen aggressiven Plan um, viele der Kohle- und Kernkraftwerke des Landes durch Wind und Solar zu ersetzen. Bis zum Jahr 2018 installierte man dort die elektrische Grundlage von etwa 210 GW. Davon machte Windenergie 28% und Solarenergie 26% aus. Den restlichen Anteil von 46% deckten die verbleibenden fossil betriebenen und Kernkraftwerke zusammen mit etwas Wasserkraft. Zumindest ist dies die Nennwert-Kapazität dieser Solar- und Wind-Installationen, wenn sie unter besten Bedingungen laufen. Die tatsächliche Erzeugung ist jedoch um Einiges anders.

Während diese Wind- und Solarkraftwerke theoretisch den Bedarf Deutschlands zu 46% decken könnten, erzeugen sie aber in Wirklichkeit nur etwa 12% des gesamten, in Deutschland erzeugten Stromes. Wer konnte ahnen, dass eines der wohlhabendsten und industrialisierten Nationen der Welt nicht darauf kommt, wie man mit Wind und Solar genug Strom erzeugen kann, um den Bedarf der eigenen Industrie und Bevölkerung zu decken?

Um dieser nationalen Verknappung zu begegnen, hat Deutschland riesige Mengen Strom importiert, hauptsächlich aus Frankreich, und das zu exorbitanten Preisen. Die mittleren Stromkosten in Deutschland liegen derzeit fast dreimal so hoch wie in den USA.

Deutschland setzt jetzt ein umfangreiches Programm um, um Dutzende fossil befeuerter Kraftwerke neu zu errichten. Man hat auch einen Vertrag mit Russland geschlossen, eine Erdgas-Pipeline aus Sibirien zu bauen, um den Bedarf zu decken und als Backup für unzuverlässige Wind- und Solarkraftwerke.

In Schweden kam es zu einer witzigen, aber traurigen Story, die der Leserschaft nicht vorenthalten werden soll. Man hat dort vor einem Jahrzehnt ein umfangreiches Windprogramm in Kraft gesetzt, was sich inzwischen als ein Problem als Folge der schwierigen Umwelt des Landes herausgestellt hat. In den nördlichen Gebieten war Solar kein Thema. Auch bei Wind gab es Probleme. Dieses Photo [welches aus Copyright-Gründen hier nicht gezeigt werden kann, Anm. d. Übers.] zeigt einen schwedischen Hubschrauber, der versucht, eine eingefrorene Windmühle zu enteisen, genau wie auch Flugzeuge mittels entsprechender Fahrzeuge auf Flughäfen enteist werden. Nur dass die Windmühle vier bis fünf mal größer ist als eine Boeing 747 und ein Hubschrauber lediglich 20% bis 30% der Last dessen tragen kann, was ein Lastwagen auf dem Flughafen halten kann. Jetzt stelle man sich einen Windpark mit Hunderten derartiger Turbinen vor. Über dieses Photo können noch Bände geschrieben werden. Aber für Schweden ist das alles andere als lustig.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2020/04/30/wind-and-solar-add-zero-value-to-the-grid/

Übersetzt von Chris Frey EIKE




Noch ein Wissen­schaftler, der kein Wort glaubt von dem, was er selbst sagt

Aus dem Telegraph:

Exklusiv: Der regierungsamtliche Wissenschaftler Neil Ferguson tritt zurück, nachdem er die <i>Lockdown</i>- Regeln gebrochen hatte, um seine verheiratete Geliebte zu treffen.


Abbildung (nur im Original): Neil Ferguson und Antonia Staats

Eben der Wissenschaftler, auf dessen Ratschlag hin Boris Johnson UK einen Lockdown übergestülpt hatte, trat von seinem Amt als Berater der Regierung zurück, nachdem der Telegraph enthüllt hatte, dass er die Vorschriften der sozialen Distanz verletzt hatte, um seine verheiratete Geliebte zu treffen.

Professor Neil Ferguson erlaubte es der Frau, ihn während des Lockdowns zu Hause zu besuchen, während er der Öffentlichkeit die Notwendigkeit strikter sozialer Distanz predigte, um die Ausbreitung des Coronavirus‘ zu bremsen. Die Frau lebt mit Ehemann und ihren Kindern in einem anderen Haus.

Mehr hier im Telegraph.

Man erinnere sich, das ist genau der Knabe mit dem COVID-19-Computermodell, welches ganz allein die globale Wirtschaft zerstörte durch dessen anfängliche Prophezeiung einer gewaltigen Anzahl von Todesfällen. Die Angst davor führte zu dem weltweiten Lockdown und ökonomischer Verheerung.

Ach ja, und seine Konkubine Antonia Staats ist eine von Soros finanzierte Aktivistin der Klimatheater-Organisation in UK, die bekannt ist unter dem Namen Avaaz.

Josh jedenfalls hat eine dezidierte Meinung dazu:

Bildinschrift: Neil Ferguson, berühmter Alarmisten-Pandemie-Modellierer, auf frischer Tat ertappt mit einer Affäre während des Lockdowns. Das ist ein wenig wie Klimawissenschaftler, die Katastrophe und Untergang predigen, während sie zu allen möglichen exotischen Orten auf der ganzen Welt jetten.

Josh steht voll und ganz auf der Realisten-Seite und bittet, falls möglich, hier um eine kleine Gabe.

Link: https://wattsupwiththat.com/2020/05/06/another-scientist-who-doesnt-believe-in-a-word-he-says/
Übersetzt von Chris Frey EIKE