Einsetzendes Grand Solar Minimum

Die Sonnenaktivität ist die treibende Kraft des Erdklimas. Diese Definition des Offensichtlichen wird nur von denjenigen bestritten, die falsch informiert sind, und von denen, die ein finanzielles oder politisches Motiv haben.

Eine hohe Sonnenaktivität – wie wir sie seit etwa 100 Jahren genießen – hat unserem Planeten ein stabiles, berechenbares Klima beschert, unter dem wir modernen Menschen die Möglichkeit hatten, zu gedeihen und unsere technologische Gesellschaft erfolgreich voranzubringen.

Doch wie bei allen guten Dingen gehen auch diese vorhersehbaren Tage zu Ende: Die Leistung der Sonne geht auf ein Niveau zurück, das seit 200 Jahren nicht mehr beobachtet wurde, auf einen Rückgang der Aktivität, wie es sie seit dem Dalton-Minimum (1790-1830) nicht mehr gegeben hat. Und wie bei jeder großen und fortschreitenden Zivilisation der Vergangenheit kommt eine Zeit, in der die Folgen eines Sonnenminimums bekämpft werden müssen. Wir müssen uns auf die wilden Ausschläge zwischen den Extremen vorbereiten, die durch einen zunehmend schwachen und welligen (meridionalen) Strahlstrom verursacht werden, wir müssen uns eines starken vulkanischen Aufschwungs bewusst sein, der in Zeiten geringer Sonnenaktivität zu beobachten ist, sowie der Wolken verursachenden kosmischen Strahlung und, vielleicht am wichtigsten, einer allgemeinen Abkühlung des Planeten.

Ernteerträge sind immer das Erste, was einbricht. Und unsere modernen, zart ausbalancierten, chemisch abhängigen Monokulturen sind auf eine gewaltsame Klimaveränderung einfach nicht vorbereitet – wie Robert Felix schon lange warnt: „Ich fürchte, dass wir auf den Straßen um Nahrung kämpfen werden, lange bevor wir von Eis bedeckt sind“.

Heute kommt die Nachricht, dass Großbritannien soeben die schlechteste Weizenernte der letzten 40 Jahre erlitten hat, was Befürchtungen über höhere Preise für Mehl und in der Folge für Brot und andere Produkte auf Mehlbasis hervorruft.

Die Wachstumsbedingungen dieser Saison waren typisch für die Schwankungen zwischen den Extremwerten, die wir bei einem Grand Solar Minimum erwarten würden. Großbritanniens Landwirte haben sich gerade durch den nassesten Herbst seit dem Jahr 2000 gekämpft, in dem nur 60 % dessen, was gepflanzt werden konnte, tatsächlich in den Boden gelangten, dann kam der nasseste Februar seit Aufzeichnung, gefolgt vom sonnigsten Frühling und trockensten Mai seit Aufzeichnung und dann, zur Sicherheit, der kälteste Juli seit 1988.

„Gott hat meine Ernte gebraten, gefroren, ertränkt und dann wieder ertränkt“, klagte Jeremy Clarkson über die schlechten Wetterbedingungen auf seiner Farm im Westen von Oxfordshire.

Und während die Tagesordnung des Tages die Schuld für diese Schwankungen fest auf den Menschen und seine folgenlosen CO2-Ausstöße schiebt, kann nur ein Dummkopf diese Theorie nach ein klein wenig Nachforschungen aufrechterhalten. Und obwohl ich akzeptiere, dass nicht alle davon überzeugt sind, dass der Zeitraum, auf den wir zusteuern, dem Maunder-Minimum entsprechen wird, sind die Wetterextreme und die allgemeine Abkühlung des Planeten höchstwahrscheinlich mit dem reduzierten Ausstoß der Sonne verbunden.

Der Sommer 2020 war in ganz Europa ein kurzer Sommer.

Wie bereits erwähnt, war der Juli dieses Jahres der kälteste Juli in Großbritannien seit 1988, und während die Wetteruhr Anfang August auf Hitzeausbrüche umschaltete, war diese Wärme nur allzu kurz, und jetzt kommt nach den neuesten Prognosen der Herbst in Westeuropa, noch bevor der August vorüber ist: ein heftiger Knick im Jetstream ist dabei, die Luft arktischen Ursprungs anomal weit nach Süden abzulenken:

Temperatur-Anomalien in 2 m Höhe vom 30 August (nach GFS; tropicaltidbits.com)

Nach Angaben des Met Office kann diese Luftmasse das Potential, seltene Sommerfröste zu liefern. Und während in der zweiten Hälfte der nächsten Woche mit einer Wiedererwärmung (zurück zu den Durchschnittstemperaturen) gerechnet wird, dürfte im weiteren Verlauf des Septembers (der zwar immer noch in dem unzuverlässigen Zeitrahmen liegt, aber es lohnt sich, ihn im Auge zu behalten) eine weitere polare Kältewelle die Führung übernehmen:

Temperatur-Anomalien in 2 m Höhe vom 11. September (nach GFS; tropicaltidbits.com).

Schaut man sich anderswo in der Welt um, dürfte es auch in Nordamerika verbreitet zu Temperaturwerten deutlich unter den Mittelwerten kommen, sogar mit Schneefall auf einigen Bergen:

Temperatur-Anomalien in 2 m Höhe vom 31. August (nach GFS; tropicaltidbits.com).


Es scheint sich ab dem 6. September etwas Historisches abzuzeichnen:

Temperatur-Anomalien in 2 m Höhe vom 6. bis zum 11. September (nach GFS; tropicaltidbits.com)


[Es handelt sich um eine animierte Graphik. Falls die Darstellung derselben hier nicht läuft, bitte im Original schauen. Anm. d. Übers.]

Fallen Sie nicht auf gefälschte, Wärmeangst erzeugende politische Agenden herein.

Die KALTEN ZEITEN kehren zurück, die mittleren Breiten frieren wieder ein; im Einklang mit der historisch niedrigen Sonnenaktivität, Kondensationskerne bildenden kosmischen Strahlen und einem meridionalen Strahlstrom.

Sogar die NASA scheint zuzustmmen, wenn man zwischen den Zeilen liest, dass ihre Prognose für diesen bevorstehenden Sonnenzyklus (25) ihn als „den schwächsten der letzten 200 Jahre“ ansieht, wobei die Agentur hier frühere Sonnenabschaltungen mit längeren Perioden globaler Abkühlung in Beziehung setzt.


Bereiten Sie sich auf die KÄLTE vor – lernen Sie die Fakten kennen, denken Sie um, wenn nötig, und bilden Sie sich eine eigene Meinung.

Social Media-Kanäle schränken die Reichweite von Electroverse ein – Twitter sortiert Follower aus, und Facebook kennzeichnet Beiträge als „falsch“. Melden Sie sich unbedingt an, um Benachrichtigungen über neue Beiträge per E-Mail zu erhalten (das Feld befindet sich in der Seitenleiste >>> oder scrollen Sie nach unten, wenn Sie ein Mobiltelefon benutzen).

Und/oder werden Sie Patron, indem Sie hier klicken: www.patreon.com/join/electroverse, und/oder ziehen Sie in Betracht, „Werbung zu erlauben“ für www.electroverse.net, wenn Sie einen Blocker benutzen.
Die Website erhält eine NULL-Finanzierung und hat noch nie eine erhalten. Helfen Sie uns also auf jede erdenkliche Weise, die Botschaft zu verbreiten, damit andere überleben und in der kommenden Zeit gedeihen können.

[An was erinnert einen das? Anm. d. Übers.]
Grand Solar Minimum + Pole Shift
Link: https://electroverse.net/grand-solar-minimum-incoming/
Übersetzt von Chris Frey EIKE
 




Erneut bestätigt: Klima­modelle über­treiben die atmosphä­rische Erwärmung

Die Beiträge sind Mitchell et al. (2020)The vertical profile of recent tropical temperature trends: Persistent model biases in the context of internal variability“ in Environmental Research Letters, sowie McKitrick und Christy (2020)Pervasive warming bias in CMIP6 tropospheric layers“ in Earth and Space Science. John und ich erfuhren von der Arbeit des Mitchell-Teams erst nach Erscheinen ihres Papiers, und sie wussten ebenfalls nichts von unserer Arbeit.

Mitchell et al. betrachten die Oberfläche, Troposphäre und Stratosphäre über den Tropen (20 N bis 20 S). John und ich sehen uns die tropische und globale untere und mittlere Troposphäre an. In beiden Beiträgen werden große Stichproben von Klimamodellen der neuesten Generation (Coupled Model Intercomparison Project version 6 oder CMIP6) getestet, also diejenigen, die für den nächsten IPCC-Bericht verwendet werden. Die Ergebnisse der Modelle wurden mit Beobachtungen nach 1979 verglichen. John und ich konnten 38 Modelle untersuchen, während Mitchell et al. 48 Modelle betrachteten. Die schiere Zahl lässt einen sich fragen, warum so viele benötigt werden, wenn die Wissenschaft settled ist. Beide Beiträge befassten sich mit „Nachhersagen“, d. h. mit Rekonstruktionen der jüngsten historischen Temperaturen als Reaktion auf beobachtete Treibhausgasemissionen und andere Veränderungen (z.B. Aerosole und Sonneneinstrahlung). Aus beiden Beiträgen geht hervor, dass die Modelle die historische Erwärmung von der oberflächennahen Schicht bis zur oberen Troposphäre, in den Tropen und global weit übertreiben.

Mitchell et al. 2020

Mitchell et al. hatten in einer früheren Studie untersucht, ob das Problem darin besteht, dass die Modelle die Oberflächenerwärmung zu stark verstärken, wenn man in die Höhe steigt, oder ob sie die vertikale Verstärkung richtig einstellen, aber mit einer zu starken Oberflächenerwärmung beginnen. Die kurze Antwort lautet: beides.

In dieser Abbildung sind das Kästchen/die Striche vom Modell vorhergesagte Erwärmungstrends in den Tropen (20 S bis 20 N) (horizontale Achse) mit der Höhe (vertikale Achse). Wo die Trendgrößen die Nulllinie kreuzen, beginnt ungefähr die Stratosphäre. Rot = Modelle, die intern sowohl den Ozean als auch die Atmosphäre simulieren. Blau = Modelle, die die beobachtete Erwärmung der Meeresoberfläche als gegeben annehmen und nur die Trends der Lufttemperatur simulieren. Schwarze Linien: beobachtete Trends. Die blauen Kästen sind im Vergleich zu den Beobachtungen immer noch hoch, insbesondere im Bereich von 100 bis 200hPa (obere mittlere Troposphäre).

Ihre Ergebnisse sind zusammengefasst Folgende:

● Wir finden erhebliche Übertreibungen bzgl. Erwärmung in den von CMIP6 modellierten Trends, und wir zeigen, dass diese Verzerrungen mit Verzerrungen der Oberflächentemperatur verbunden sind (diese Modelle simulieren eine unrealistisch große globale Erwärmung).

● Wir stellen hier für das Protokoll fest, dass die CMIP5-Modelle von 1998 bis 2014 durchschnittlich eine vier- bis fünfmal schnellere Erwärmung zeigen als die Beobachtungen, und in einem Modell ist die Erwärmung sogar zehnmal größer als die Beobachtungen.

● Über die gesamte Troposphäre überschneidet keine einzige Modellrechnung alle Beobachtungsschätzungen. Es gibt jedoch eine gewisse Überschneidung zwischen den RICH-Beobachtungen und dem untersten modellierten Trend, der dem Modell NorCPM1 entspricht.

● Mit Blick auf die CMIP6-Modelle haben wir die ursprünglichen Ergebnisse von Mitchell et al. (2013) bestätigt: erstens, dass die modellierten troposphärischen Trends in der gesamten Troposphäre (und insbesondere in der oberen Troposphäre, etwa 200 hPa) viel zu warm sind, und zweitens, dass diese Verzerrungen mit Verzerrungen der Oberflächenerwärmung in Verbindung gebracht werden können. Daher sehen wir keine Verbesserung zwischen den Modellen CMIP5 und CMIP6″. (Mitchell et al. 2020)

Ein Sonderpreis geht an das kanadische Modell! „Wir lenken die Aufmerksamkeit auf das Modell CanESM5: Es simuliert die größte Erwärmung in der Troposphäre, die etwa 7 Mal stärker ist als die beobachteten Trends“. Die kanadische Regierung stützt sich auf die CanESM-Modelle, „um wissenschaftlich fundierte quantitative Informationen für die Anpassung an den Klimawandel und dessen Eindämmung in Kanada und international zu liefern“. Ich wäre sehr überrascht, wenn die Modellierer von UVic jemals Warnhinweise auf ihren Mitteilungen für politische Entscheidungsträger anbringen würden. Der Aufkleber sollte lauten: „WARNUNG! Dieses Modell sagt eine Erwärmung der Atmosphäre voraus, die etwa 7 Mal größer ist als die beobachteten Trends. Die Verwendung dieses Modells für andere als Belustigungs-Zwecke wird nicht empfohlen“.

Obwohl das obige Diagramm in der Stratosphäre ermutigend aussieht, stellten Mitchell et al. fest, dass die Modelle ebenfalls falsch sind. Sie sagen zu wenig Abkühlung vor 1998 und zu viel danach voraus, und die Effekte heben sich in einem linearen Trend auf. Der vertikale „Fingerabdruck“ von THG in den Modellen ist die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre. Die Modelle sagen eine stetige Abkühlung der Stratosphäre voraus, die sich nach Ende der 1990er Jahre hätte fortsetzen sollen, aber Beobachtungen zeigen keine solche Abkühlung in diesem Jahrhundert. Die Autoren vermuten, dass das Problem darin besteht, dass die Modelle die Auswirkungen des Ozonabbaus nicht korrekt behandeln.

Das obige Diagramm konzentriert sich auf den Zeitraum 1998-2014. Man vergleiche den roten Kasten/die roten Striche mit den schwarzen Linien. Die roten Linien sind die Ergebnisse des Klimamodells nach Einspeisung der gemessenen Treibhausgase und anderer Einflüsse in diesem Zeitraum. Die vorhergesagten Trends stimmen nicht mit dem beobachteten Trendprofil (schwarze Linie) überein – es gibt im Grunde überhaupt keine Überschneidungen. Sie erwärmen sich zu stark in der Troposphäre und kühlen zu stark in der Stratosphäre ab. Wenn Modelle erzwungen vorgeschriebene Meeresoberflächentemperaturen (blau) verwenden, was in Wirklichkeit für den größten Teil der Oberfläche die „richtige“ Antwort auf das Modell darstellt, wird das Problem in der Troposphäre, nicht aber in der Stratosphäre gemildert.

McKitrick and Christy 2020

John Christy und ich hatten zuvor Modelle mit Beobachtungen in der mittleren tropischen Troposphäre verglichen und in allen Modellen Hinweise auf eine zu starke Erwärmung gefunden. Dies ist eine von mehreren Arbeiten, die ich zu den Wärmeverzerrungen in der tropischen Troposphäre durchgeführt habe. Der IPCC zitiert meine Arbeit (und die von anderen) und akzeptiert die Ergebnisse. Unser neues Papier zeigt, dass sich das Problem in den neuesten Modellen nicht vermindert, sondern verschlimmert. Die Verzerrung ist in der unteren und mittleren Troposphäre in den Tropen, aber auch weltweit zu beobachten.

Wir untersuchten die ersten 38 Modelle des CMIP6-Ensembles. Wie Mitchell et al. verwendeten wir von jedem Modell den ersten archivierten Lauf. Hier sind die Koeffizienten des Erwärmungstrends 1979-2014 (vertikale Achse, Grad pro Jahrzehnt) und 95% Fehlerbalken, die Modelle (rot) mit Beobachtungen (blau) vergleichen. LT=untere Troposphäre, MT=mittlere Troposphäre. Jedes Modell überschreitet den beobachteten Trend (horizontal gestrichelte blaue Linie) in jeder Stichprobe:

Die meisten Unterschiede sind bei <5% signifikant, und der Modellmittelwert (dick Rot) gegenüber dem beobachteten Mittelwert ist sehr signifikant, d.h. es handelt sich nicht nur um Rauschen oder Zufälligkeit. Die Modelle als Gruppe erwärmen die gesamte globale Atmosphäre zu stark, selbst über ein Intervall, in dem die Modellierer sowohl Antriebe als auch Temperaturen beobachten können.

Wir verwendeten 1979-2014 (wie auch Mitchell et al. ), weil dies das maximale Intervall ist, für das alle Modelle mit historisch beobachteten Antrieben ausgeführt wurden und alle Beobachtungssysteme verfügbar sind. Unsere Ergebnisse wären die gleichen, wenn wir 1979-2018 verwenden würden, was die Szenarien-Antriebe in den letzten Jahren einschließt. (Mitchell et al. berichten dasselbe).

John und ich stellten fest, dass sich Modelle mit einer höheren Gleichgewichts-Klimasensitivität ECS (>3,4 K) schneller erwärmen (nicht überraschend), aber selbst die Gruppe mit niedrigem ECS (<3,4 K) weist eine zu starke Erwärmung auf. In der niedrigen Gruppe beträgt die mittlere ECS 2,7 K, der kombinierte LT/MT-Modell-Trend der Erwärmung durchschnittlich 0,21 K/Dekade und das beobachtete Gegenstück 0,15K/Dekade. Diese Abbildung (grüner Kreis hinzugefügt; siehe unten) zeigt einen detaillierteren Vergleich:

Die horizontale Achse zeigt den Erwärmungstrend des Modells, und die vertikale Achse zeigt das entsprechende Modell ECS. Die roten Quadrate befinden sich in der hohen ECS-Gruppe und die blauen Kreise in der niedrigen ECS-Gruppe. Gefüllte Formen stammen aus der LT-Schicht und offene Formen aus der MT-Schicht. Die Kreuze zeigen die Mittelwerte der vier Gruppen an, und die Linien verbinden die LT- (durchgezogene) und MT-Schicht (gestrichelt). Die Pfeile weisen auf die mittleren beobachteten MT- (offener Pfeil, 0,09C/Dekade) und LT- (geschlossener Pfeil, 0,15 C/Dekade) Trends hin.

Die Modelle des blauen Clusters (niedriger ECS) zeigen zwar bessere Ergebnisse, weisen aber immer noch Erwärmungsraten auf, die über den Beobachtungen liegen. Wenn wir uns ein drittes Cluster von Modellen mit mittleren globalen troposphärischen Erwärmungsraten vorstellen würden, bei denen sich die Beobachtungen überschneiden, müsste es ungefähr in dem von mir grün umrissenen Gebiet positioniert werden. Die zugehörige ECS würde zwischen 1,0 und 2,0 K liegen.

Schlussbemerkungen

Ich verstehe, dass es unglaublich schwierig ist, das Klima zu modellieren, und niemand macht der wissenschaftlichen Gemeinschaft Vorwürfe, dass sie ein schwer zu lösendes Problem findet. Aber wir alle leben mit den Folgen, dass die Klimamodellierer hartnäckig Generation um Generation von Modellen verwenden, die eine zu starke Erwärmung der Oberfläche und der Troposphäre aufweisen, und dass sie zudem grob übertriebene Zwangs-Anttriebe (z.B. RCP8.5) durchspielen. Bereits 2005 wiesen Karl et al. im ersten Bericht des damals neuen US Climate Change Science Program auf die übertriebene Erwärmung in der tropischen Troposphäre als eine „potenziell schwerwiegende Inkonsistenz“ hin. Doch anstatt sie seither zu beheben, haben die Modellierer sie verschlimmert. Mitchell et al. merken an, dass zusätzlich zu den falschen Erwärmungstrends selbst die Verzerrungen breitere Auswirkungen haben, weil „die Trends der atmosphärischen Zirkulation von den Temperaturgradienten in Breitengraden abhängen“. Mit anderen Worten, wenn die Modelle die tropische Troposphäre falsch darstellen, führt dies zu potenziellen Fehlern in vielen anderen Merkmalen der Modellatmosphäre. Selbst wenn sich das ursprüngliche Problem auf eine übermäßige Erwärmung in der mittleren tropischen Troposphäre beschränken würde, so hat es sich nun zu einer allgegenwärtigen Warmverzerrung in der gesamten globalen Troposphäre ausgeweitet.

Wenn die Diskrepanzen in der Troposphäre gleichmäßig auf die Modelle zwischen übermäßiger Erwärmung und Abkühlung aufgeteilt würden, könnten wir dies als Rauschen und Unsicherheit verbuchen. Aber das ist nicht der Fall: Es ist alles übermäßige Erwärmung. Die CMIP5-Modelle zeigen eine zu starke Erwärmung über der Meeresoberfläche sowie in der tropischen Troposphäre. Jetzt zeigen die CMIP6-Modelle in der gesamten unteren und mittleren Troposphäre der Erde zu starke Erwärmung. Das ist eine Verzerrung, keine Unsicherheit, und bis die Gemeinschaft der Modellierer einen Weg findet, dies zu beheben, sind Wirtschaft und Politik zu Recht davon ausgegangen, dass die künftigen Erwärmungs-Prognosen zu hoch angesetzt sind, möglicherweise je nach Modell um ein Vielfaches.

References:
Karl, T. R., S. J. Hassol, C. D. Miller, and W. L. Murray (2006). Temperature Trends in the Lower Atmosphere: Steps for Understanding and Reconciling Differences. Synthesis and Assessment Product. Climate Change Science Program and the Subcommittee on Global Change Research
McKitrick and Christy (2020) “Pervasive warming bias in CMIP6 tropospheric layers” Earth and Space Science.
Mitchell et al. (2020) “The vertical profile of recent tropical temperature trends: Persistent model biases in the context of internal variability” Environmental Research Letters.
Link: https://judithcurry.com/2020/08/25/new-confirmation-that-climate-models-overstate-atmospheric-warming/
Übersetzt von Chris Frey EIKE




Temperatur des Sonnenplasmas im freien Fall – sollten wir uns Sorgen machen?

Abbildung 1: Temperatur des Sonnenwind-Plasmas

Wie Abbildung 1 zeigt, hat die Temperatur des Sonnenwindes seit Beginn instrumenteller Aufzeichnungen einen neuen Tiefstwert erreicht. Da es die Energie der Sonne ist, die Erde davor zu bewahren, wie der Planet Pluto auszusehen, zeigt die niedrigere Plasma-Temperatur, dass sich die Sonnenoberfläche abkühlt. Die Temperatur auf der Erde dürfte mit Sicherheit diesem Trend folgen.

Abbildung 2: Das Verhältnis von Alpha-Partikeln zu Protonen im Sonnenwind

Genauso hat auch das Verhältnis von Alpha-Partikeln zu Protonen im Vergleich mit fast dem gesamten Aufzeichnungs-Zeitraum mittels Instrumenten einen neuen Tiefpunkt erreicht. Dabei erhebt sich natürlich die Frage, ob es für dieses Verhältnis eine untere Grenze gibt.

Abbildung 3: Druck des Sonnenwind-Flusses

Der Strömungsdruck des Sonnenwindes hat ebenfalls einen neuen Rekordtiefstand erreicht. Es gibt ein paar interessante Dinge über dieses Diagramm. Man beachte, dass die Tiefststände der letzten drei Sonnenzyklen wie durch die blaue Linie angezeigt ausgerichtet sind. Dies impliziert, dass es sich um einen geordneten Prozess handelt. Man beachte auch die geringe Aktivität in den späten 1960er Jahren, die die Kühlperiode der 1970er Jahre einleitete.

Es ist der Strömungsdruck des Sonnenwindes in Verbindung mit dem Magnetfeld der Sonne, der den Fluss der galaktischen kosmischen Strahlung reduzier, welche die Erde erreicht. Aufgrund dieser beiden Parameter können wir in etwa einem Jahr mit einem Anstieg des Neutronenflusses rechnen. Dies wiederum dürfte die Wolkendecke und die Albedo der Erde erhöhen.

Abbildung 4: Der Kp-Index


Der Kp-Index markiert den globalen Aktivitäts-Indikator für Polarlichter auf einer Skala von 0 bis 9. Augenscheinlich in dieser Graphik ist die Änderung des Regiems der Modernen Warmzeit, welche im Jahre 2006 zu Ende gegangen war, und der Neuen Kaltzeit.

Abbildung 5: Der Ap-Index von 1967 bis 2020

Den Daten von Omniweb zufolge hat auch der Ap-Index einen neuen Tiefstwert über seinen Aufzeichnungs-Zeitraum erreicht.

Abbildung 6: Anomalie der 2-Meter-Temperatur für das Jahr 2020

Abbildung 6 stammt von der website des Oxford-Akademikers Karsten Haustein. Sie wird täglich aktualisiert. Sie zeigt, dass die Temperatur auf der Südhemisphäre (blaue Linie) während der letzten paar Wochen um 0,6°C gesunken ist und ihre Talfahrt fortsetzt*. Könnte es ein, dass die neuen Tifstwerte einiger Sonnenparameter eine sofortige Reaktion auslösen? Das Antarktische Plateau ist der Kühlschrank der Erde.

[Die in meinem Kommentar zu diesem EIKE-Beitrag erwähnten zwei Gründe für die extreme Kälte in Australien und Südamerika ist ziemlich sicher auch auf den hier geschilderten Sachverhalt zurückzuführen. Anm. d. Übers.]

David Archibald is the author of The Anticancer Garden in Australia.
Link: https://wattsupwiththat.com/2020/08/23/solar-plasma-temperature-is-plunging-should-we-worry/
Übersetzt von Chris Frey EIKE




Der Betrug des Linear No Threshold Models ist bloßgestellt

[*In Österreich war dieser Pionier Dr. Ignazio Semmelweis, der damit das auf das Kindbettfieber aufmerksam machte). Mehr dazu bei https://de.wikipedia.org/wiki/Ignaz_Semmelweis Anm. d. Übers. – Link ist korrigiert]

Dr. Ed Calabrese sollte sich nicht so außergewöhnlich fühlen, dass er einen Großteil der letzten 40 Jahre seiner Karriere in der Genetik verbracht hat, um seine Kollegen davon zu überzeugen, dass das linear No Threshold Model [auf Deutsch bei Wikipedia] für nukleare Strahlenschäden überhaupt keinen Sinn macht. Indem er nun Jahrzehnte langen Korrespondenz von den zahlreichen Ausschüssen und Gremien erhält, die diesen unseligen Status quo aufrechterhalten haben, kann er fast von Anfang an Betrug nachweisen. Bevor die Einzelheiten des Betrugs erläutert werden, ist das Fazit, dass jahrelange Forschungen an bis zu 70.000 Überlebenden der Atombombenexplosionen in Hiroshima und Nagasaki nebst ihren neugeborenen Kindern ignoriert wurden, zugunsten einer Behandlung nur derjenigen Daten, die durch die Bestrahlung von Fruchtfliegen (Drosophila) und Mäusen gewonnen wurden.

Calabrese ist in der Lage, einen klaren Interessenkonflikt bei einer solchen Entscheidung aufzuzeigen, um die Finanzierung von Tierversuchen statt von Humanstudien aufrechtzuerhalten. Die humangenetische Studie der Atombomben-Unfallkommission der National Academy of Science, über die Neel und Schull 1956 berichteten, zeigte ein Fehlen genetischer Schäden bei Nachkommen von Atombomben-Überlebenden zur Unterstützung eines Schwellenwertmodells. Sie wurde jedoch nicht für die Bewertung durch das Gremium für biologische Auswirkungen der Strahlungsgenetik der National Academy of Science in Betracht gezogen. Die Studie konnte daher keinen Einfluss auf die Entscheidung des Gremiums haben, das linear no threshold dose-response model für die Risikobewertung zu empfehlen, das heute als LNT-Modell bekannt ist.

Zusammenfassungen und Protokolle der Panel-Sitzungen, die jetzt vorliegen, enthielten keine Auswertung der Neel/Schull-Studie – und das trotz ihrer menschlichen Relevanz und leichten Verfügbarkeit. Stattdessen stützten sie sich vollständig auf Laborstudien, bei denen gewöhnliche Fruchtfliegen und Mäuse der Strahlung ausgesetzt worden waren.

Die Korrespondenz unter den Panel-Mitgliedern zeigt nun, dass das Versagen des Genetik-Panels, die jahrelangen Beweise für die Exposition des Menschen sorgfältig zu berücksichtigen, auf zwei Dinge zurückzuführen ist. Erstens waren sie alle der festen Überzeugung, dass ein einziges Strahlungsmolekül beim Menschen Schäden verursachen kann, also keine Schwelle, bei der keine Schäden auftreten würden. Zweitens und noch verabscheuungswürdiger ist die Tatsache, dass ein übermäßiges Maß an Eigeninteresse unter den Podiumsmitgliedern sich mit ihrer primären Forschungsarbeit beschäftigte, die sich mit Tierversuchen befasste, einschließlich der Auswirkungen des verstorbenen Herman J. Muller, der 1946 den Nobelpreis für Medizin für seine Arbeit über Fruchtfliegen erhalten hatte. Später stellte sich heraus, dass diese Arbeit von einem Mitarbeiter mit Mängeln behaftet war. Es gibt Beweise dafür, dass Muller selbst versucht hat, die Veröffentlichung der Neel/Schull-Studie bereits 1956 zu blockieren, als er Neel die folgende Botschaft übermittelte: „Ich kann nicht meine eigene Zustimmung zur Veröffentlichung des Arbeitspapiers als Teil des WHO-Berichts geben, wenn dieser Angriff auf die Glaubwürdigkeit der Extrapolation vom Tier auf den Menschen… mit einbezogen werden soll“.

Sie befürchteten eindeutig, dass humangenetische Studien die Grenzen der Extrapolation vom Tier auf den Menschen, insbesondere mit Fliegen, aufdecken würden. Dies würde Forschungsinvestitionen und akademische Zuschüsse von Tier- auf Humanstudien verlagern. Das Ignorieren der Atombombenstudie von Neel/Schull diente sowohl dem Zweck, das politische Ziel der LNT zu erhalten, als auch der Sicherung einer anhaltenden Dominanz der Anhänger der Muller-Abhängigkeit von Fruchtfliegen und Mäusen.

Wenn der Leser dies so absurd und hinterhältig findet, wie es scheint, können Sie sicher sein, dass sich mit dem Klimawandel beschäftigende Wissenschaftler der gleichen Missachtung von Vernunft und Logik zugunsten absurder Alarmisten-Ansprüche befleißigen. Infolgedessen hat die Welt Geld zum Fenster hinaus geworfen, das dazu beigetragen hätte, den Lebensstandard für die Armen zu erhöhen.

Im Falle des ungenauen LNT-Modells haben diejenigen Patienten unnötig gelitten, die nicht in der Lage waren, eine potenziell hilfreiche Strahlenbehandlung zu erhalten.

Die Bewertung des Krebsrisikos basierte auf der Annahme, dass Krebserreger Mutagene sind, dass strahleninduzierte Mutationen einer linearen Dosisreaktion bis hinunter zu einer einzigen Ionisierung folgen und dass chemische Krebserreger, die ebenfalls über mutagene Prozesse wirken, zum Zweck der Krebsrisikobewertung in der gleichen Weise wie Strahlung bewertet werden sollten. Dies hat sich als katastrophal erwiesen, da die US-EPA dies 1975 zu ihrer Politik machte und eine Vielzahl ungenauer Alarmisten-Positionen bezüglich Chemikalien einführte, die weniger schädlich sind als angegeben.

Die EPA stützte ihre lineare Grundlage für die Bewertung des Krebsrisikos auf Studien an Mäusen und ignorierte dabei die bis dahin 30 Jahre dauernden Studien am Menschen mit Strahlenexpositionen, die bei einer außergewöhnlich hohen Dosisleistung um viele Größenordnungen über dem Grundniveau lagen.

Wir haben es also mit der seltsamen Historie zu tun, wie es dazu kam, dass die Welt die lineare, schwellenwertfreie Krebsrisikobewertung einführte. Diejenigen, die in der Machtposition waren, setzten einen Zweck um, der die Mittelphilosophie rechtfertigte, und würden sogar wissenschaftliches Fehlverhalten begehen, um die Annahme des LNT sicherzustellen. Es ist eine Philosophie, die den universellen gemeinsamen Nenner von Geld, Macht und Einfluss umspannt.

Die Ergebnisse, die nun fast 50 Jahre später vorliegen, widersprechen immer noch einer linearen Dosisreaktion und unterstützen eine Schwellenreaktion. Die Einführung des LNT erfolgte während einer perfekten Panik, erregt durch eine erhöhte gesellschaftlichen Furcht vor einer nuklearen Konfrontation und anhaltendem nuklearen Fallout aus atmosphärischen Tests.

Diese Historie sollte die National Academy of Science der Vereinigten Staaten, die Aufsichtsbehörden weltweit und insbesondere die US-EPA und die Gemeinschaft der Risikobewerter in tiefe Verlegenheit bringen. Diejenigen, deren Gründungsprinzipien so ideologisch bestimmt waren und mit wenig oder gar keiner kritischen Reflexion akzeptiert wurden. Es ist an der Zeit, dass sich dies alles ändert. Das lineare Modell ohne Schwellenwert, das sich mit nuklearer Strahlung befasst, muss in den Mülleimer der Geschichte geworfen werden.

[Hervorhebung vom Übersetzer]

Der vollständige 12-seitige Artikel mit dem Titel „The Muller-Neel Dispute and the Fate of Cancer Risk Assessment“ von Edward J. Calabrese erscheint in Environmental Research.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon

Link: https://www.cfact.org/2020/08/18/the-linear-no-threshold-fraud-unveiled/

Übersetzt von Chris Frey EIKE




Was ist Settled Science?

Wenn ich an „Settled Science“ denke, denke ich nicht an etwas, dass viele Menschen, die viel klüger sind als ich, mit Abschlüssen auf einem Niveau, von dem ich nur träumen kann, mit dem, was zu einem „Konsens“ geworden ist, nicht einverstanden wären. Wenn es eine abgeschlossene Sache ist, warum debattieren sie dann darüber? Aber es gibt viele, die sich über das Ausmaß der vom Menschen verursachten Erwärmung nicht einig sind, aber ihre Stimmen werden unterdrückt. Das bedeutet nicht, dass sie nicht da draußen sind. Ich denke auch, was ist wirklich settled science? Ich habe ein Beispiel: Wasser, das bei 0°C gefriert, ist settled science.

Da gibt es keine Debatte, oder?

Als ich darüber nachdachte, wurde mir klar, wie viele Probleme dies in der heutigen Welt verursacht. Mehr Menschen sterben an Kälte als an Wärme, große Gebiete des Planeten werden für einige Monate im Jahr für Ernten unbrauchbar gemacht. In manchen Gebieten kann man überhaupt nichts ernten, weil die Temperatur fast immer unter dem Gefrierpunkt liegt. Die Geldsummen, die zur Bekämpfung der Verwüstungen durch Winterstürme ausgegeben werden, belasten das wirtschaftliche Wohlergehen des Planeten enorm. Schnee erzeugt Schnee und sorgt für mehr Kälte. Es braucht mehr Energie, um ein Haus oder ein Geschäft zu heizen, als um es zu kühlen. Da dies also settled science ist, warum kämpfen wir nicht dafür, den Gefrierpunkt zu senken? Schließlich würde dies ein viel gastfreundlicheres Klima bedeuten, das für die Menschheit weitaus besser wäre. Wer will Schnee schaufeln, auf vereisten Straßen fahren, seine Windturbinen einfrieren lassen oder Sonnenkollektoren mit Schnee und Eis bedeckt haben? Sicher treibt man Wintersport, aber schauen Sie sich all die Menschen an, die dabei verletzt werden. Zu ihrem eigenen Schutz sollten wir das ändern. Sicherlich würden wir viele Wintersportarten verbieten, aber wie die Bergleute nach dem Verbot von Kohle können wir sie einfach umschulen. Warum drängen wir nicht weltweit darauf, diese settled science zu ändern, damit wir die schreckliche Natur des Einfrierens von Wasser bei 0°C kontrollieren können? Stellen Sie sich vor, der Gefrierpunkt läge bei -10°C. Unzählige Menschen würden ein besseres Leben führen.

Wer wird in dieser Frage an die Spitze kommen? So viele Fragen, aber so wenige Antworten.

Warum also nimmt der Mensch diese Herausforderung nicht an? Weil wir uns ANPASSEN. Auf diese Weise werden Fortschritte erzielt. Wenn also der Planet aus welchem Grund auch immer 1 Grad wärmer ist, ist die Veränderung im Verhältnis zur Innovations- und Anpassungsfähigkeit des Menschen so graduell, dass es praktische Möglichkeiten gibt, damit umzugehen. Aber das Gefrieren des Wassers bei 0 Grad ist ein riesiges Problem, eines, das wir nicht gelöst haben. Ich träume von einer Welt, in der das Wasser bei -10 Grad Jahren gefriert*.

[*Autor Joe Bastardi ist Meteorologe und hat sich diese -10°C wohl nicht ganz willkürlich ausgedacht. Die Kleinst-Tröpfchen in Wolken gefrieren in der freien Atmosphäre tatsächlich erst bei etwa -10°C. Zwischen 0°C und -10°C sind sie weitgehend noch flüssig, was bei entsprechenden Temperaturen am Boden zu Glatteis führt. Anm. d. Übers.]

Lassen Sie mich nicht mit der Schwerkraft anfangen. Stellen Sie sich vor, wir könnten alle fliegen.  Der Traum von AOC [Alexandria Occasio-Cortez, eine US-Senatorin der Demokraten und hyper-alarmistisch ausgelegt] von Fahrzeugen, die kein CO2 in die Luft spucken, würde wahr werden.  Aber da Sie 100x mehr CO2 ausatmen als Sie einatmen, würden mehr Menschen, die fliegen, ein Problem verursachen.

Nun mögen einige sagen, dies sei kein Thema, über das man sich lustig machen dürfe. Wie kann ich es wagen, das Absurde zu benutzen, um zu versuchen, ein Argument vorzubringen.

[Es folgen am Ende Abschnitte mit so vielen Anspielungen auf die US-Boulevard-Szene, dass von der Übersetzung abgesehen wird. Das Ansinnen des Autors wird auch schon bis hier deutlich. Anm. d. Übers.]

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore.

Link: https://www.cfact.org/2020/08/17/a-whimsical-satirical-sarcastic-not-funny-none-of-the-above-or-all-of-the-above-look-at-settled-science/
Übersetzt von Chris Frey EIKE