Die NASA gibt zu, daß der Klimawandel natürlich ist und von der Sonne verursacht wird

www.naturalnews.com/2019-08-30-nasa-admits-climate-change-not-cause

Es war das Jahr 1958, um genau zu sein, als die NASA zum ersten Mal beobachtete, dass Änderungen der Sonnenbahn der Erde und Änderungen der Erdneigung für das verantwortlich sind, was die Klimawissenschaftler heute als „Erwärmung“ (oder „Abkühlung“, je nach ihrer Agenda) bezeichnen. In keiner Weise erwärmt oder kühlt der Mensch den Planeten durch das Fahren von Geländewagen oder das Essen von Rindfleisch, mit anderen Worten.

Im Jahr 2.000 veröffentlichte die NASA auf ihrer Website des Earth Observatory Informationen über die Milankowitsch-Klimatheorie, die zeigen, dass sich der Planet tatsächlich durch äußere Faktoren verändert, die absolut nichts mit menschlichen Aktivitäten zu tun haben. Aber auch diese Informationen sind nach 19 Jahren noch nicht in den Mainstream eingeflossen, weshalb „Klimaschützer“ jetzt behaupten, dass wir wirklich nur noch 18 Monate, oder zwölf Jahre, oder auch 13 Jahre hätten, bevor der Planet an einem Überschuss an Kohlendioxid (CO2) stirbt.

Die Wahrheit entspricht jedoch viel mehr dem, was der serbische Astrophysiker Milutin Milankowitsch, nach dem die Milankowitsch-Klimatheorie benannt ist, darüber vorgeschlagen hat, wie die jahreszeitlichen und breitenmäßigen Schwankungen der Sonnenstrahlung, die die Erde auf unterschiedliche Weise und zu unterschiedlichen Zeiten trifft, den größten Einfluss auf die sich ändernden Klimamuster der Erde haben.

Die folgenden zwei Bilder (von Robert Simmon, NASA GSFC) helfen, dies zu veranschaulichen, wobei das erste Bild die Erde auf einer Umlaufbahn von fast 0 (Exzentrizität*) und das zweite Bild die Erde auf einer Umlaufbahn von 0,07 zeigt. Diese Bahnveränderung wird durch die exzentrische, ovale Form im zweiten Bild dargestellt, die absichtlich übertrieben wurde, um die massive Veränderung des Abstands zwischen Erde und Sonne zu zeigen, je nachdem, ob sie sich im Perihel* oder im Aphel* befindet.

 

 

„Selbst die maximale Exzentrizität der Erdumlaufbahn – 0,07 – wäre bei der Auflösung einer Webseite nicht darstellbar“,

bemerkt die Hal Turner Radio Show.

„Trotzdem ist die Erde bei der aktuellen Exzentrizität von 0,017 im Perihel fünf Millionen Kilometer näher an der Sonne als im Aphel.“

Für weitere verwandte Nachrichten über den Klimawandel und die globale Erwärmung aus einer unabhängigen, nicht etablierten Perspektive, sollten Sie sich unbedingt ClimateScienceNews.com ansehen.

 

Der größte Faktor, der das Erdklima beeinflußt, ist die SONNE.

Was die Schräglage der Erde bzw. die Änderung ihrer axialen Neigung betrifft, so zeigen die beiden folgenden Bilder (Robert Simmon, NASA GSFC), wie stark sich die Erde sowohl um ihre Achse als auch um ihre Rotationsorientierung verschieben kann. Bei den höheren Neigungen werden die Jahreszeiten der Erde viel extremer, während sie bei niedrigeren Neigungen viel milder werden. Ähnlich verhält es sich mit der Erddrehachse, die je nachdem, welche Halbkugel im Perihel auf die Sonne ausgerichtet ist, die jahreszeitlichen Extreme zwischen den beiden Hemisphären stark beeinflussen kann.

Dazu sei erwähnt, daß „Klima“ auf deutsch „Neigung“ bedeutet. Das Wort wurde gewählt, weil die gesamte Tagseite der Erde gleichermaßen von der Sonne bestrahlt wird, die Erwärmung aber ausschließlich vom Eintreff-Winkel, der Neigung der Strahlen in bezug auf die Erdoberfläche, abhängt. Am heißen Äquator ist der Winkel etwa 90%; an den kalten Polen ist er deutlich flacher.

Aus diesen verschiedenen Variablen konnte Milankowitsch ein umfassendes mathematisches Modell entwickeln, das die Oberflächentemperaturen auf der Erde weit in der Zeit zurückrechnen kann, und die Schlussfolgerung ist einfach: Das Klima der Erde hat sich schon immer verändert und befindet sich ohne unser Zutun als Mensch in einem ständigen Wandel.

Als Milankowitsch sein Modell erstmals vorstellte, wurde es fast ein halbes Jahrhundert lang ignoriert. Dann, 1976, bestätigte eine in der Zeitschrift Science veröffentlichte Studie, dass Milankowitschs Theorie in der Tat richtig ist und dass sie verschiedenen Perioden des Klimawandels entspricht, die im Laufe der Geschichte stattgefunden haben.

1982, sechs Jahre nach der Veröffentlichung dieser Studie, nahm der National Research Council der U.S. National Academy of Sciences die Theorie von Milankowitsch als real an und erklärte sie für wahr:

„… orbitale Variationen bleiben der am gründlichsten untersuchte Mechanismus der Klimaveränderung auf Zeitskalen von Zehntausenden von Jahren und sind bei weitem der klarste Fall eines direkten Effekts der wechselnden Sonneneinstrahlung auf die untere Erdatmosphäre.“

Wenn wir das Ganze in einem einfachen Satz zusammenfassen müssten, wäre es so: Der größte Faktor, der das Wetter und die Klimamuster auf der Erde, beeinflusst ist die Sonne, beziehungsweise die Periode der Sonne. Abhängig von der Position der Erde zum Zentralgestirn zu einem bestimmten Zeitpunkt werden die Klimabedingungen dramatisch variieren und sogar drastische Anomalien hervorrufen, die alles, was die Menschen über die Funktionsweise der Erde zu wissen glaubten, herausfordern.

Aber anstatt diese Tatsache zu akzeptieren, bestehen die heutigen Klima-„Wissenschaftler“, zusammen mit linken, und zunehmend auch rechten Politikern, und natürlich den Massenmedien darauf, dass nicht wiederverwendbare Einkaufstüten im Supermarkt und kein Elektrofahrzeug den Planeten so schnell zerstören, dass wir unbedingt globale Klimasteuern als Lösung einführen müssen.

„Die Klimadebatte ist nicht über die Wissenschaft. Es ist ein Versuch, der Bevölkerung politische und wirtschaftliche Kontrollen durch die Elite aufzuzwingen“,

schrieb ein Kommentator bei der Hal Turner Radio Show.

„Und es ist ein anderer Weg, die Bevölkerung gegen sich selbst zu spalten, mit einigen, die an die menschengemachte globale Erwärmung glauben und anderen, die nicht daran glauben, d.h. teilen und erobern.“

Sie können den vollständigen Bericht der Hal Turner Radio Show unter diesem Link lesen.

Der Vollständigkeit halber: Die Gegendarstellung von Correctiv.

*Exzentrizität: von ex-zentern, vom Mittelpunkt abweichend

*Perihel, Aphel: Perihel bezeichnet den sonnennächsten und Aphel (gesprochen Ap’hel) den sonnenfernsten Bahnpunkt.

 

 




Wird die Menschheit jemals eine CO2-Verdoppelung erreichen? Wahrscheinlich nicht

Introduction

Ich habe immer angenommen, dass wir uns auf dem Weg zu einer Verdoppelung der atmosphärischen CO2-Konzentration („2 X CO2“) befinden, wenn nicht sogar zu 3 X CO2 oder 4 X CO2. Schließlich steigen die CO2-Emissionen der Menschheit immer weiter, und selbst wenn diese Zunahme beendet ist, würde dann der atmosphärische CO2-Gehalt nicht noch weiter steigen?

Es stellt sich heraus, dass die Antwort „nein“ lautet.

Die Rate, mit welcher die Natur CO2 aus der Atmosphäre entfernt und was diese Rate steuert, das ist der ganze Unterschied.

Selbst wenn wir genau wüssten, welche zukünftigen CO2-Emissionen die Menschheit freisetzt, wird selten darüber diskutiert oder hinterfragt, wie viel davon Mutter Natur aus der Atmosphäre entfernt. Dies ist die Domäne von Modellen des globalen Kohlenstoff-Kreislaufes, von denen wir kaum einmal etwas hören. Wir hören von der Unwahrscheinlichkeit des RCP8.5-Szenarios (welches sich entwickelt hat von „Business as Usual“ über Worst Case zu unmöglich), wenig dagegen über die Art und Weise, wie jene CO2-Konzentrationen aus den CO2-Emissionsdaten abgeleitet werden können.

Also wollte ich mich dieser Frage annehmen. Welches ist das Best Estimate atmosphärischer CO2-Konzentrationen bis zum Ende dieses Jahrhunderts auf der Grundlage der jüngsten Schätzungen zukünftiger CO2-Emissionen unter Berücksichtigung der Größe des Anteils, welchen die Natur aus der Atmosphäre entfernt?

Da wir immer mehr CO2 freisetzen, steigt auch die Menge des CO2-Entzugs aus der Atmosphäre durch verschiedene biologische und geophysikalische Prozesse. Die Historie der Best Estimates der jährlichen anthropogenen CO2-Emissionen in Kombination mit dem beobachteten CO2-Anstieg am Mauna Loa sagt uns viel darüber, wie schnell die Natur sich an einen gestiegenen CO2-Gehalt anpasst.

Wie wir sehen werden, ist es sehr wahrscheinlich, dass selbst wenn wir weiterhin in großem Umfang CO2 emittieren sich das CO2-Niveau in der Atmosphäre stabilisieren kann.

Die Projektion der EIA einer Zunahme der Energie-basierten CO2-Emissionen um 0,6% pro Jahr nehme ich als Grundlage der Projektion des zukünftigen atmosphärischen CO2-Gehaltes. Ich werde zeigen, wie sich dieses Emissions-Szenario mittels eines einfachen atmosphärischen CO2-Budget-Modells, kalibriert mit den Mauna Loa-Daten auf den Gehalt in der Atmosphäre übertragen lässt. Und wir werden sehen dass die verbleibende Menge von CO2 in der Atmosphäre überraschend gering ist.

Eine Bewertung des CO2-Budget-Modells

Ich habe kürzlich ein einfaches, zeitabhängiges CO2-Budget-Modell der globalen CO2-Konzentration vorgestellt, in welches 1) jährliche anthropogene CO2-Emissionen und 2) die zentrale Annahme (gestützt durch die Mauna Loa-Daten) eingehen, dass die Natur selbst CO2 aus der Atmosphäre entfernt mit einer Rate im direkten Verhältnis dazu, wie hoch der atmosphärische CO2-Gehalt über einem bestimmten natürlichen Niveau liegt, an das sich das System anzupassen versucht.

Wie in meinem früheren Beitrag beschrieben, führte ich auch einen empirischen El Nino/La Nina-Term ein, da El Nino assoziiert ist mit einer höheren CO2-Konzentration und umgekehrt bei La Nina. Dies berücksichtigt die geringen Fluktuationen von Jahr zu Jahr aufgrund der ENSO-Aktivität, hat aber keinen Einfluss auf das langzeitliche Verhalten des Modells.

Das Modell wird initialisiert im Jahre 1750 aufgrund der Schätzungen von Boden et al. (2017) der jährlichen anthropogenenCO2-Emissionen und passt exzellent zu den Mauna Loa-Daten unter der Annahme eines Hintergrund-CO2-Niveaus von 295 ppm und einer natürlichen Rate der Entfernung von 2,33% pro Jahr des atmosphärischen Überschusses jenseits dieser Grundlinie.

Hier folgt das resultierende Fit des Modells zu den Mauna Loa-Daten mit allgemein ausgezeichneten Ergebnissen. (Man glaubt, dass die Reduktion des atmosphärischen CO2-Gehaltes nach dem Pinatubo-Ausbruch einer gesteigerten Photosynthese geschuldet ist infolge einer zunehmenden Diffusion des in Wälder einfallenden Sonnenlichtes wegen der vulkanischen Aerosole):

Abbildung 1: Kalibriertes CO2-Budget-Modell im Vergleich zu den CO2-Messungen am Mauna Loa. Das Modell läuft mit den Schätzungen von Boden et al. (2017) der jährlichen anthropogenen CO2-Emissionen und entfernt den Überschuss des CO2-Gehaltes über einem Grundwert.

Das Modell berücksichtigt sogar den allmählich zunehmenden Trend der offensichtlich jährlichen fraktionalen Entfernung von CO2.

Abbildung 2: Jährlicher Anteil anthropogener Emissionen, der von der Natur offensichtlich aus der Atmosphäre entfernt wird. Rot: Mauna Loa-Messungen, blau: Modellergebnisse.

Modellprojektionen des zukünftigen atmosphärischen CO2-Gehaltes

Ich ließ das Modell mit den folgenden Beiden Annahmen zukünftiger Szenarien laufen:

1) Die EIA-Projektion einer Zunahme der Emissionen um 0,6% pro Jahr bis zum Jahr 2050 und

2) konstante Emissionen nach dem Jahr 2050.

Die resultierende CO2-Konzentration zeigt Abbildung 3 zusammen mit den CO2-Konzentrations-Szenarien RCP2.6, RCP4.5, RCP6.0 und RCP8.5, welche in die CMIP5-Klimamodelle eingehen:

Abbildung 3: CO2-Modellprojektion des atmosphärischen CO2-Gehaltes aufgrund der EIA-Schätzungen der Zunahme von CO2-Emissionen bis zum Jahr 2050, gefolgt von konstanten Emissionen danach.

Interessanterweise kommt das Modell mit diesen ziemlich sinnvollen Annahmen von CO2-Emissionen nicht einmal in die Nähe einer CO2-Verdoppelung in der Luft. Es simuliert eine Gleichgewichts-CO2-Konzentration von 541 ppm im Jahre 2240.

Diskussion

Meiner Erfahrung nach wird der Haupt-Kritikpunkt dieses Modells sein, dass es „zu einfach“ und daher möglicherweise unrichtig ist. Aber ich möchte die Leserschaft auffordern, selbst darüber zu befinden, wie gut das einfache Modell 60 Jahre von CO2-Messungen abbildet (Abbildungen 1 & 2).

Auch möchte ich die falschen Prophezeiungen von vor vielen Jahren in Erinnerung rufen seitens der Modellierer des globalen Kohlenstoff-Kreislaufes, wonach das System Erde mit so viel CO2 in der Luft nicht fertig werden kann und dass der Anteil, der mit der Zeit wieder entfernt wird, abzunehmen beginnt. Wie Abbildung 2 oben zeigt, war das nicht der Fall. Vielleicht, wenn es um Photosynthese geht, erzeugt mehr Leben immer noch mehr Leben, was zu einer allmählich zunehmenden Fähigkeit der Biosphäre führt, überschüssiges CO2 aus der Atmosphäre zu entfernen.

Angesichts der großen Unsicherheiten, wie der globale Kohlenstoff-Kreislauf auf mehr CO2 in der Atmosphäre reagiert, ist es absolut sinnvoll zu hypothetisieren, dass die Rate, mit welcher Ozean und Festland CO2 aus der Atmosphäre entfernen, einfach proportional zur atmosphärischen Konzentration über einer bestimmten Grundlinie ist. Diese einfache Hypothese impliziert nicht notwendigerweise, dass die Prozesse der Kontrolle von CO2-Quellen und -Senken ebenfalls einfach sind, sondern nur, dass die globale Gesamtrate der Entfernung atmosphärischen CO2 in sehr einfacher Form parametrisiert werden kann.

Die Mauna Loa-Daten stützen diese Hypothese eindeutig (Abbildungen 1 & 2). Und das Ergebnis ist, dass auf der Grundlage der jüngsten zukünftigen CO2-Projektionen die zukünftigen Konzentrationen nicht nur deutlich unter dem RCP8.5-Szenario liegen, sondern auch noch unter dem RCP4.5-Szenario, wobei die atmosphärische CO2-Konzentration nicht einmal eine Verdoppelung (560 ppm) des vorindustriellen Niveaus (280 ppm) erreichen wird. Dieses Ergebnis zeigt sich sogar ohne zukünftige Reduktionen von CO2-Emssionen, was möglich ist, wenn neue Technologien verfügbar werden.

Ich denke, dass dies einer Diskussion genauso würdig ist wie die Unmöglichkeit des RCP8.5-Szenarios. Und es erhebt sich die Frage, wie gut die Kohlenstoff-Kreislauf-Modelle wirklich sind.

Link: https://wattsupwiththat.com/2020/02/02/will-humanity-ever-reach-2xco2-possibly-not/

Übersetzt von Chris Frey EIKE




The Solution To Dissolution

Sie beginnt so:

Der steigende Säuregehalt des Pazifiks führt dazu, dass sich die Schalen des Pazifischen Taschenkrebses [Dungeness crab] auflösen.

Die Versauerung macht die Schalen der Larven dieser Krebse verwundbarer gegenüber Raubtieren und limitiert die Effektivität zum Wachstum der Muskeln.

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Sieht aus, als wäre das Ende der Zeiten gekommen, oder? Also möchte ich gleich zu Beginn ein simples Faktum nennen: Der Ozean ist NICHT sauer! Und das wird er auch nie werden, außer vielleicht an ein paar isolierten Stellen. Er ist alkalisch. Das Niveau von sauer/alkalisch wird mit der pH-Skala ausgedrückt. Auf dieser ist 7.0 neutral, 7 bis 14 alkalisch und 0 bis 7 sauer. [Siehe Abbildung 1 ganz oben! Hier noch einmal, weil sie oben nicht vollständig gezeigt wird:]

Aus der Graphik geht ein pH-Wert um 8 der Ozeane hervor (allerdings, wie wir sehen werden, verdeckt das erhebliche Variationen).

Und dem zufolge, was ich in der High School in Chemie über chemische Analyseverfahren gelernt habe weiß ich, dass wenn man einer basischen Lösung etwas Säure hinzufügt – oder auch umgekehrt – das aus einem einfachen Grund „Neutralisierung“ genannt wird, bewegt sich doch die Lösung in Richtung neutral.

Wenn sich Kohlendioxid im Regen- oder Ozeanwasser löst, entsteht eine schwache Säure. Fügt man diese schwache Säure dem Ozean hinzu, wird dieser leicht etwas neutralisiert. Um wie viel? Nun, falls man den Modellen Glauben schenken will, bewegt sich der pH-Wert der Ozeane bis zum Jahr 2100 von derzeit 8 auf etwa 7,92. Mit anderen Worten, eine schwache Neutralisierung.

Warum aber ist dann andauernd von „Ozean-Versauerung“ die Rede und nicht von „Ozean-Neutralisierung“? Traurige Antwort: weil „Versauerung“ viel beängstigender klingt. Das kann man in obigen Ausführungen erkennen, wo es heißt:

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nun, nein! Das kann falscher nicht sein. Der Ozean ist nicht im Geringsten sauer. Er ist lediglich etwas weniger alkalisch. Die Verwendung des Terminus‘ „Versauerung“ anstatt „Neutralisierung“ soll uns davon überzeugen, dass das Unmögliche passiert. Man stelle sich einmal vor, die Aussage oben würde lauten

Der Pazifische Ozean wird so neutralisiert, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nanu? Der Pazifische Ozean wird so neutral, dass sich Dinge aufzulösen beginnen? Wie bitte?

Der Alarmismus dreht durch.

Und noch etwas ist wichtig hinsichtlich des pH-Wertes. Lebewesen kommen mit sauren Substanzen wesentlich besser zurecht als es bei uns mit alkalischen Substanzen der Fall ist. Man betrachte noch einmal Abbildung 1 oben. Wir konsumieren regelmäßig ziemlich saure Sachen. Weintrauben und Orangensaft hat einen pH-Wert von etwa 3. Zitronensaft hat einen pH-Wert von zwei, sehr sauer, fünf pH-Einheiten unter neutral. Und bei sechs Einheiten unter neutral mit einem pH-Wert von nur eins – ist unsere eigene Magensäure.

Aber wir essen nicht viel, das alkalischer ist als ein pH-Wert von etwa 10, wie Kohl, Brokkoli und Artischocken. Und während unsere Mägen einen pH-Wert von 1 mühelos tolerieren, werden wir übel verätzt durch Bleiche am entgegen gesetzten Ende der pH-Skala.

Und jetzt zum erforderlichen Vorbehalt (Disclaimer). Für dieses Thema habe ich ein persönliches Interesse und eine persönliche Leidenschaft. Ich lebe an der Westküste der USA in genau dem Gebiet, um das es hier geht, und ich habe in diesen Gewässern seit Jahren kommerziell geangelt. Daher weiß ich Einiges über lokale ozeanische Ökosysteme.

Damit als Prolog nun zurück zu der Panikmache im Guardian-Artikel. Dieser basiert auf einer wissenschaftlichen Studie mit dem Titel [von Google übersetzt] „Exoskelett-Auflösung mit Mechanorezeptor-Schäden bei der Larve der Dungeness-Krabbe im Zusammenhang mit dem Schweregrad der heutigen vertikalen Gradienten der Ozeanversauerung“ [Link zum Original hier] … die „Ozean-Versauerung“ (OA) schlägt wieder zu. Auszug aus dem Abstract:

Die Ozean-Versauerung (OA) entlang der US-Ostküste intensiviert sich schneller als im globalen Ozean beobachtet. Dies gilt vor allem in küstennahen Regionen (<200 m), die eine geringere Puffer-Kapazität aufweisen und gleichzeitig wichtige Lebensräume für ökologisch und wirtschaftlich bedeutende Arten bieten.

Nun kann ich nirgendwo in der Studie irgendeine Referenz für den Gedanken entdecken, dass die US-Westküste irgendwie schneller versauert als der globale Ozean. Tatsächlich haben wir kaum pH-Daten aus dem globalen Ozean.

Aber ein paar Daten haben wir doch. Eine höchst informative Graphik zeigt einen Ausschnitt des Ozeans von der Oberfläche bis zum Grund und von Hawaii bis nach Alaska. Im Verlauf von 15 Jahren sind Wissenschaftler immer wieder diese Route entlang gefahren, wobei sie periodisch den pH-Wert von der Oberfläche bis zum Grund maßen. Dazu habe ich in meinem Beitrag mit dem Titel „The Electric Oceanic Acid Test“ schon etwas geschrieben. Hier folgt dieser Ozean-Querschnitt mit dessen Original-Bildinschrift:

Abbildung 2. Der Einschub links unten zeigt das Untersuchungsgebiet. Quelle

Nun gibt es hinsichtlich dieser Graphik mehrere faszinierende Phänomene. Das erste ist die große Bandbreite der pH-Werte im Ozean. Wir neigen zu der Annahme, dass der pH-Wert überall in etwa gleich ist, aber nichts könnte weiter von der Wahrheit entfernt sein. Um Hawaii (in der Graphik oben links) beträgt der pH-Wert 8,5. Aber ein paar hundert Meter unter der Oberfläche vor der Küste Alaskas (oben rechts) beträgt dieser Wert 7,25. Dieser pH ist das, was hysterische Wissenschaftler und der Guardian als „SEHR VIEL SAURER“ bezeichnen, aber die richtige Beschreibung wäre „neutraler“.

Und weiter – wo befinden sich die meisten Lebewesen in dieser Graphik? Nun, genau vor der Küste Alaskas, in meinen alten Fischgründen, die angefüllt sind mit Plankton, Heringen, Lachsen, Flundern, Walen und allen Arten maritimer Lebensformen überhaupt. Sie alle florieren in jenen „SEHR VIEL SAUREREN“, d.h. „neutraleren“ Ozeanwassern.

Und schließlich gedeiht Meeresleben unter allen pH-Werten in der Graphik. Es gibt Fische und andere Meereslebewesen bei jedem pH-Niveau und in jedem von der Graphik abgedeckten Gebiet, von oben bis unten und von Hawaii bis nach Alaska. Sie sind nicht gefesselt an einen schmalen Bereich, wo sie sterben werden, wenn sich der pH-Wert auch nur um eine Zehnteleinheit im Verlauf von einhundert Jahren ändert.

Also bitte – können wir uns jetzt nicht einmal von diesem Gedanken verabschieden, wonach eine geringe, allmähliche Neutralisierung jede arme Kreatur im Ozean töten würde? Alkalinität ist ein Problem für Lebewesen im Meer, nicht Versauerung. Darum sind so viele dieser Lebewesen überzogen von einer Schleimschicht – um sich nämlich vor dem alkalischen Seewasser zu schützen.

Aber weiter. Ich habe schon zuvor etwas über pH-Messungen geschrieben, und zwar am Einsaugloch des Rohres zum Monterey Bay Aquarium in einem Beitrag mit dem Titel „A Neutral View of Oceanic pH“. In jenem Beitrag wurde offensichtlich, dass der langfristige pH-Trend an jener Stelle geringer war als an der Tiefwasserstelle vor Hawaii. Hier die Graphik aus jenem Beitrag, welche die Differenz zeigt:

Abbildung 3: Oberfächen-pH-Messungen im offenen Ozean (HOT) und an der Küste der Monterey Bay. Die Hawaii-Daten zeigen sowohl gemessene pH-Werte (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöst in anorganischem Kohlenstoff (DIC), totaler Alkalinität und Salinität. Man erkennt die höheren pH-Werte um Hawaii, die schon in der vorigen Abbildung hervortraten.

Traurigerweise ist die Website mit dem pH-Datensatz aus der Monterey Bay zu irgendeiner unbekannten japanischen Website geworden. Glücklicherweise habe ich die Daten aber gespeichert. Und ich vermochte sogar weitere pH-Daten aufzufinden in eine Zeitreihe direkt nach dem Ende meiner alten Daten. Allerdings scheint die Kalibrierung der pH-Messfühler in dem neuen Datensatz etwas verändert. Ich habe beide Datensätze in einer Graphik erfasst mit separaten linearen Trendverläufen in beiden Datensätzen:

Abbildung 4: 25 Jahre monatlicher mittlerer pH-Messungen an der Einsaugpumpe, wo 9,5 Millionen Liter Meerwasser pro Tag in das Monterey Bay Aquarium strömen. Zwei separate Datensätze wurden betrachtet. Der Einsaugstutzen befindet sich 15 Meter unter der Wasseroberfläche. Die Größenordnung des projizierten pH-Rückgangs bis zum Jahr 2100 unter dem RCP6.0-Szenario ist dargestellt durch die senkrechten Striche in weiß oben rechts.

Der neutrale pH-Wert von 7,0 findet sich unten, unter den Daten. Man beachte, dass der langzeitliche Trend des mittleren pH-Wertes des Wassers in beiden Datensätzen in etwa gleich ist und dass der Trend ziemlich gering ist im Vergleich zu der projizierten leichten Neutralisierung bis zum Jahr 2100.

Und noch wesentlicher: jene projizierte pH-Abnahme von 0,08 pH-Einheiten bis zum Jahr 2100 wird marginalisiert durch den Tagesgang der pH-Werte. Die Standardabweichung der täglichen pH-Änderung beträgt 0,6 Einheiten, diejenige der monatlichen Änderung 0,1 Einheiten.

Warum ändert sich der pH-Wert an der US-Westküste so rasch? Das hat alles zu tun mit aufwallendem Wasser vor der Küste. Wechselnde Winde entlang der Küste sorgen dafür, dass kaltes, CO2-reiches und neutraleres Tiefenwasser in unterschiedlicher Menge an die Oberfläche gelangt, was den pH-Wert buchstäblich sich über Nacht ändern lässt.

Abbildung 5: Die mechanische Auswirkung der Nordwinde entlang der US-Westküste sorgt für aufwallendes Tiefenwasser, reich an CO2-Gehalt und neutraler. Quelle: NOAA

Und dieser sich fortwährend ändernde pH-Wert ist es, der diese Behauptungen über ozeanische Lebewesen, die so furchtbar unter trivial geringen Änderungen des pH-Wertes leiden, total unglaubwürdig erscheinen lässt. Jedes Lebewesen im Ozean entlang dieser Küste erlebt Tag für Tag viel stärkere pH-Änderungen als sie im Verlauf des Jahrhunderts erleben werden.

Es gibt noch einen weiteren Datensatz, den ich hierzu noch hinzufügen muss, bevor ich auf die Studie selbst eingehe. Die Studie selbst befasst sich mit einem Gebiet nahe Seattle. Wie also verhält sich der ozeanische pH-Wert ebendort?

Es stellt sich heraus, dass es sehr schwierig ist, langzeitliche pH-Messungen aus jenem Gebiet zu finden. Die besten, die ich finden konnte, war eine unterbrochene Reihe von Messungen einer Boje vor der Küste von Washington State nahe einer Meerenge – ein wunderschönes Fleckchen unseres Planeten, das ich vor einiger Zeit besucht hatte. Die La Push buoy befindet sich hier:

Abbildung 6: Das gelbe Quadrat kennzeichnet die Stelle der „La Push-Boje. Die Meerenge ist der blaue, landeinwärts gerichtete Kanal. Die Städte Seattle und Tacoma befinden sich am inneren Ende der Meerenge. Vancouver Island in Kanada liegt nördlich derselben.

Es sieht so aus, dass die Boje geborgen wird, wenn das Wetter sehr rauh ist, weil weil es in jedem Winter eine Datenlücke gibt. Hier sind die Daten dieser Boje dargestellt, und zwar mit der gleichen Skala wie die Monterey-Daten oben:

Abbildung 7: Tägliche Aufzeichnungen von der Wasseroberfläche der La Push-Boje vor der Küste von Washington State. Im Hintergrund sieht man eine Insel nahe der Boje.

Und wieder erkennt man die gleiche Situation. Die pH-Änderungen sind viel größer als die projizierte Änderung von heute bis zum Jahr 2100. Und während ich die Trendlinie wegen der vielen Datenlücken nicht überbewerten möchte, ist es gut möglich, dass der Trend tatsächlich etwas alkalischer wird.

Wie kann das sein? Man erinnere sich, die pH-Schwingungen entlang dieser Küste und der mittlere pH-Wert selbst sind keine direkten Funktionen des CO2-Niveaus. Stattdessen werden sie gesteuert durch die unbeständige und mittlere Windstärke. Ist es windiger, wallt mehr neutraleres Tiefenwasser auf und erniedrigen den Oberflächen-pH – und umgekehrt.

Und falls jemand denkt, dass derartige pH-Schwingungen auf diese Küste beschränkt sind, der betrachte einige Daten aus der ganzen Welt:

Abbildung 8: pH-Werte nebst deren Variationen in verschiedenen ozeanische Ökosystemen. Horizontale Strecken (schwarz) zeigen die Bandbreite der pH-Werte. Das Ausmaß der erwarteten leichten Neutralisierung bis zum Jahr 2100 nach dem RCP6.0-Szenario repräsentieren die roten Strecken oben. Die Ischia South Zone, wo die niedrigsten pH-Werte auftreten, liegt neben einem Vulkan, in dessen Umfeld ständig CO2 aus dem Ozeanboden ausgast. Datenquelle

Schließen möchte ich mit einem Blick auf die Studie selbst, zumindest solange ich es ertragen kann. Ich möchte einige Zitate hervorheben. In der ersten Zeile ihrer „Höhepunkte“ liest man:

Küstennahe Habitate mit den steilsten vertikalen Gradienten der Ozean-Versauerung sind dem Zustand der Krebslarven absolut abträglich.

Nun gibt es so etwas wie einen „vertikalen Gradienten der Ozean-Versauerung“ nicht. Es gibt einen vertikalen pH-Gradienten, wie man es auch erwarten kann mit dem Aufwallen von CO2-reichem Tiefenwasser, welches das alkalischere Oberflächenwasser mit weniger CO2 erreicht. Aber dies ist ein natürlicher Umstand, wie er schon immer vorhanden war und nichts mit Ozean-Versauerung OA zu tun hat. Und es werden auch keinerlei Beweise geliefert, welche zeigen, dass sich der Gradient in Zukunft markant ändern wird.

In ihren Conclusions schreiben sie:

Wie die Auflösung bei Pteropoden ist das bei der Dungeness-Krabbe beobachtete Larvensterben ein klarer Beweis dafür, dass wirbellose Meerestiere in ihrer natürlichen Umgebung durch eine längere Exposition gegenüber starken, heutigen OA-bezogenen vertikalen Gradienten geschädigt werden.

[Ausnahmsweise übersetzt mit Linguee-Translator. Anm. d. Übers.]

Allerdings bringen sie auch hier keine Beweise dafür, dass eine „OA“ oder eine milde ozeanische Neutralisierung in der Vergangenheit irgendwelche Auswirkungen auf die „vertikalen Gradienten in der natürlichen Umgebung“ hatten. Die vertikalen pH-Gradienten vor der Küste sind eine Funktion des Aufwallens, was wiederum eine Funktion des Windes ist, der sich permanent ändert. Sie haben keine langzeitlichen Daten für den vertikalen pH-Gradienten. Stattdessen begaben sie sich auf eine zweimonatige Reise, nahmen einige Wasserproben und extrapolierten bis zum Anschlag. Wir wissen nicht einmal, ob sie die genau gleiche „Auflösung“ [dissolution] vor 100, 50 oder 25 Jahren gefunden haben. Oder vielleicht war die Auflösung besonders schlecht während dieses speziellen Zeitraumes von zwei Monaten in diesem speziellen kleinen Gebiet. Das sollte uns nicht überraschen. Ein Grund, warum so viele maritime Lebewesen Hunderttausende Larven hervorbringen ist, dass viele, vielleicht die meisten davon, in feindliche Umgebungen treiben und aus irgendwelchen Gründen sterben – die Liste dieser Gründe ist lang: Probleme mit dem Salzgehalt, Trübung, pH-Wert, Raubtiere, Wassertemperatur und andere.

Und schließlich belegt diese Studie eines – dass nämlich Neptun, der einen Dreizack schwingende Meergott, definitiv einen Sinn für Humor hat. Die ultimative Ironie ist Folgende:

Sie konnten die Teile der Krebslarve gar nicht sehen, welche sie untersuchen wollten, weil jene Teile der Larven von einer Schale umgeben sind. Also mussten sie zunächst diese Schale auflösen, um Zugang zu ihrem Studienobjekt zu erlangen. Sie beschreiben dieses Problem und dessen Lösung so:

Die Schuppen der Schale, welche normalerweise über der kristallinen Schicht liegen und Beobachtungen der Auflösung unmöglich machen, wurden vor der Analyse von jeder Larve entfernt, und zwar mittels Chlorbleichlauge [sodium hypochlorite], welches die Schalen effektiv beseitige, nicht aber die kristallinen Schichten darunter, auch nicht bei hohen Konzentrationen.

Dreimal darf geraten werden, welche Auswirkung die 6%-Lösung der Chlorbleichlauge auf den pH-Wert hat, die sie angewendet haben.

Es hat einen pH-Wert von 11 oder mehr und liegt damit fast ganz oben der Skala in Abbildung 1, ist also sehr stark alkalisch.

Kein Wunder also, dass Neptun in Gelächter ausbricht – sie sind in höchster Alarmbereitschaft hinsichtlich „Versauerung“ und Auswirkungen derselben auf die Auflösung der Larvenschalen … aber sie gebrauchen eine alkalische Lösung, um die Larvenschalen tatsächlich aufzulösen.

Ist Wissenschaft nicht etwas Wunderbares?

Link: https://wattsupwiththat.com/2020/01/31/the-solution-to-dissolution/

Übersetzt von Chris Frey EIKE




Wissenschaftler geteilter Meinung bzgl. der Auswirkungen des solaren Minimums auf die Temperatur

Die Kältewellen – verursacht durch das Eintreten der Sonne in einen natürlichen „Ruhezustand“ – drohen Nahrungsmittel verknappen zu lassen, wenn die Temperaturen weltweit sinken, sagen Experten.

Die Erde steht vor einem solaren Minimum: also vor einer ruhigen Phase, in welcher die Sonne weniger Energie – oder Wärme – auf unseren Planeten abstrahlt als normal. Der NASA zufolge wird die Sonne im Jahre 2020 ihre geringste Aktivität seit 200 Jahren aufweisen.

Dies könnte zu einem Rückgang der mittleren Temperatur um bis zu 1°C führen während einer 12 Monate anhaltenden Kältewelle. Das sagt die Expertin Valentina Zharkova von der Northumbria University. Das mag nach nicht viel klingen, aber ein ganzes Grad ist sehr signifikant hinsichtlich der mittleren globalen Temperatur.

„Die Sonne nähert sich einer Periode des Ruhezustands“, sagte Prof. Zharkova, die schon viele Studien zu solaren Minima veröffentlicht hat. „Weniger Sonnenflecken bilden sich auf der Sonnenoberfläche, und weniger Energie und Strahlung wird Richtung Planeten und die Erde emittiert“.

Solare Minima sind Teil des natürlichen Lebenszyklus‘ der Sonne und kommen alle 11 Jahre vor. Allerdings verspricht das Minimum 2020 ein besonders tiefes zu werden, markiert es doch den Beginn eines seltenen Ereignisses, das bekannt ist unter der Bezeichnung Grand Solar Minimum. Dabei wird noch weniger Energie zur Erde emittiert als sonst. Dazu kommt es nur etwa alle 400 Jahre oder so. Die meisten Auswirkungen werden harmlos sein.

Allerdings, so warnt Prof. Zharkova, könnten Kältewellen und nasse Sommer andauern, bis die Sonnenaktivität ab dem Jahr 2053 allgemein wieder zunimmt. Sie verwies auf jüngste Kältewellen in Kanada und Island als Beleg, dass das GSM bereits erste Auswirkungen zeigt.

„Der Temperaturrückgang wird zu kaltem Wetter auf der Erde führen – nasse und kühle Sommer, kalte und nasse Winter. Wir werden vermutlich Frostperioden des Ausmaßes wie derzeit schon in Kanada erleben, wo die Temperatur bereits jetzt wiederholt bis -50°C gesunken ist. Aber das ist nur der Beginn eines GSM, und während der nächsten 33 Jahre kommt da noch mehr“.

Das letzte GSM mit Auswirkungen auf die Erde war das Maunder-Minimum von 1645 bis 1715. Während dieser Periode sank die Helligkeit der Sonne, und die Temperaturen sanken auf der ganzen Erde, wie die NASA schreibt.

Die NASA-Beobachtungen der Sonnenaktivität zeigen, dass sich unser Planet bis zum Jahr 2025 in den Fängen ähnlicher Kältewellen befinden könnte. Prof. Zharkova: „Wir können nur hoffen, dass die Mini-Eiszeit nicht so schlimm wird wie während des Maunder-Minimums. Dies würde nämlich die Ernteerträge in den Mittleren Breiten dramatisch verringern, weil Gemüse und Obst nicht genug Zeit bleiben könnte, um richtig zu reifen.

Damit kann es zu einem Nahrungsmittel-Defizit für Menschen und Tiere kommen, so wie es während der vergangenen Jahre schon der Fall war, als Schnee in Spanien und Griechenland im April und Mai die Gemüsefelder heimsuchte und es in UK zu einer Verknappung von Gemüse und Obst gekommen war“. Soweit Prof. Zharkova.

Abbildung: Es wird erwartet, dass immer weniger [oder gar keine] Sonnenflecken auf der Oberfläche unseres Sterns erscheinen. Bild: SDO/HMI www.spaceweather.com

Glücklicherweise ist aber nicht alles doom and gloom. Andere Experten glauben, dass GSMs sich kaum auf unser Klima auswirken. Kältewellen wie während des Maunder-Minimums wurden wahrscheinlich durch verschiedene Faktoren ausgelöst, darunter Aschewolken einer Reihe von gewaltigen Vulkanausbrüchen.

„Wir erwarten außerdem, dass die globale Erwärmung die Temperaturen während der kommenden Jahrzehnte steigen lässt. Es ist daher unwahrscheinlich, dass das bevorstehende GSM irgendwelche Auswirkungen auf die globalen Temperaturen hat“, sagt Prof. Owens von der Reading University. „Folglich wird es möglicherweise keine wahrnehmbare Auswirkung auf das globale Klima geben“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/scientists-divided-over-impact-of-solar-minimum-on-global-temperatures/

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers: Der letzte Satz ist recht erhellend. Da CO2 nachgewiesenermaßen überhaupt keinen Einfluss auf das Wetter (Klima) hat oder sogar abkühlend wirkt, kann man die Gegenmeinung also getrost in die Tonne treten. Und was bleibt dann übrig?




Erwärmung = Vergangen­heit kälter machen als sie war

Die re-modellierten Reihen werden dann der Universität und den CSIRO-Klimawissenschaftlern zugeleitet, welche den größten Teil ihrer Klimaforschung auf die Grundlage dieser Statistiken aus ,zweiter Hand‘ stellen.

Wenn also Michael Mann und Konsorten verkünden, dass es immer wärmer wird, dann ist das deren Interpretation der Statistiken von Blair Trewin und nicht eine Interpretation der tatsächlichen Daten. Und wenn ich sage, dass mehr Sorgfalt darauf verwendet werden muss zu betrachten, was Blair mit den tatsächlichen Messungen macht, dann stelle ich einfach eine entsprechende Forderung auf.

Andrew Bolt erklärt in einem Beitrag mit dem Titel „On the deceit of Paul Barry“ [etwa: Über den Betrug von Paul Barry]:

Marohasy sagt nicht, dass das Bureau „Teil einer riesigen Verschwörung“ ist. Vielmehr sagt sie etwas Unbestreitbares: Das Bureau hat wiederholt Daten adjustiert dergestalt, dass die Vergangenheit kälter ausschaut und folglich die nachfolgende Erwärmung stärker.

Der einzige Streitpunkt ist, ob das Bureau dies korrekt getan hat, um die Daten genauer zu machen. Es sagt jawohl, aber Marohasy sagt: keineswegs.

Welche Beweise präsentiert Barry, dass sie unrecht hat? Überhaupt keine. Kein Interesse. Alles, was er hat, ist Spott und ein Appell an seinen Mob.

Danke, Andrew, dass die Lage so kurz und prägnant erklärt wird. Tatsächlich wird keine einzige Adjustierung von Blair in dem Bureau geleugnet.

Um erklären zu helfen, was Blair tatsächlich getan hat, erstellte mein Kollege Jaco Vlok eine Tabelle mit einem Drop-Down-Menü für jede der 112 Wetterstationen, deren Daten re-modelliert worden waren.

Die Adjustierung wird hier offengelegt und erklärt:

Man probiere es einmal aus.

Beispiel: Falls man den Link anklickt und hinunter rollt (112 Stationen sind alphabetisch gelistet) bis nach Wagga und dann zur Spalte Tmax geht, findet man eine Graphik, welche die Rohdaten und daneben die Rekonstruktionen von Blair Trewin zeigt für die betreffende Wetterstation, welche herangezogen wird, um nationale Mittelwerte und die globale Erwärmung zu berechnen.

Eine der Graphiken aus der Drop-Down-Tabelle, erstellt von meinem Freund und Kollegen Jaco Vlok.

Zunächst erzeugte Blair ACORN V1, und zwar schon im Jahre 2011.

ACORN V2 sind die erneut überarbeiteten Daten, um die Rate der Erwärmung weiter zu steigern.

Und jetzt schaue jedermann selbst. Es ist keine Verschwörung und auch keine Trickserei. Aber es kann dauern, bis man es versteht, vor allem dann, wenn es nicht das ist, was man von Angestellten des Bureau erwartet hinsichtlich ihrer Arbeit bzgl. historischer Temperaturdaten.

Link: https://wattsupwiththat.com/2020/02/06/cooling-the-past-made-easy-for-paul-barry/

Übersetzt von Chris Frey EIKE