Trinkstationen gegen den Klimawandel

Gäbe es nicht die Informationsseite zu Klima und Energie [3] und einen EIKE-Unterstützungsautor, der es sich zur Klimakasteiung ab und zu antut, dort hineinzusehen, hätten viele EIKE-Leser sicher nie etwas über diesen Meilenstein in der Klima-Stadtertüchtigung erfahren:
KLIMARETTER.INFO, 26. September: Trinkstationen gegen den Klimawandel
Das Berliner Projekt Kiezklima hat Bürger befragt, wie sie mit extremer Hitze in der Stadt umgehen. Herausgekommen sind überraschend gute Ideen für die Anpassung von Städten an den Klimawandel

Unsere Städte werden zu lebensgefährlichen Klimafallen …

KLIMARETTER.INFO: [1] Großstädte sind Wärmeinseln – und das kann gefährlich sein. In Berlin zum Beispiel, Deutschlands größter Stadt, sterben pro Jahr 700 bis 800 Menschen zusätzlich während Hitzewellen. Vor allem ältere und kranke Menschen sind gefährdet. Und die Zahlen dürften steigen, denn Klimaforscher erwarten für den Raum Berlin-Brandenburg, dass sich die jährliche Zahl heißer Tage mit über 30 Grad Celsius in diesem Jahrhundert vervierfachen und die der Tropennächte, in denen die Temperatur nicht unter 20 Grad fällt, sogar verfünffachen wird. Nicht nur in Dachgeschoss-Wohnungen könnte es für die Bewohner dann sehr ungemütlich bis lebensgefährlich werden.

… wovon die Natur nur nichts weiß

Wie eigentlich immer, wenn „Klimaforscher“ in den schlimmsten Farben ausmalen, lohnt es sich bei solchen Aussagen, die Messwerte aus der Natur zu „befragen“.
Wie Bild 1 zeigt, wurden die Sommertemperaturen seit dem Hoch kurz nach 1990 wieder niedriger und sind aktuell nicht höher als im Jahr 1911. Kein Wunder, dass die Zukunftsprojektionen schon aktuell meistens danebenliegen und für das Jahr 2100 eine Spanne von 6 Grad „bieten“, aus der sich jeder Klimafachmann das Gewünschte heraussuchen darf.

Bild 1 Berlin-Brandenburg, Verlauf der Sommertemperatur seit 1960. Mit Zufügungen vom Autor. Quelle: DWD Klimaatlas

Die „heißen Tage“ nahmen seit 1990 zu- Ein stetiger Trend zu „immer mehr“ ist aber nicht zu sehen.

Bild 2 Berlin-Brandenburg, Verlauf der „heißen Tage“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Auch Tropennächte, welche „lebensgefährlich“ werden, zeigen keinen ansteigenden Trend, nur, dass diese Anzahl schon in den 70er Jahren von der heutigen Rentnergeneration „überlebt“ wurde.

Bild 3 Berlin-Brandenburg, Verlauf der „tropischen Nächte“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

In Deutschland ist es vor allem heiß, wenn es nicht regnet. Doch die Länge der Trockenperioden nimmt auch nicht zu.

Bild 4 Berlin-Brandenburg, Verlauf der „längsten Trockenperioden“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Nur die Winter werden nicht mehr ganz so kalt. Fast könnte man sagen: Winter, wie bis zum ersten Weltkrieg schon einmal waren und ohne die folgenden, schlimmen Kältewellen bis 1970, als die Klimaforscher entnervt die kommende Eiszeit ausgerufen hatten.
Nachdem die „Alten“ jedoch entgegen den Angaben von Klimaretter weiterhin vorwiegend bei Kälte sterben:
EIKE 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen
ist auch das positiv und erspart sicher einigen Senioren, in den warmen Süden ziehen zu wollen, wo sie nach der Klimawandel-Zunft unweigerlich an Hitze noch frühzeitiger zu sterben hätten.

Bild 5 Berlin-Brandenburg, Verlauf der Wintertemperatur seit 1960. Vom Autor ergänzt. Quelle: DWD Klimaatlas

Der Stadtteil erwärmt sich um bis zu 10°C gegenüber dem Umland

Ein Umstand, den alle Großstädte haben und gegen dessen Größe jeglicher, denkbare Einfluss eines sich stetig wandelnden Klimas vollkommen in den Hintergrund tritt.
Berlin-Brandenburg hatte seit 1880 ca. +1,5 Grad Temperaturerhöhung. Davon sind angeblich 50 % vom Menschen verursacht, wären demnach CO2-bedingt maximal +0,75 Grad in fast 140 Jahren. Gegen den städtischen Wärmeinseleffekt von +10 Grad ist das nichts.
Für städtische Verwaltungen jedoch kein Grund, den minimalen Effekt nicht durch CO2-Minderung mit Unsummen an Steuergeldern „bekämpfen“ zu wollen:
EIKE 24.09.3017: [4] Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel
EIKE 25.04.2017: [5] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr (Berlin)
und viele, langwierige und teure Studien aufzusetzen:
KLIMARETTER.INFO: [1] … In dem bundesweit einmaligen Forschungsprojekt „Kiezklima“ wurde in den vergangenen drei Jahren untersucht, wie das Leben unter Klimawandel-Bedingungen verbessert werden kann … „Hier im Brunnenviertel wird es im Sommer bis zu zehn Grad heißer als im Berliner Umland„, sagt Eva Wiesemann von der privaten List-Stadtentwicklungsgesellschaft, die das vom Bundesumweltministerium geförderte Projekt zusammen mit sechs weiteren Partnern seit 2014 durchgeführt hat

Die Bewohner selbst spüren zwar nichts vom Klimawandel. Doch wenn man ihnen davon erzählt, erinnern sie sich, dass sie schon mal unkonzentriert waren…

Auch Berlin scheint das Problem zu haben, dass die Bewohner „klimadumm“ sind und erst durch „Fachpersonen“ darauf gestoßen werden müssen. Vergleichbar vielen Südsee-Atollbewohnern, die erst nach den „Einweisungen“ von NGOs und der Kenntnis um Klimaschutzgelder [6] darauf kamen, dass ihre Inseln untergehen.
KLIMARETTER.INFO: [1] … Wiesemann musste viel Aufklärungsarbeit leisten. „Wenn man die Leute fragt, ob sie etwas vom Klimawandel spüren, sagen sie meist: Nein„, erzählt sie. Doch wenn die Fragen konkret wurden, wenn die List-Mitarbeiterin zum Beispiel wissen wollte, wie die Bewohner in den Hitzeperioden zurechtkommen, sei das ganz anders gewesen. Sehr heiß sei es gewesen, hätten sie berichtet, man könne sich nicht gut konzentrieren, und viele Menschen fänden in den heißen Nächten kaum Schlaf.

Die Klima-Vulnerabilitätsforschung zeigt Erfolge und Lösungen, welche bisher niemand kannte

KLIMARETTER.INFO: [1] … Außerdem konnte Wiesemann Geschäfte im Viertel dafür gewinnen, ein Netz von „Trinkstationen“ aufzubauen, an denen man kostenlos ein Glas kaltes Wasser bekommen kann. Und seit Anfang des Sommers gibt es einen öffentlichen Trinkbrunnen auf dem Vinetaplatz mitten im Quartier, ein zweiter steht am Bahnhof Gesundbrunnen.

Ohne umfassendes Klimamanagement ist ein Stadtteil heutzutage praktisch hilflos …

Immer neu bestätigt sich die Überzeugung des Autors, dass „der Klimawandel“ im Wesentlichen eine weltweit angelegte Arbeitsbeschaffungsmaßnahme für die sonst nicht verwendbare Akademikerschwemme ist.
KLIMARETTER.INFO: [1] Vorbild für Klimaanpassung
„Kiezklima“ arbeitet seit 2014 an einer Beteiligung der Bürger für den Aus- und Umbau des Berliner Brunnenviertels. Das Projekt erhebt Klimadaten, schlägt Anpassungsmaßnahmen etwa für Hitzewellen vor und bezieht die Anwohner in die Planungen ein. Das Viertel im Zentrum der Hauptstadt ist so zu einem „Modellgebiet für Klimaanpassungsmaßnahmen“ geworden. Dazu gehören auch die „Brunnengärten“. Im vergangenen Jahr zeichnete das Umweltbundesamt das Projekt mit dem „Blauen Kompass“ aus. In diesem Jahr ist es für den ZeitzeicheN-Preis für lokale Nachhaltigkeitsinitiativen nominiert

Bild 6 Projektpartner „Kiezklima“

… wer käme sonst auf die Idee, gegen den Klimawandel in Hochbeeten Gemüse- und Gartenkräuter anzubauen

Dazu natürlich auch die wohl in Vergessenheit geratene Kenntnis, dass Beschattung gegen Sonnenstrahlung schützen kann.
KLIMARETTER.INFO: [1] Wohnhof bekommt Sonnensegel
Eine ganze Reihe Ideen sind in dem Kiezklima-Projekt gesammelt worden. Einige davon wurden schon in die Tat umgesetzt. So wurden in einem der Innenhöfe der Wohnblöcke der kooperierenden Berliner Wohnungsbaugesellschaft Degewo Hochbeete angelegt, in denen Mieter Gemüse und Gartenkräuter anbauen.

Mit Klimawandel hat das alles jedoch nichts zu tun, eher mit dem Unvermögen der bisherigen Verwaltung

Im Gegensatz zur Redaktion von Klimaetter kann der Autor nicht erkennen, dass ein sich stetig veränderndes Klima Anlass für solche Ma0nahmen geben könnte. Zumindest die Klimadaten geben dafür keinerlei Anhaltspunkt.
Sollten sich in diesem Wohnviertel wirklich herausstellen, dass Wohnungen bei bestimmten Wetterlagen „lebensgefährlich“ sind, sollte man vielleicht die Bausubstanzen und Isolierungen überprüfen und den zuständigen Aufsichtsbehörden und Vermietern gehörig „die Ohren langziehen“. Lösungen wie beim Auto, welche es inzwischen mit Klimaanlagen gibt, weil niemand mehr wie früher im Sommer ohne fahren will, wären denkbar. Zumindest käme der Autor ohne eine langwierige und teure Untersuchung darauf.
Nun handelt es sich laut dem Bericht wohl um einen Problemstadtteil [1]: „ …viele Sozialwohnungen, haben zu zwei Dritteln einen Migrationshintergrund …“.
Dies legt die Vermutung nahe, dass man Sanierungsanalysen und Stadtteilarbeit unter dem Deckmantel „Klima“ finanzieren lies, weil für vernünftige Direkt-Maßnahmen keine Fördermittel genehmigt wurden. Den „Ideologieschwund“ und übertriebenen Aufwand, sowie sinnlose Zusatzmaßnahmen nahm man wohl in Kauf.
Ob dieses Vorgehen wirklich so richtungsweisend ist, wie es die Redaktion von Klimaretter darstellt, wagt der Autor zu bezweifeln.
Vielleicht nehmen es aber die Stadtverwaltungen der noch viel „lebensgefährlicheren“ Städte im Rheingraben und schönen Freiburg zum Anlass, die Bewohner vorsorglich bis zur Gefahrenklärung „auszulagern“, wie es bei den wärmegedämmten Hochhäusern schon passiert ist.
In Freiburg waren es im Sommer immerhin zwei Grad mehr Hitze, während in Berlin-Brandenburg die Sommer-Mitteltemperatur seit 1880 um ca. 1,5 °C gestiegen ist.

Bild 7 Sommertemperaturverlauf 2017 Freiburg Flugplatz und Berlin-Tegel. Quelle: wetteronline

Nach der in Freiburg bereits erfolgten „Klimazeitreise“ von über 200 Jahren müsste die schöne und beliebte Stadt eigentlich schon den Klimatod gestorben sein.

Welch ein Glück, dass es ausreicht, erst in der fernen Zukunft mit dem „Klimaschutz“ anzufangen und den „Werkzeugkasten“ zu füllen, der sich anscheinend vorwiegend um Förderprogramme und Finanzierungsfragen kümmert.

Bild 8 Screenshot Quelle: FWTM Freiburg

Weiterbildung „Kommunales Energie- und Klimaschutzmanagement“
15. Januar 2016 – 16. Juli 2016, berufsbegleitend
FWTM:
Durchgeführt von fesa e.V. in Kooperation mit dem Institut für Fortbildung und Projektmanagement ifpro
In 13 kompakten Modulen vom 15. Januar bis zum 16. Juli 2016 füllen die künftigen Klimaschutzmanager und andere regional Klimaschutzaktive ihren Werkzeugkasten mit allem, was es für die Umsetzung der Energiewende vor Ort braucht: Vom Kontext und den Grundlagen kommunalen Klimaschutzes geht es über die rechtlichen Rahmenbedingungen bis zu Förderprogrammen und Finanzierung. Der Kurs beinhaltet ebenso Basiswissen über Erneuerbare Energien, Kraft-Wärme-Kopplung und Wärmenetze wie Informationen zu Energieeffizienz und Energiemanagement in kommunalen Liegenschaften. Weitere Themenfelder sind Öffentlichkeitsarbeit und Bürgerbeteiligung. Abgerundet und auf Praxisnähe zugeschnitten wird die Fortbildung durch eine Einführung in das Projektmanagement, das die Teilnehmerinnen und Teilnehmer dann auch im Rahmen eigener, kursbegleitender Projektarbeiten vertiefen und verfestigen.

Quellen

[1] KLIMARETTER.INFO 26. September 2017: Trinkstationen gegen den Klimawandel

[2] Kiezklima, Homepage

[3] EIKE 25. September 2017 : Das Interview!

[4] EIKE 24.09.3017: Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

[5] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[6] EIKE 14.12.2015 (Tel 2 … 3): Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang




Häufig gestellte Fragen 9.1*: Eine Kritik

Im AR 5 des IPCC heißt es unter FAQ 9.1 (Seite 824):

Die Komplexität von Klimamodellen … hat seit dem AR 1 aus dem Jahr 1990 substantiell zugenommen. In dieser Hinsicht sind also gegenwärtige Modelle des Erdsystems deutlich ,besser‘ als die Modelle von damals.

Sie definieren „besser“ explizit als ,komplexer‘. Was die Politiker jedoch wissen müssen ist, ob diese Prophezeiungen präziser und zuverlässiger sind! Das heißt, sind sie überhaupt brauchbar?

Bei FAQ 9.1 heißt es weiter:

Ein wichtiger Gedanke ist, dass die Modellgüte nur evaluiert werden kann relativ zu Beobachtungen aus der Vergangenheit, wobei man die natürliche interne Variabilität berücksichtigen muss.

Dies stimmt nur dann, wenn die Modelle so angepasst werden, dass sie zum Wetter der Vergangenheit passen, besonders hinsichtlich Temperatur und Niederschlag. Allerdings ist dieses Pseudo-Modellverhalten kaum besser als das Anpassen einer Kurve mittels eines Polynoms höherer Ordnung. Was man tun sollte ist, den Verlass auf historische Daten zu minimieren, wobei man eher Grundsätzen folgen sollte als dem, was derzeit gemacht wird, nämlich eine Projektion zu simulieren und dann 5 bis 10 Jahre warten, um abzuschätzen, wie gut die projizierte Vorhersage zu tatsächlichen zukünftigen Temperaturen passt. So wie man es derzeit macht – trotz der Anwendung von Grundsätzen – dürfte es kaum besser sein als die Verwendung eines neuralen ,Black Box‘-Netzwerkes für Vorhersagen wegen der Stützung auf das, was Ingenieure „Toffee-Faktor“ [fudge factors] nennen bei der Anpassung an die Historie.

Weiter bei FAQ 9.1:

Um Vertrauen in die Zukunfts-Projektionen derartiger Modelle zu haben, muss das historische Klima – nebst dessen Variabilität und Änderung – gut simuliert sein.

Offensichtlich ist, dass falls die Modelle das historische Klima nicht gut simulieren man kein Vertrauen in ihre Fähigkeit zu Vorhersagen setzen würde. Allerdings reicht die Anlehnung an die Historie nicht aus, um zu garantieren, dass Projektionen korrekt sind. Polynom-Anpassungen der Daten kann hohe Korrelations-Koeffizienten haben, sind jedoch dafür bekannt, in das Nirwana zu entfleuchen, wenn man über die Datensequenz hinaus extrapoliert. Darum sage ich oben, dass der Wahrheits-Test darin besteht, die Modelle tatsächlich die Zukunft vorhersagen zu lassen. Ein anderes Verfahren, das man anwenden könnte wäre, die Modelle nicht an alle historischen Daten anzupassen, sondern nur an die Daten aus vorindustrieller Zeit oder vor dem Zweiten Weltkrieg. Dann lasse man sie laufen und begutachte, wie gut sie die zweite Hälfte des vorigen Jahrhunderts simulieren.

Eines der Probleme bei der Anpassung an historische Daten ist, dass falls die bestehenden Modelle nicht alle Faktoren enthält, welche das Wetter beeinflussen (und das ist fast mit Sicherheit der Fall), dann wird der Einfluss der fehlenden Parameter ungeeignet durch andere Faktoren approximiert. Das heißt, falls es in der Vergangenheit eine ,Störung beim Forcing‘ unbekannter Natur und Größenordnung gegeben hat und man die Daten entsprechend korrigiert, wäre es erforderlich, die Variablen zu korrigieren, die in dem Modellen enthalten sind. Können wir sicher sein, dass wir alle exogenen Inputs bzgl. Klima ausgemacht haben? Können wir sicher sein, dass alle feedback loops mathematisch korrekt sind?

Unbequemerweise wird in Kasten 9.1 (Seite 750) angemerkt:

Zumindest für ein Modell wurde gezeigt, dass der Anpassungsprozess nicht notwendigerweise einen einzelnen, einheitlichen Satz von Parametern für ein gegebenes Modell ergibt, sondern dass verschiedene Kombinationen von Parametern gleich plausible Modelle ergeben können (Mauritsen et al. 2012)

Diese Modelle sind so komplex, dass es unmöglich ist vorherzusagen, wie eine Unendlichkeit von Parameter-Kombinationen die verschiedenen Outputs beeinflussen könnten.

Die Art der in modernen Daten verfügbaren meteorologischen Details steht für historische Daten nicht zur Verfügung, besonders in der Zeit vor dem 20. Jahrhundert! Folglich würde es eine voreilige Schlussfolgerung sein, dass fehlende Forcing-Informationen auf andere Faktoren übertragen werden, die in den Modellen sind. Klarer beschrieben: wir kennen die Zeitpunkte von fast allen Vulkanausbrüchen in der Vergangenheit. Allerdings kann die Dichte der vulkanischen Asche in der Atmosphäre im besten Falle nur geschätzt werden, während die Dichte von Asche und Aerosolen bei aktuellen Ausbrüchen gemessen werden kann. Historische Eruptionen in dünn bevölkerten Gebieten können auch nur Spekulation sein auf der Grundlage eines plötzlichen Rückgangs der globalen Temperaturen zumindest ein paar Jahre lang. Wir haben lediglich qualitative Schätzungen bzgl. außerordentlicher Ereignisse wie z. B. das Carrington-Ereignis, ein koronaler Massenauswurf im Jahre 1859. Wir können uns nur fragen, was alles eine solche massive Injektion von Energie in die Atmosphäre anrichten kann.

Jüngst wurden Bedenken laut, wie der Ozon-Abbau das Klima beeinflussen könnte. Tatsächlich waren Einige so kühn zu behaupten,, dass das Montreal-Protokoll einen unerwünschten Klimawandel verhindert hat. Wir können nicht sicher sein, dass einige Vulkane wie etwa der Mount Katmai in Alaska keinen signifikanten Effekt auf die Ozonschicht hatten, bevor wir überhaupt von Variationen des Ozons wussten. Dieser Vulkan ist bekannt für seine anomalen Emissionen von Salzsäure und Fluorwasserstoff (siehe Seite 4). Weiteres hierzu findet man hier.

Fortsetzung von FAQ 9.1:

Unvermeidlich machen sich einige Modelle hinsichtlich bestimmter Klima-Variablen besser als andere, aber kein Modell zeichnet sich eindeutig als das ,insgesamt beste Modell‘ aus.

Dies liegt zweifellos daran, dass die Modellierer unterschiedliche Hypothesen hinsichtlich Parametrisierungen zugrunde legen, und die Modelle werden an die Variable ihres Interesses angepasst. Dies zeigt, dass die Anpassung die Grundprinzipien außer Kraft setzt und die Ergebnisse dominiert!

Meine Vermutung wird gestützt durch die nachfolgende Anmerkung in FAQ 9.1:

…Klimamodelle basieren in erheblichem Umfang (Hervorhebung von mir [=dem Autor]) auf verifizierbaren physikalischen Grundsätzen und sind in der Lage, bedeutende Aspekte von externen Forcings in der Vergangenheit zu reproduzieren.

Man würde denken, dass dieses Anpassen eine erhebliche Schwäche ist bei den gegenwärtigen Modellierungs-Bemühungen zusammen mit der Notwendigkeit, Energie-Austauschprozesse zu parametrisieren (Konvektion und Wolken), welche räumlich zu klein sind, um direkt modelliert zu werden. Anpassen ist der ,Elefant im Raum‘, der kaum einmal beachtet wird.

Die Autoren von Kapitel 9 räumen in Box 9.1 (Seite 750) ein:

…die Notwendigkeit der Modellanpassung könnte die Modell-Unsicherheit zunehmen lassen.

Verschlimmert wird die Lage durch die Anmerkung in diesem gleichen Abschnitt (Box 9.1, Seite 749):

Mit sehr wenigen Ausnahmen beschreiben die Modellierer nicht detailliert, wie sie ihre Modelle anpassen. Daher ist eine vollständige Liste von Widersprüchen zu Beobachtungen, an welche ein bestimmtes Modell angepasst wird, allgemein nicht verfügbar.

Und schließlich stellen die Autoren eindeutig in Frage, wie das Anpassen den Zweck der Modellierung beeinflusst (Box 9,1, Seite 750):

Die Erfordernis von Anpassungen wirft die Frage auf, ob Klimamodelle für Klimaprojektionen der Zukunft überhaupt brauchbar sind.

Ich denke, dass es wichtig ist anzumerken, dass sich vergraben im Kapitel 12 des AR 5 (Seite 1040) das folgende Statement findet:

Insgesamt gesehen gibt es derzeit kein allgemein anerkanntes und robustes formales Verfahren, um quantitative Schätzungen der Unsicherheit zu liefern bzgl. zukünftiger Änderungen aller Klimavariablen … „

Dies ist wichtig, weil es impliziert, dass die unten gezeigten quantitativen Korrelationen nominelle Werte sind ohne Verankerung in inhärenter Unsicherheit. Das heißt, falls die Unsicherheiten sehr groß sind, dann sind die Korrelationen selbst mit großen Unsicherheiten behaftet und sollten zurückhaltend aufgenommen werden.

Auch das folgende Zitat sowie die nachfolgende Illustration aus FAQ 9.1 gilt dem Thema Zuverlässigkeit:

Ein Beispiel von Änderungen der Modellgüte mit der Zeit wird in FAQ 9.1 gezeigt und illustriert die stattfindende, wenn auch mäßige Verbesserung (Hervorhebung von mir [=dem Autor]).

Allgemein sollte man eine hohe, nicht lineare Korrelation zwischen Temperatur und Niederschlag erwarten. In Wüsten regnet oder schneit es nicht viel, ebenso wie an den Polen (effektiv Kältewüsten). Warme Gebiete, also z. B. die Tropen, sind gekennzeichnet durch gewaltige Verdunstung aus den Ozeanen und Feuchtigkeitsanreicherung durch die Vegetation. Sie stellen also gewaltige niederschlagbare Mengen von Wasserdampf zur Verfügung. Daher bin ich kaum überrascht, dass die folgenden Graphiken eine höhere Korrelation zwischen Temperatur und deren räumlicher Verteilung zeigen als für Niederschlag und dessen räumlicher Verteilung. Bzgl. Temperatur werden Gebiete gezeigt, in denen die modellierte Temperatur höher ist als die gemessenen Temperaturen, dann muss es aber auch Gebiete geben, in denen es kühler als gemessen ist, um den Anpassungen an das globale Temperaturmittel zu genügen. Daher bin ich nicht vollständig überzeugt von Behauptungen hoher Korrelationen zwischen Temperaturen und der räumlichen Verteilung. Könnte es sein, dass die „Oberflächen-Temperaturen“ auch die Wassertemperatur der Ozeane enthalten, und weil die Ozeane über 70% der Erdoberfläche bedecken und nicht die Temperaturextreme des Festlands aufweisen, und dass daher die Temperaturverteilung stark durch Wassertemperaturen gewichtet sind? Das heißt, würden die Korrelations-Koeffizienten fast genauso hoch sein als wenn man ausschließlich Temperaturen auf dem Festland heranzieht?

Bildinschrift: FAQ 9.1, Abbildung 1: Fähigkeit der Modelle, die jährliche mittlere Temperatur und die Verteilung von Niederschlag zu simulieren, illustriert durch die Ergebnisse von drei jüngeren Phasen der CMIP-Modelle (CMIP2 um das Jahr 2000, CMIP3 aus dem Jahr 2005 und CMIP5, die jetzige Modellgeneration). Die Abbildung zeigt die Korrelation zwischen gemessener und modellierter Temperatur (oben) und des Niederschlags (unten). Größere Werte deuten auf eine bessere Korrespondenz zwischen modellierten und beobachteten räumlichen Verteilungen. Die schwarzen Symbole deuten auf Korrelations-Koeffizienten individueller Modelle, und die großen grünen Symbole zeigen den Median-Wert (d. h. die Hälfte der Modellergebnisse liegt über, die andere Hälfte unter diesem Wert. Die Verbesserung des Modellverhaltens wird deutlich durch die Zunahme der Korrelation bei aufeinanderfolgenden Modell-Generationen.

Man sollte beachten, dass die behaupteten Korrelations-Koeffizienten sowohl für CMIP3 als auch für CMIP5 implizieren, dass lediglich 65% des Niederschlags vorhergesagt werden können durch den Ort oder die räumliche Verteilung. Falls Verteilungen des Niederschlags so schlecht erklärt sind im Vergleich zur mittleren Temperatur, gewinne ich kein Vertrauen, dass regionale Temperaturverteilungen Korrelations-Koeffizienten aufweisen, die so hoch sind wie das globale Mittel.

Der AR 5 des IPCC steht hier.

*Intergovernmental Panel on Climate Change, Fifth Assessment Report: Working Group 1; Climate Change 2013: The Physical Science Basis: Chapter 9 – Evaluation of Climate Models

Link: https://wattsupwiththat.com/2017/09/27/frequently-asked-questions-9-1-a-critique-2/

Übersetzt durch Chris Frey EIKE




Es reicht! Hört auf, Harvey und Irma auszuschlachten!

Irma war tatsächlich ein sehr starker Hurrikan der höchsten Kategorie 5, als er über die Leeward Islands zog. Die Windgeschwindigkeit von 185 mph [ca. fast 300 km/h], ermittelt mit einem Hurrikan-Flugzeug in einer Höhe von 10.000 Fuß [ca. 3000 m], war wirklich eine der höchsten jemals in atlantischen Hurrikanen. Wie aber steht Irma im Vergleich zu anderen starken atlantischen Hurrikanen da? Um diese Frage zu beantworten, müssen wir zunächst die Verfahren betrachten, mittels welcher die Stärke eines Hurrikans bestimmt wird, weil seit Anfang dieses Jahrhunderts ein anderes Verfahren angewendet wird.

Es gibt zwei Möglichkeiten, die Stärke eines Hurrikans zu bestimmen. Eine davon ist, die Windgeschwindigkeit mittels eines Flugzeuges zu messen. Die Air Force fliegt immer in Höhen um 10.000 Fuß, und empirische Beziehungen werden angewendet, um die Windgeschwindigkeit in 10.000 Fuß auf die Windgeschwindigkeit am Boden hochzurechnen. Die andere Methode ist, ein Barometer im Auge abzuwerfen und den Luftdruck zu messen. Da es eine direkte Relation zwischen Luftdruck [genauer: Luftdruckgradient, Anm. d. Übers.] und Windgeschwindigkeit gibt, kann man mit Kenntnis der einen Größe die andere Größe berechnen.

Historisch war der Kerndruck im Zentrum des Hurrikans der dominante Faktor bei der Bestimmung der Stärke eines Hurrikans. Nach Einführung der Saffir/Simpson-Hurrikan-Skala Anfang der siebziger Jahre wurden alle Hurrikane der Vergangenheit mittels ihres Kerndrucks in dieser Skala nach Stärke kategorisiert. Heute hat sich das geändert,und Hurrikane werden ausschließlich nach Windgeschwindigkeit kategorisiert. Darum war es möglich, Hurrikan Irma zum stärksten jemals im Atlantik beobachteten Hurrikan zu erklären mit der vom Flugzeug ermittelten Windgeschwindigkeit von 185 mph. Aber wie steht Irma hinsichtlich des Kerndrucks da?

Für alle, die mit der Größe Luftdruck nicht so vertraut sind: Eine der Standardeinheiten des Luftdrucks sind Millibar (mb). [In Europa ist die Einheit seit Jahren als Hektopascal hpa definiert. Da die Zahlenwerte beider Einheiten identisch sind, verwende ich in dieser Übersetzung im Folgenden die Bezeichnung hpa. Anm. d. Übers.] Der normale Luftdruck in den USA liegt gewöhnlich zwischen 1010 und 1030 hpa. Falls der Luftdruck in den Tropen unter 1000 hpa fällt, bedeutet dies allgemein, dass sich ein Hurrikan der Kategorie 1 entwickelt hat. Der Kerndruck in einem Hurrikan der Kategorie 3 liegt normalerweise um 950 hpa, und ein Hurrikan der Kategorie 5 liegt vor, wenn der Luftdruck unter 920 hPa fällt. Sinkt der Luftdruck gar unter 900 hPa, handelt es sich um einen Super-Hurrikan, der vergleichbar ist mit den stärksten Taifunen im Pazifik.

Wie steht nun Irma in dieser Hinsicht im Vergleich mit anderen starken Hurrikanen in der Vergangenheit da, wenn wir den Kerndruck zur Bestimmung der Stärke heranziehen anstatt die Windgeschwindigkeit? Der niedrigste Kerndruck von Irma betrug 914 hpa. Der tiefste Kerndruck jemals in einem atlantischen Hurrikan war 2005 im Hurrikan Wilma mit 882 hpa aufgetreten, als dieser die nordwestliche Karibik heimsuchte. Der niedrigste Kerndruck eines auf das [US-]Festland übergreifenden Hurrikans betrug 892 hpa, aufgetreten im Hurrikan von 1935, als dieser über die Florida Keys hinweg gezogen war. Es gab 10 Hurrikane mit einem Kerndruck unter 910 hpa, davon 5 sogar unter 900 hpa. In dieser Hinsicht schaffte es Irma nicht einmal in die Top 10 und war damit folglich nicht einmal annähernd der stärkste jemals im Atlantik aufgetretene Hurrikan.

Wenden wir uns jetzt dem Hurrikan Harvey zu. Harvey war als der regenreichste Hurrikan der Historie apostrophiert worden. Allerdings steht die Regenmenge von 50 Inches [ca. 1270 l/m²] nicht in Relation zur globalen Erwärmung. Der Grund für die hohe Regenmenge ist vielmehr, dass sich der Hurrikan drei Tage lang praktisch nicht von der Stelle bewegte, was unglücklicherweise gerade im Südosten von Texas der Fall war.

Die Regenmenge in einem tropischen Wettersystem ist nicht abhängig von der Windgeschwindigkeit, sondern von der Verlagerungsgeschwindigkeit. Bevor es ausgeklügelte numerische Modelle zur Simulation der Regenmenge in einem Wettersystem gab, verwendeten wir eine einfache empirische Gleichung, die gute Ergebnisse lieferte: Man berechne die Zuggeschwindigkeit und teile sie in 100 ein.

Verlagert sich ein tropisches Wettersystem mit 10 mph [ca. 16 km/h], erwarte man 10 Inches [254 l/m²]. Ein System mit einer Verlagerung von 5 mph [ca. 8 km/h] würde demnach 20 Inches [508 l/m²] bringen. Sollt die Verlagerungsgeschwindigkeit lediglich 2 mph betragen, erwarte man 50 Inches [1270 l/m²] Regen. Genau das war bei Harvey der Fall. Der Hurrikan bewegte sich 3 Tage lang mit etwa 2 mph und brachte in großen Gebieten vom südöstlichen Texas und dem südwestlichen Louisiana Regenmengen zwischen 40 und 50 Inches.

Es gibt zahlreiche Beispiele zum Stehen gekommener tropischer Systeme, wobei jedes Mal exzessive Regenmengen auftraten. Beispielsweise verharrte der Tropische Sturm Claudette 2 Tage an Ort und Stelle und brachte über 40 Inches [1016 l/m²] Regen in einem ausgedehnten Gebiet südlich der Innenstadt von Houston. Die 42 Inches [1069 l/m²] in Alvin innerhalb von nur 24 Stunden ist für diesen Zeitraum Rekordhalter in den USA. Ein Jahr zuvor brachte der Tropische Sturm Amelia 48 Inches [1220 l/m²] im zentralen Texas. Im Jahre 1967 erreichte der sich nur langsam bewegende Hurrikan Beulah das südliche Texas und brachte Regenmengen zwischen 30 und 40 Inches [762 bis 1016 l/m²] landeinwärts der Stadt Brownsville.

Falls es im Gebiet östlich der Bahamas ein Messgerät für Regenmengen gegeben hätte, wo der Hurrikan José vier Tage lang verharrte, dann bin ich sicher, dass dort über 60 Inches [über 1500 l/m²] Regen gemessen worden wären.

In den USA gibt es eine lange Historie verheerender Hurrikane. Im Folgenden sind einige der intensiven Hurrikane aufgelistet, zu welchen es zum Ende des 19. Jahrhunderts gekommen war, also lange, bevor es eine CO2-Zunahme gab:

Das aktivste Jahr auf das Festland übertretender Hurrikane war das Jahr 1886, als gleich 7 Hurrikane die Küste erreichten. Vier davon erreichten Texas, und zwei davon waren hoch kategorisiert. Der Hurrikan der Kategorie 4 im August 1886 zerstörte alles, was von der Stadt Indianola noch übrig geblieben war. Diese Stadt war Mitte der 1850-ger Jahre ein blühender Handelshafen an der Südküste der Matagorda Bay, bevor ein Kategorie-4-Hurrikan im Jahre 1875 die Stadt nahezu zerstörte. Man befand sich mitten im Wiederaufbau, als der Hurrikan 1886 zuschlug.

Im Jahre 1893 waren zwei Kategorie-4-Hurrikane aufgetreten. Der eine forderte in Louisiana 1800 Todesopfer auf einer der Küste vorgelagerten Insel. Der zweite forderte weitere 1800 Todesopfer, als eine 16 Fuß [ca. 4,90 m] hohe Flutwelle die Hilton Head Insel vor South Carolina zerstörte.

Der tödlichste Hurrikan in der US-Geschichte ereignete sich im Jahre 1900, als eine vom Sturm aufgeworfene Flutwelle über die Galveston Insel hinweg schwappte und 10.000 Menschen in den Tod riss.*

[*Die Flutwellen in einem Tropischen Wirbelsturm gehen nicht auf die Windgeschwindigkeit selbst zurück. Dazu ist die vom Orkan in einer Richtung überstrichene Meeresfläche zu klein. Ursache ist vielmehr der hydrostatisch durch den tiefen Luftdruck höhere Meeresspiegel im Auge des Sturmes. Anm. d. Übers.]

Der Hurrikan des Jahres 1900 war einer der Kategorie 4.

Schlussfolgernd lässt sich sagen, dass die Hurrikane Harvey und Irma typische starke atlantische Hurrikane waren. Beide entwickelten sich aus aus Afrika auf den Atlantik hinaus ziehende Störungen während des Höhepunktes der Hurrikan-Saison. Die Stärke von Irma, wie sie sich aus dem Kerndruck ergibt, war konsistent mit einer ganzen Reihe anderer Hurrikane in der Vergangenheit. Der starke Regen im Zuge von Harvey war die Folge des zum Stehen gekommenen Sturmes und nicht die Folge einer höheren atmosphärischen Feuchtigkeit in Assoziation mit globaler Erwärmung.

Es gibt nichts an diesen beiden Hurrikanen, was die Dringlichkeit sofortiger Maßnahmen zur Begrenzung der globalen Erwärmung rechtfertigen würde. Es ist traurig, dass jene, die diese Maßnahmen fordern und unterstützen, so brutal und rücksichtslos gegen die zerrissenen Gefühle hunderttausender Menschen in Texas, Louisiana und Florida sind, haben diese doch soeben alptraumhafte Verluste erlitten – und jetzt werden sie für die Hurrikane verantwortlich gemacht, weil sie nicht die Maßnahmen zur Reduktion von CO2 unterstützt haben.

Da wir gerade von CO2 sprechen, es gibt eine intensive Debatte über die Gründe der Erwärmung der Erde. Diese erwärmt sich seit über 150 Jahren, das ist unstrittig. Strittig ist die Ursache. Ist CO2 für das „Wärmste“ verantwortlich, oder sind es andere natürliche Zyklen? Solarexperten in Asien, dem Nahen Osten und Teilen von Europa sehen die Sonne als Ursache. Während der letzten dreieinhalb Jahre haben sie über 400 Studien veröffentlicht, die das CO2 als Ursache verwerfen und stattdessen natürliche Zyklen der Sonne anführen. Falls dies so ist, warum gibt es dann den intensiven Druck, Milliarden über Milliarden Dollar für grüne Energie aufzuwenden? [Von den verheerenden Umweltschäden ganz zu schweigen. Anm. d. Übers.]

Zu was will sie das „Wärmste“ also bringen? Zuerst und am dringlichsten fordern sie, dem Pariser Klima-Abkommen vom Dezember 2015 zu folgen, dem 194 Länder zugestimmt haben. Präsident Trump hat die USA aus diesem Abkommen zurückgezogen, und das „Wärmste“ schäumt vor Wut. Das ausdrückliche Ziel des Abkommens ist es, CO2 zu reduzieren und grüne Energie zu entwickeln.

Eines der Ziele des Abkommens ist die Einrichtung eines Green Climate Fund, dessen Gelder an Entwicklungsländer verteilt werden sollen, um diesen beim Übergang zu grüner Energie zu helfen. Es ist beabsichtigt, bis zum Jahr 2020 100 Milliarden Dollar in diesem Fund zu haben. Woher soll das Geld kommen? Etwa 45 Nationen waren als Geldgeber ausersehen, was bedeutet, dass es rund 150 Empfängernationen gibt, darunter auch China.

Auf dem Pariser Treffen versprachen die Gebernationen 10 Milliarden Dollar, wovon über 80% aus 6 Nationen kommen sollten: England, Deutschland, Frankreich, Schweden, Japan und die USA. Die USA versprachen den größten Betrag mit 3,5 Milliarden Dollar, die anderen 5 Länder jeweils zwischen 1 und 1,5 Milliarden Dollar. Bis heute haben die USA 1 Milliarden Dollar als Anzahlung an die UN überwiesen, die anderen 5 Nationen jeweils rund 0,5 Milliarden Dollar. Die UN hat 156 Mitarbeiter eingestellt, um den Plan zu überwachen. Jährliche Lohnkosten: 29 Millionen Dollar.

Und das ist erst der Anfang. Christiana Figueires, Leiterin der Pariser Konferenz, sagte kürzlich, dass der Plan während der nächsten 3 Jahre über 1,5 Billionen kosten würde, falls jede Nation dem Programm folgt.

Sollte Präsident Trump wirklich seine Entscheidung widerrufen und die USA erneut in das Paris-Abkommen einfügen, würden wir den UN unserem Versprechen folgend augenblicklich 2,5 Milliarden Dollar schulden. Da wäre es höchstwahrscheinlich besser, mit diesem Geld den 150.000 Menschen zu helfen, deren Wohnungen in SE-Texas im Zuge von Harvey weggespült worden sind.

Noch eine letzte Anmerkung. Was ist der wirkliche Grund für das Paris-Abkommen? Eine der aufschlussreichsten Bemerkungen, die ich gesehen habe, stammt von einem führenden UN-Funktionär. Ottmar Edenhofer sagte: „De facto verteilen wir den Wohlstand der Welt völlig neu. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“. Mit anderen Worten, es handelt sich um ein internationales Programm zur Umverteilung von Wohlstand. Wessen Wohlstand? Unser Wohlstand!

Link: https://wattsupwiththat.com/2017/09/25/enough-is-enough-stop-hyping-harvey-and-irma/

Übersetzt von Chris Frey EIKE




Energiepolitik und Wahlkampf

Jetzt werden sie wieder anfangen, die endlosen Debatten um Themen wie Flüchtlingspolitik, Wohnraum, soziale Probleme, Armut… All diese Themen mögen ja in einem Hochindustrieland und einer sich als fortschrittlich gerierenden Gesellschaft wichtig sein – aber die Grundlage, die ureigene Basis all dessen, was unsere Gesellschaft, unseren relativen Wohlstand und alles ausmacht, was wir als ,schön‘ ansehen – diese Grundlage war mit keinem einzigen Wort in den politischen Debatten zu vernehmen, weder vor noch nach der Wahl.Gemeint ist natürlich Energie und Energiepolitik.

Wenn man sich so umhört im Bekanntenkreis oder wo auch immer – es ist erschreckend, wie wenig Menschen wirklich wissen, was Energie eigentlich ist. Das heißt nicht, dass ich es weiß! Da gibt es Experten zu diesem Thema wie die EIKE-Autoren Fred F. Mueller, Dr. Günter Keil und auch den Vizevorsitzenden des EIKE Michael Limburg. Aber wenn man sich vor Augen führt, dass die Fragen bzgl. Flüchtlingen, bezahlbare Wohnungen usw. vollkommen gegenstandslos sind, wenn es zum Großen Blackout kommt, dann sollte man sich zumindest etwas zu diesem Thema informieren.

Für mich ist es ein Skandal aller bisher im Bundestag vertretenen Parteien und noch mehr der Medien, dass dieses Thema in keinem Forum, bei keiner Gelegenheit auch nur ansatzweise ein Rolle spielt. Der Faden, an dem alles hängt, was unser Land und unsere Gesellschaft ausmacht, wirklich alles, wird immer dünner und droht zu reißen – und niemand an relevanten Stellen spricht es an. Und wenn doch, wie es eine sich endlich in Deutschland wohl etablierende alternative politische Kraft tut, dann wird es in den Medien boykottiert.

Was ist Energiedichte, Erntefaktoren, Redispatch-Maßnahmen, Lastgangverläufe, … über all das kann man sich im Internet informieren. An sich wäre das die Aufgabe der Medien, aber – nichts ist!

Fazit: Welche Bedeutung hat all das Gezerre, Gezänk und Gerede nach der Wahl, welches täglich viele Zeitungsseiten füllt – welche Bedeutung hat das alles, wenn der Blackout kommt?

Es wird höchste Zeit, dass die Energie-Problematik im Bundestag angesprochen wird – und zwar so fachgerecht, wie es in einigen Landtagen schon der Fall war. Und das sehr, sehr schnell! Alles Andere ist dagegen reine Makulatur! Oder nicht?

© Chris Frey, September 2017




Haben Sonnen­wind und Planeten­stellungen Einfluss auf unser Wetter bzw. Klima?

Beobachtungen:

  • Einfluss des Sonnenwindes auf unser Wetter

  • Einfluss der Planetenstellungen auf den Sonnenwind

Voraussage:

  • Abkühlung bis nach 2040 durch 3- und 4-fache Planetenstellungen

Dr. Borchert (12. Nov. 2015 verstorben; ehem. EIKE Mitglied) hat dieses Verhalten in der letzten Erwärmungsdekade (bis 1998) in allen Einzelheiten untersucht und seine Arbeit – Using Satellite Measurements to study the Influence of Sun Activity on Terrestrial Weather – zu der Tagung der „Amerikanischen Meteorologie“ 2010 eingereicht.

Sein dortiger Vortrag über diese Arbeit stieß auf eine breite positive Resonanz und Anerkennung.

Auszug aus „Die Wirkungsweise von Emissionen der Sonnenflecken auf unsere Erde“ (Dr. Borchert, 2013):

Da der Mechanismus der Klimawirkung von CO2 als falsch erkannt worden ist, sollte der Mechanismus der Klimabeeinflussung und auch anderer Störungen auf der Erde durch die Sonnenaktivität genauer bekannt sein. Aus den Messungen solarer Protonen, Elektronen und Röntgensignalen, die von Satelliten der NOAA gewonnen werden, und aus Messergebnissen des weltweiten Neutronenmessnetzes kann ein Weg der Einwirkung von Partikelemissionen der Sonne auf die Erde gezeigt werden.

Die Periodizitäten der Sonnenflecken werden nach gängiger Meinung verursacht durch stochastisch bedingte Magnetströme im Inneren der Sonne. In letzter Zeit wird eine systematische Steuerung dieser Periodizitäten durch die Konstellation der Planeten zur Sonne nicht mehr ausgeschlossen. Der von P. Jose-Havard 1964 berechnete zeitliche Verlauf des Drehimpulses der Sonne, bezogen auf den Schwerpunkt des Sonnensystems in Abhängigkeit von der jeweiligen Stellung der vier großen Gasplaneten Jupiter, Saturn, Neptun und Uranus ist von Jose festgestellt worden mit einem Zyklus der vier großen Planeten von 178,8 Jahren (auch von Landscheidt 2004, ETH, Solheim, Scafetta, Frau Präsidentin Prof. Dr. Richards der Internationalen Astronomischen Union 2015).

Mittels einer Planetensoftware wurde nun von mir dieser 178,8 Zyklus über ca. 2.800 Jahre untersucht. Nach ca. 19,866 Jahren stehen sich Jupiter und Saturn immer wieder in einer Reihe gegenüber. Die Umlaufzeiten schwanken von 6.912 bis 7.492 Tagen, jeweils bezogen darauf, ob die beiden Planeten näher (Erde = kühler) oder ferner (Erde = wärmer) zur Sonne stehen.

Grundsätzlich gibt es zwei aufsteigende und dann einen absteigenden Knoten – siehe Abb. 11 (Graphik oben). Nach 23 solcher Umläufe von ca. 460 Jahren erfolgt eine Umkehrung. Nach ca. 920 Jahren stellt sich der erste Zustand wieder ein. Interessant ist, dass der 59,6 Jahre-Zyklus (3×19,866 Jahre) mit der atlantischen Oszillation deckungsgleich ist.

Neben den 2-fachen Planetenstellungen gibt es auch 3-fache Stellungen sowie alle 178,8 Jahre die große 4-fache Stellung, die nach 9 Umläufen von Jupiter und Saturn immer wieder präzise erscheinen. Grundsätzlich gibt es einen durchgehenden nachweisbaren Zyklus über die 2800 Jahre mit den Planetenstellungen Jupiter + Uranus und Saturn + Neptun. Zusätzlich wurden zwei weitere parallele Zyklen festgestellt, der zweite 4-fache Zyklus ist nachweisbar bis 1140, macht dann eine Pause und ist ab 629 wieder vorhanden. Der dritte 4-fache Zyklus ist nur bis 1268 nachweisbar (Abb. 9-2).

Im Bereich von 800 bis um 1350 n.Chr. waren in der mittelalterlichen Warmzeit nur sehr wenige 3-fache und 4-fache Planetenstellungen zu beobachten – die Parallelste um 1306,61. Ganz anders in der „Kleinen Eiszeit“ von ca. 1620 bis 1710; hier wurden nur geringe oder keine Sonnenflecken auf der Sonne beobachtet und wir hatten zusätzlich in diesem Zeitraum sieben 3- und 4-fache Planetenstellungen, die einen nicht unwesentlichen Einfluss auf den beschriebenen Forbush-Effekt ausübten!

Nach Borchert: Ein Vergleich der meteorologischen Zeitreihen mit dem Verlauf der in Moskau gemessenen Neutronenstrahlung der Sekundärstrahlung ergab einen um etwa 7 Tage verzögerten Rückgang der Bewölkung gegenüber der Forbush-Reduktion.

Nach meinen Untersuchungen/Beobachtungen ist die Zeitverschiebung bzgl. der Abnahme der Bedeckungen abhängig von der Intensität des Sonnenwindes, ob es sich um einen CME, einen Flare oder wie in den letzten Monaten um ein Black Hole handelt. Ich habe schon bei einem CME nur 3 bis 5 Tage an Zeitverzögerung festgestellt, bei Black Hols ergeben sich erheblich größere Zeitverschiebungen!

Abb. 1: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert.

Abb. 2: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert, Reduzierung der Bedeckungen und ZUNAHME der Sonnenscheindauer!

Der Forbush-Effekt ist dafür verantwortlich, dass die kosmische Strahlung, wenn sie auf den Sonnenwind trifft, einen reduzierten energetischen Schauer über der Erde erzeugt, der durch den Neutronen-Monitor zB. Moskau – Boulder (USA) messtechnisch erfasst wird.

Abb. 3. Kosmische Strahlung seit 1958 bis 07.2017: (http://cr0.izmiran.ru/mosc/)

1958 – 2010 bis zu 40% Abnahme der kosmischen Strahlung – dadurch Abnahme der Erdwolkenfläche – Zunahme der Erd-Temperatur durch höhere Einstrahlung

Im Jahre 1984,25 hatten wir einen 4-fachen Planetenzyklus von 178,8 Jahren, entsprechend der dritten Planetenstellungen – Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 18%. Über mehrere Jahre musste ich große Schneemengen von meinem Grundstück beseitigen (Kältedauer ca. 3-4Jahre)!

Abb. 4. Kosmische Strahlung bei 4-facher Planetenstellung von 1984

Im Jahre 1996,91 hatten wir einen weiteren 4-fachen Planetenzyklus von 178,8 Jahren entsprechend der ersten Planetenstellung -Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 14%, in der Warmdekade. Die Abkühlung war messtechnisch erkennbar, war aber nicht sehr stark (Kältedauer ca. 3Jahre)!!

Abb. 5. Kosmische Strahlung bei 4-facher Planetenstellung von 1996

Im Jahre 2009,7 wurde ein 3-facher Planetenzyklus entsprechend der Planetenstellung – Jupiter + Saturn + Uranus festgestellt. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 12%, in der ausklingenden Warmdekade. Diese Abkühlung wurde von mir Anfang 2009 vorhergesagt, mit einer Zeit von ca. 3Jahren. Von 2009 auf 2010 hatten wir mehrere Wochen eine Schneehöhe von ca. 25cm und eine Temperatur von bis zu minus 24 C°. (Kältedauer ca. 3 Jahre)!

Abb. 6. Kosmische Strahlung bei einer 3-fachen Planetenstellung von 2009

Seit 2000 gab es eine Zunahme der kosmischen Strahlung um ca. 19%. Es deckt sich mit der direkt gemessenen kosmischen Strahlung vom 03.2015 bis 06.2017 um ca. 13%!

Abb. 7. Kosmische Strahlung von 2000 bis 05.2017 und die Direktmessung

Abb. 8. Messungen der NASA zeigen, dass sich die kosmischen Strahlen mit einer Zunahme von mehr als 13% seit 2015 verstärken. Warum werden kosmische Strahlen intensiviert? Der Hauptgrund ist die Sonne. Solare Sturmwolken wie koronale Massenauswürfe (CMEs) fegen die kosmischen Strahlen weg, wenn sie an der Erde vorbeifliegen. Während eines Solar-Maximums sind CMEs reichlich vorhanden und kosmische Strahlen werden in Schach gehalten. Nun aber schwingt der Sonnenzyklus auf das Solar-Minimum, so dass kosmische Strahlen zurückkehren können. Ein weiterer Grund könnte die Schwächung des Magnetfeldes der Erde sein, die uns vor der Tiefenstrahlung schützt.

http://www.spaceweather.com/archive.php?view=1&day=20&month=07&year=2017

Zusammenfassung:

Auf Grund der oben festgestellten zusätzlichen Auswirkungen der Sonnenmagnetfelder durch die 3- und 4-fachen Planetenstellungen wird eine Zunahme der kosmischen Strahlung erfolgen und damit verbunden eine Abkühlung auf der Erde. Für die 4-fachen Planetenstellungen um 2024,33 und um 2035,21 (Kältedauer ca. 3-4Jahre) können wir mit einer erheblich GRÖSSEREN Abkühlung als von 1984 rechnen!

Wie schon Herr Dr. Borchert feststellte: Aus den Chroniken von Wikipedia ist klar erkennbar, dass bei einer Abkühlung die Erdwolkenfläche um ca. 4-6% zunimmt. Die Folgen sind Jahre mit erheblich höheren Regenmengen!

Der Abkühlungsprozess wird sich nach 2040 wieder reduzieren, zumal 2060 und 2080 nur mit einer 3-fachen Stellung zu rechnen ist.

Eine weiterführend Graphik in der Grösse von 650mm Breite und 870mm Höhe kann auf Wunsch per Mail zugestellt werden – Datenfile ca. 5MB.

  1. 2-, 3-, und 4-fache Planetenstellung von 0 bis 2100 n. Chr.1. 4-Fach-System 2022 bis 2026; 2024 Max., Opposition zur Erde mit Jupiter, Jupiter 2024 nur 3,986AU.

  2. 4-fach System 2033 bis 2037; 2035 Max., Opposition zur Erde durch Jupiter dann Saturn 2041; Jupiter 2034 nur 3,9AU.

Darstellung der Verschiebung des Sonnen-Drehmomentmittelpunktes bei den 2-, 3-, und 4-fach Planetenstellungen um max. > 1.000.000 km. Herr Borchert hat in seinen Untersuchen auf den stochastischen Zusammenhang der Mehrfach-Planetenstellung und der Reduzierung des Sonnenmagnetfeldes hingewiesen!

  1. Das Gravitationsverhältnis der Sonne zu alle Planeten beträgt ca. 750:1

  2. Das Drehmomentverhältnis aller Planeten zur Sonne beträgt ca. 88:1