Klimawandel wird Sie nicht töten – jedoch der Mangel an Energie

Zur gleichen Zeit werden weltweit jährlich über 1000 Milliarden US-$ ausgegeben, für Studien über den Klimawandel, für Berater¸ im Zusammenhang mit staatlichen Stellen und für die schnell wachsende aber völlig wirkungslos grüne und erneuerbare Energieindustrie. Dies hat auch zur Entstehung der Emissionshandels-Makler-Industrie geführt. Dies basiert auf betrügerischer Wissenschaft, da der extrem kleine "Treibhaus-Effekt" von CO2 bei weitem übertroffen wird durch den Wasserdampf aus den Ozeanen. Nur fossile Treibstoffe und die Kernenergie können aufgrund ihrer viele Größenordnungen höherer Energieflussdichten die benötigten Energiemengen liefern, im Gegensatz zu sogenannten erneuerbaren Energien.

Weit über die Hälfte der Welt hat wirtschaftlich erzielbare fossile Brennstoffe verbraucht, während über 3 Milliarden menschlicher Bewohner in "Energiearmut“  leben,  mehr als 1,5 Milliarden [überhaupt] ohne Strom. Sobald fossile Brennstoffe über den Punkt einer wirtschaftlich rentablen Produktion aufgebraucht sind, ist es nur noch eine Energiequelle, die der Erde zur Verfügung steht, um den Energiebedarf zu decken. Das ist die Umwandlung von Materie in Energie, wie in der Gleichung E = mc2 formuliert. Man muss lernen, Energie auf der Grundlage seiner Kenntnisse über die Gesetze der Physik und der Austauschbarkeit der Materie zu erzeugen. Heute haben wir mit dem „Baby Schritt“ der Kernspaltung begonnen. Kernspaltung ist praktisch und arbeitet heute, ist aber nicht nachhaltig aufgrund radioaktiver Abfälle.

Deshalb müssen wir sofort in das experimentelle Verständnis der Wissenschaft investieren, die zur erfolgreichen Demonstration der kontrollierten Kernfusion führt, gefolgt von Forschung & Entwicklung, die nötig sind um es zu vermarkten. Fusion ist 100% sicher, nutzt einen nahezu unbegrenzten Brennstoffkreislauf, leichter, nicht-radioaktiver Komponenten und erzeugt keine signifikanten radioaktiven Nebenprodukte. In der Alternative [also ohne Fusion] wird der Mensch fossile Brennstoffe nicht mehr nutzen können. AGW ist dann ein 100% strittiger Punkt, da Kohlenwasserstoffe in nennenswerten Mengen nicht mehr verbrannt werden. Unter diesen Bedingungen wird die weltweite Bevölkerung auf das Niveau der vorindustriellen Revolution von etwa 10% der heutigen Bevölkerung schrumpfen oder etwa 750 Millionen Menschen weltweit.

Vom Menschen verursachte globale Erwärmung (AGW) oder der Klimawandel ist nicht das große Problem zu dem seine Befürworter es machen. Auch wenn es mal bewiesen werden sollte, dass der Mensch es durch seine Verwendung von fossilen Brennstoffen verursacht, ist es nicht das wirklich große Problem.

Der Klimawandel war schon immer ein Teil des dynamischen atmosphärischen Systems der Erde. In den letzten 2 Milliarden Jahren hat sich das Klima der Erde gewandelt, zwischen einem gefrorenen „Kühlhaus“ Klima und dem heutigen gemäßigten Klima und einem dampfenden „Sauna" Klima, wie in der Zeit der Dinosaurier.

Haupteinflussfaktoren für die Variabilität der mittleren Temperatur und Klima auf der Erde ist die komplexe Umlaufbahn der Erde im Sonnensystem, wie durch die Milankovitch Zyklen definiert, die variable Ausstrahlung der Sonnenenergie und die geologischen Faktoren auf der Erde wie unterseeische vulkanische Aktivität führen zu inkonsistenten Temperatur Gradienten in den Ozeanen.

Diese Grafik zeigt, wie sich das globale Klima sich im Laufe der geologischen Zeit verändert hat.

Temperatur-Zeiten Diagramm

Leider wurde die potenzielle Bedrohung durch einen vorhergesagten zukünftigen Klimawandel dazu verwendet, enorme Mengen an Geld von reichen Nationen zu den armen Ländern [1] zu übertragen. Dies hat die Mechanismen des Überlebensinstinkts der Klimawandels Community aktiviert. Dazu gehören Regierungen, Berater und wissenschaftliche Forscher, die einfach das empfundene Problem untersuchen und akademische Zeitschriftenartikel und Berichte erstellen. Die unwirksamen grünen Energielösungen der Industrie verdanken ihr Leben … den staatlichen Subventionen … und dem Schrecken eines Klimawandels. Kein ernsthaftes, durch die „Klimaschrecken" entrichtetes Geld, wurde für die Lösung des großen Problems verwendet.

Das große Problem ist die Tatsache, dass der Mensch seit etwa 400 Jahren fossile Brennstoffe auf Kohlenstoff Basis zur Verfügung hat, welche über mehrere hundert Millionen Jahre auf der Erde geschaffen wurden. Die Energie kam von der Sonne [2]. Integriert über lange geologische Zeiträume, es wurde täglich Sonnenenergie in Chemikalien durch die Photosynthese der Pflanzen umgewandelt. Diese Chemikalien können, anders herum, wieder gezündet werden, um die gespeicherte Energie durch eine Reaktion mit Sauerstoff (Oxidationsreduktion) wieder freizusetzen [3]. Sobald sie verbraucht sind, stehen sie dem menschlichen Lebenszyklus nicht mehr zur Verfügung.

Was ist Energie? Ein Physiker wird antworten: "die Fähigkeit, Arbeit zu verrichten": Ausführlicher wird er sagen: "Energie ist eine Eigenschaft von Objekten, die in andere Objekte übertragen oder in verschiedene Formen umgewandelt werden können, kann aber nicht erschaffen oder zerstört werden."

Eine Hausfrau wird sagen: Energie ist das, was unsere Autos bewegt, unsere Flugzeuge antreibt, unser Essen kocht, und uns im Winter warm hält – im Sommer kühlt.

[Jedoch] können Sie keine Welt mit geschätzten 9 Milliarden Menschen im Jahr 2060 mit Energie aus Solarzellen und Windturbinen versorgen. Sie sind nicht von nachhaltiger Bedeutung, sie können Energie nicht schnell genug schaffen, um sich selbst zu reproduzieren (zu erweitern) und Energie für die Menschen bieten. Der Grund dafür ist, dass die Menge an Energie die von der Sonne empfangen wird, zu sehr „verdünnt“ ist, das bedeutet, wir erhalten nur  eine sehr geringe Menge an Energie pro Fläche und nur für eine relativ kurze Zeit angesichts des Tag-Nacht-Zyklus und der Wetterbedingungen [4 ].

Die Windenergie ist ein Nebeneffekt der Solarenergie, weil Wind durch die Absorption der Wärmeenergie der Sonne durch die Atmosphäre erzeugt wird, in Verbindung mit dem Coriolis-Effekt [5]. Dies basiert auf der Drehung der Erde in Verbindung mit Unterschieden im Atmosphärendruck in Bezug auf Elevation, Berge und dergleichen [6].

Wasserkraft aus aufgestauten Flüssen ist auch ein Nebeneffekt der Solarenergie. Die Bewegung des Wassers in dem weiten System von Flüssen der Erde geschieht durch Sonnenenergie. Dies geschieht, weil Meerwasser verdunstet, Wolken bildet und schließlich Wasser als Regen und Schnee unsere Flüsse füllt und zum Meer fließt, von den höheren Lagen durch die Schwerkraft angetrieben. Im Gegensatz zu Solar- und Wind, kann Wasserkraft kontinuierlich Material [Masse = Wasser] bewegen, hat aber begrenzte Mengen an Energie.

Die obige Abbildung zeigt die Energieflussdichte in Million Joule per litter [je Entwicklungszeitraum?] auf der linken vertikalen Achse mit einer Skala die von 10^-9 bis 10^7 in wissenschaftlicher Notation umspannt. Die horizontale Achse zeigt in der oberen Reihe die Zeit ab Null der aktuellen Zeitrechnung bis 2200. Die untere Reihe zeigt die direkt der weltweite Bevölkerung zur Verfügung stehende Energie, um Nahrung, Trinkwasser zu produzieren und für die Menschen Komfort zu bieten. Wie man sieht, wenn fossile Kohlenwasserstoff-Kraftstoffe in der Menge nicht mehr verfügbar sind, muss die Fusionsenergie entwickelt werden oder die weltweite Bevölkerung wird zu dem vorindustriellen Zeitalter, wie in den 1600er Jahren schrumpfen. Die Energieflussdichte gibt an, wie viel Energie je Volumeneinheit in einer Energiequelle enthalten ist.

Anlage 1 zeigt eine Tabelle für verschiedene Energiequellen.

Wir müssen beginnen, dass zu entwickeln, was Dr. Steve Cowley in Großbritannien "Energie aus dem Wissen" nennt, die Umwandlung von Masse in Energie [7]. Albert Einstein formulierte die Beziehung zwischen Energie und Masse in seiner berühmten Gleichung E = mc2. Dies bedeutet, dass eine sehr kleine Menge an Masse gleich einer sehr großen Menge an Energie ist, wie Dr. Einstein in seiner eigenen Stimme beschreibt [8].

Wir müssen es lösen, Energie langfristig durch die Umwandlung von Materie in Energie zu bekommen. Keine andere Energiequelle hat eine geeignetere Energieflussdichte, um unseren Strom-, Transport-, Trinkwasser und landwirtschaftlichen Bedarf bereitzustellen, wenn fossile -Kraftstoffe mal nicht mehr rentabel zu liefern sind [9].

Wir müssen jetzt beginnen, weil es mehrere Jahrzehnte dauern wird, diese Wissenschaft zu beherrschen. Wir begannen diese Reise, als wir die Kernspaltung entwickelten. Allerdings ist Kernspaltung keine langfristige Lösung aus mehreren Gründen; vor allem weil es langfristige radioaktive Abfälle produziert.

Der nächste Schritt ist die Entwicklung von Kernfusion. Fusion ist ganz anders als Kernspaltung [10-11-12]. Es nutzt leichte Elemente in dem Brennstoffkreislauf, ist ausfallsicher und kann keiner Umwelt schaden. Es hat die höchste Flussdichte von jeder Energiequelle, kurz vor der Materie-Antimaterie Zerstrahlung.

Es wird noch einige Jahre der reinen experimentellen wissenschaftlichen Forschung dauern, eine nachhaltige Fusionsreaktion im Labor zu demonstrieren, die einen Netto-Energiegewinn produziert, das heißt mehr Energie abgibt als „hineingesteckt" wurde, um die Energieproduktion zu starten [13].

Sobald die kontrollierte Kernfusion in einer kontrollierten Umgebung erprobt ist, unabhängig davon, wie teuer und kompliziert der Reaktor Mechanismus und die Einrichtung ist, wird der Einfallsreichtum des Menschen im privaten Sektor übernehmen. Die Komplexität und die Kosten werden nach unten getrieben, wie die Wende des 20. Jahrhunderts, als Vakuumröhren Transistoren wichen und später durch Microcomputer-on-a-Chip abgelöst wurden.

Das ist das große Problem. Wenn wir das nicht lösen kann, werden wir in 50 bis 100 Jahren unsere Kohle, Öl und Erdgas-Ressourcen nicht mehr wirtschaftlich und ökologisch nutzen können [14].

Dann kehrt die Menschheit wieder zurück im 16. Jahrhundert zu Leben. Wenn wir die Energiefrage nicht lösen, ist das ganze Argument von guten Umweltstandards strittig. Warum? Denn in weniger als 100 Jahren werden wir nicht länger fossile Kohlenwasserstoff-Kraftstoffe verbrennen. Die globale Erwärmung und den durch den Menschen verursachten Klimawandel, ist kein Thema mehr. Das Problem löst sich von selbst. In wenigen tausend Jahren wird die Natur …in geologischen und geochemischen Prozessen … die meisten Zeichen unserer Vergangenheit und der Industrialisierung löschen.

Wenn es nicht genügend kognitiv intelligente Menschen gibt, die fähig sind zu denken und das Beste [für unsere Zukunft] unterscheiden können, ist es ein nicht daraus folgender Punkt, dass Außerirdische nicht zu unserem Planeten strömen [it is a nonconsequential point as aliens are not flocking to our planet] Niemand oder kein Ding wird jemals den Unterschied kennen. Damit stellt sich die Frage: "Gibt es intelligentes Leben auf der Erde" Dieser Autor glaubt es so. Wie Bill & Melinda Gates in ihrer jüngsten Ausgabe des jährlichen offenen Briefes vor kurzem erklärten, braucht unsere Jugend die Herausforderung, um zu entwickeln, was sie ein "Energiewunder" [15] nennen.

Dies ist das größte Problem dem sich die Menschheit gegenüber sieht. Klimawandel … wenn durch den Menschen verursacht … kehrt sich automatisch in den nächsten 100 Jahren um. Aber wenn wir die Energiefrage nicht lösen, wird sich die Bevölkerung um mehr als einen Faktor 10 im Laufe der folgenden 100 Jahren reduzieren. Zusammengefasst, als Spezies müssen wir diese Realität erkennen und das Rennen um Energie heute beginnen.

Referenzen:

[1] Another Climate Alarmist Admits Real Motive Behind Warming Scare, Investor’s Business Daily, March 29, 2016.

[Ein weiterer Klimaalarmist gibt die wahren Motive hinter der Angst vor Erwärmung zu. – hier und hier berichtet]

[2] Tamarkin, Tom D., Energy Basics; Where does energy on our planet come from?, Fusion 4 Freedom.

[3] Heats of Combustion, UC Davis Chemistry Wiki.
[4] Lawson, Barrie & Tamarkin, Tom D., Going Solar-System Requirements For Solar Generated Utility Baseload Power, Fusion 4 Freedom.
[5] Consequences of Rotation for Weather; Coriolis Forces, Universe of Tennessee Knoxville.
[6] Atmospheric Pressure at Different Altitudes, AVS Science & Technology of Materials, Interfaces, & Processing, https://www.avs.org/.
[7] Fusion energy with Professor Steven Cowley, Culham Centre for Fusion Energy, UK.
[8] William Tucker, Ph.D., Understanding E = MC2, Dr. Albert Einstein in his own voice & explanation, Energytribune.com.
[9] Tamarkin, Tom D., Energy Basics, Comparison of fuel energy flux densities, Fusion 4 Freedom.
[10] Duke Energy Nuclear Information Center, Fission vs. Fusion – What’s the Difference?
[11] Lawson, Barrie, Nuclear Fission Theory, Fusion 4 Freedom.
[12] Lawson, Barrie, Nuclear Fusion-The Theory, Fusion 4 Freedom.
[13] Tamarkin, Tom D., Fusion Energy; Too Important to Fail – Too Big To Hoard, Fusion 4 Freedom.
[14] Tamarkin, Tom D. 2060 And Lights Out: How Will America Survive Without Oil?, Inquisitir Special Report, http://www.inquisitr.com.
[15] Gates, Bill & Melinda, Gates Foundation Annual Open Letter, James, Murray, Guardian, February 24, 2016.


Anhang 1

Vergleiche der Energieflussdichte

Energiedichte ist die Menge an Energie, die in einem gegebenen System oder Volumeneinheit gespeichert ist. Spezifische Energie ist die gespeicherte Menge der Energie pro Einheitsmasse (Gewicht). Nur die nützliche oder extrahierbare Energie wird gemessen. Es ist sinnvoll, die Energiedichten der verschiedenen Energiequellen zu vergleichen. An der Spitze der Liste ist Fusion, gefolgt durch Kernspaltung und dann den aus Erdöl, Kohle und Erdgas abgeleiteten Treibstoffen. Am unteren Ende der Liste sind Batterien, die entweder Energie erzeugen oder Energie speichern sowie "Erneuerbare Energien" wie Solar.

1 kg Deuterium fusioniert mit 1,5 kg Tritium kann 87,4 GWh Elektrizität erzeugen

Hier sind die zugrunde liegenden Berechnungen, zur Unterstützung der vorstehenden Feststellung:

Die Energie, die durch Fusion von 1 Atom Deuterium mit 1 Atom Tritium freigesetzt ist 17,6 MeV = 2,8 X 10^12 Joules.

Dann entspricht die Energie, die durch die Fusion von 1 kg Deuterium mit 1,5 kg Tritium freigesetzt wird: 2,8 X 10^12x 2,99 X 10^26 = 8,3 X 10^14 Joules = (8,3 · 10^14) / (3,6 x 10^12) = 230 GWh.

Diese Energie wird als Wärme freigesetzt. Ein konventionelles Dampfturbinen-Kraftwerk mit einem Wirkungsgrad von 38%, würde 87.4GWh Strom erzeugen

1 Deuterium ist ein natürlich vorkommendes Isotop von Wasserstoff, leicht erhältlich aus Meerwasser.

2 Tritium wird in einem Fusionsreaktor als Teil des Brennstoffzyklus und des Energie-Austauschverfahrens aus Lithium hergestellt. Lithium ist ein reichlich und natürlich vorkommendes Element.

Vergleich der Energiedichte konventioneller Brennstoffe

[Anmerkung: „Nuclear fission = Kernspaltung“]

 Vergleich von „erneuerbaren“ Energiedichten

1 Wie viel Sonnenenergie pro Kubikmeter ist das? Das Volumen des Raumes zwischen einem Quadratmeter-Fleck auf der Erde und im Mittelpunkt unserer Umlaufbahn um die Sonne beträgt 50 Milliarden Kubikmeter (die Erde ist 150 Milliarden Meter von der Sonne entfernt oder 4.000 Erd-Umfänge). Die Aufteilung der nutzbaren 100 Watt pro Quadratmeter auf dieses Volumen ergibt zweimillionstel Watt pro Kubikmeter. Sonnenlicht braucht etwa acht Minuten (499 Sekunden), um die Erde zu erreichen. Multipliziert man 499 Sekunden mit sechsundzwanzig millionstel W / m3 ergibt, dass die Sonnenstrahlung eine Energiedichte von 1,5 Mikrojoule pro Kubikmeter (1,5 x 10-6 J / m3) hat.

2 Die einzige Möglichkeit, Wärmeenergie aus der Atmosphäre zu extrahieren ist, ein isoliertes Rohr zwischen dieser und einem Reservoir mit einer niedrigeren Temperatur (vorzugsweise eine viel niedrigere) zu konstruieren. So funktionieren Erdwärmepumpen. Die typische Bodentemperatur ist 11,1° C (284 K). An einem 32°C Tag, hat ein solches System einen Spitzenwirkungsgrad von 7% und eine Leistungsdichte von nur 0,05 mW / m3 (Stopa und Wojnarowski 2006): typische Oberflächenleistungsflüsse für Geothermie-Bohrungen sind in der Größenordnung von 50 mW / m2 und haben eine typische Tiefe von 1 km. Um die Energiedichte zu finden, muss eine charakteristische Zeit enthalten sein. Die verwendete Zeit entspricht der Zeit um Wasser in den Boden zu pumpen und einmal durch das System zu zirkulieren. Diese Zahl ist in der Größenordnung von zehn Tagen (Sanjuan et al. 2006). Die daraus resultierende Energiedichte beträgt 0,05 J / m3 oder rund zwei bis drei Größenordnungen niedriger als Wind oder Wellen.

3 Wind wird durch Änderungen in der Wetterstruktur angetrieben, die wiederum durch thermische Gradienten angetrieben wird. Gezeiten werden durch Schwankungen der Schwerkraft angetrieben, erzeugt durch den Umlauf des Mondes um die Erde. Die Energiedichten von Wind- und Wassersystemen sind proportional zur Masse m, die durch sie bewegt wird und dem Quadrat der Geschwindigkeit v, dieser Masse oder ½mv2. Auf Meereshöhe, hat Luft mit einer Dichte von etwa 1 kg pro Kubikmeter die sich mit fünf Metern pro Sekunde bewegt (18 km/h) eine kinetische Energie von 12,5 Joule pro Kubikmeter. Die Anwendung des Betz Gesetzes (Betz 1926) begrenzt die Effizienz auf 59%, ergibt etwa sieben Joule pro Kubikmeter. So ist die Energiedichte der Windenergie an einem mäßig windigen Tag, mehr als eine Million Mal größer als Solarenergie.

Es gibt zwei vorherrschende Mechanismen, um Gezeitenenergie zu extrahieren. In [dem] einen System bewegen sich Dämme mit dem Aufstieg und Abstieg der Gezeiten nach oben und nach unten, um Energie zu extrahieren. Bei der zweiten Strategie wirken Gezeitensysteme wie Unterwasser-Windkraftanlagen, die Energie aus Tidenströmungen extrahieren, wenn sie sich vorbei bewegen. Wie bei Wind, ist die Energie einer sich bewegenden Wassermenge auch ½mv2. Tidal-Systeme haben den Vorteil gegenüber Windsystemen, dass Wasser rund tausend Mal dichter als Luft ist.

Ihr Nachteil liegt in der Regel bei zu niedrigen Gezeitengeschwindigkeiten von nur zehn Zentimetern pro Sekunde bis zu einem Meter pro Sekunde. Somit ergibt ein Kubikmeter Wasser, mit einer Masse von ungefähr 1000 kg, eine Energiedichte von etwa fünf Joule pro Kubikmeter für langsame Wasserbewegungen1 und fünfhundert Joule pro Kubikmeter für schnelle Wasserbewegungen2. Diese sind ebenfalls Gegenstand des Betz‘chen Gesetzes und stellen nur Spitzenwerte dar, so dass die mittleren Energiedichten näher an der Hälfte eines Joule pro Kubikmeter bis fünfzig Joule pro Kubikmeter liegen oder etwa die gleiche wie bei Wind.

1 kinetische Energie (Tidal niedrige Geschwindigkeit) = ½ mv2 = ½ · 1000 kg · (0,1 m / s)² = 5 Joule.

2 kinetische Energie (Tidal hohe Geschwindigkeit) = ½ mv2 = ½ · 1000 kg · (1 m / s)² = 500 Joule.

Erschienen auf WUWT am 14. April 2016 und auch auf Fusion for freedom am 15. April 2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/04/14/climate-change-wont-kill-you-having-no-electrical-power-will/

+++++++++++++

Für unsere Leser gefunden und übersetzt; Andreas Demmig:

Ein Kommentar auf WUWT von ristvan,  14. April 2016 um 10:35 Uhr

Abgebrannte Brennelemente können mit dem MOX-Verfahren recycelt werden, wie Frankreich und Japan zu tun. Diese reduziert das Volumen radioaktiver Abfälle stark, die dann in Glas eingeschlossen werden können. In den 1970er Jahren beschlossen die USA auf Grund der nicht Weitergabe von Atomwaffen dieses Verfahren weiter anzuwenden. Diese Idee hat nicht funktioniert. Aus politischen Gründen haben die US dann die Endlagerung nicht verfolgt.

Die Antwort auf IMO [International Maritime Organization regulations] ist ein geschmolzenes LiF (nicht Natrium) Salzreaktor der im U-P-Zyklus läuft, angetrieben mit all den abgebrannten Brennelementen die herumliegen. Das brütet und verbraucht dann seinen Brennstoff und hinterlässt nur geringe Mengen an radioaktiven Abfällen. Die Empfehlung [white paper] der Transatomic Power auf ‚WAMSR‘ [Waste Annihilating Molten Salt Reactor] ist ein seriöser Augenöffner über die Möglichkeiten der Gen 4 Spaltung. Keines der technischen Probleme, die sie ansprechen [diskutieren] sieht aus wie reine „Engineering Showstopper“.

Trägheitsfusion ist eine Chimäre, wie die National Ignition Facility gezeigt hat. ITER kann oder kann auch nicht funktionieren, aber das Programm deutet darauf hin, dass bereits die Wirtschaftlichkeit suspekt ist. Lockheed Skunkworks „high beta magnetic confinement“ [hoher Beta magnetischer Einschluss -?] sieht vielversprechend aus, ist aber unterfinanziert. Ob es jemals ‚real‘ sein wird, ist unbekannt. Hohe Beta-Plasmaeinschluss Beweis des Prinzips ist sehr weit von einem Pilotfusionsreaktor.

Der Nachweis des “High beta plasma confinement” Prinzips ist weit entfernt von einer Pilotanwendung in einem Fusionsreaktor.

Nehmen Sie die über $ 2,3 Milliarden jährlich die für US-Klimaforschung ausgegeben wird und verwenden Sie $ 0,3 für verbesserte Wettervorhersagen, $ 1.5 auf WAMSR und $ 0,5 auf der Skunkworks mit “High beta plasma confinement” Fusion. Schließlich ist die die Klimawissenschaft abgeschlossen [settled], sodass weitere Klimaforschung nicht erforderlich ist. Trenberth und Schmidt können sich schon mal sinnvolle Arbeitsplätze suchen.




Atlantik zeigt Anzeichen eines bedeutenden Übergangs in eine Kaltphase

Übersicht

Zusätzlich zu solaren Zyklen spielen Temperaturzyklen in den planetarischen Ozeanen kritische Rollen in unserem sich fortwährend änderndem Klima und auch für die Ausdehnung des globalen Meereises. Ozeanische Temperaturzyklen dauern oftmals ziemlich lange, und eine Warm- bzw. Kaltphase kann durchaus zwei oder drei Jahrzehnte andauern. Allgemein gab es im Atlantik von Anfang der sechziger bis Mitte der neunziger Jahre eine Kaltphase, die seitdem in eine bis heute andauernde Warmphase übergegangen war. Die gegenwärtige Warmphase zeigt aber jetzt Anzeichen für den Übergang in eine weitere langzeitliche Kaltphase, und dies könnte ernste Auswirkungen auf das Klima in den USA [und sicher auch in Europa, Anm. d. Übers.] sowie die globale Eisausdehnung auf der Nordhemisphäre haben.

Jüngste Temperaturtrends im Atlantischen Ozean

Der Vergleich der Anomaliekarten der Wassertemperatur von August 2014 (oben) und heute (unten) zeigt einen beachtlichen Temperaturrückgang in weiten Gebieten des Nordatlantiks. Die ziemlich kleinräumigen Gebiete mit unternormalen Wassertemperaturen (blau) vom August 2014 haben sich jüngsten Messungen zufolge erheblich ausgedehnt. Außerdem haben sich die Bereiche mit übernormaler Wassertemperatur (orange) vom August 2014 östlich und südlich von Grünland dramatisch abgekühlt.

Langfristige Temperaturtrends im Atlantischen Ozean

In größeren Zeitrahmen gibt es unterstützende Beweise vom National Oceanographic Data Center, denen zufolge tatsächlich irgendetwas Bedeutendes im Nordatlantik vor sich geht. Seit etwa Anfang 2007 gab es einen definitiven Abwärtstrend der „monatlichen Wärmegehalts-Anomalie“ in den oberen 700 m des Nordatlantik (Bereich mit Pfeil). Der Wärmegehalt in diesem Bereich des Atlantiks scheint ziemlich scharf gestiegen zu sein ab etwa Mitte der neunziger Jahre mit einem Höhepunkt Anfang 2007.

Globale monatliche Wärmegehalts-Anomalie (GJ/m²) in den oberen 700 m des Nordatlantiks seit Januar 1955. Die dünne Linie zeigt monatliche Werte und die dicke Linie das einfache gleitende Mittel über 37 Monate (ca. 3 Jahre). Datenquelle: National Oceanographic Data Center (NODC), www.climate4you.com. Letzter gezeigter Zeitraum: Oktober bis Dezember 2015.

Atlantische Multidekadische Oszillation (AMO)

Eine Art und Weise, wie Meteorologen die Verteilung der Wassertemperatur im Nordatlantik überwachen können, ist mittels eines Indexwertes, der als die Atlantische Multidekadische Oszillation AMO bekannt ist. Positive (negative) Phasen der AMO fallen zusammen mit wärmeren (kälteren) Wassertemperaturen im Nordatlantik. Die AMO steht in Beziehung zu dekadischen Klima-Fluktuationen wie etwa die sommerliche Niederschlagsmenge in Europa, die Hurrikane im Atlantik und Variationen der globalen Temperaturen. Die monatlichen Werte des AMO-Index‘ zeigt die folgende Abbildung für den Zeitraum 1870 bis 2015, wo positive Werte (rot) Perioden mit übernormalen und negative Werte (blau) Perioden mit unternormalen Temperaturen repräsentieren. Die Zyklen der Wassertemperatur haben dazu tendiert, etwa zwei oder drei Jahrzehnte anzuhalten, bevor es zu einer Phasenänderung kommt. Die letzte große Phasenänderung (von kalt zu warm) ereignete sich in der zweiten Hälfte des vorigen Jahrzehnts und hat seitdem allgemein abgenommen, was die These stützt, dass gegenwärtig tatsächlich eine Abkühlung im Nordatlantik im Gange ist.

Gemessener AMO-Index, definiert als trendbereinigtes 10-year low-pass filtered annual mean area-averaged SST anomalies over the North Atlantic basin (0N-65N, 80W-0E), using HadISST dataset (Rayner, et al., 2003) for the period 1870-2015.;  courtesy NCAR: https://climatedataguide.ucar.edu/climate-data/atlantic-multi-decadal-oscillation-amo

Computermodell-Vorhersage der Wassertemperatur im Nordatlantik

Ein Hinweis darauf, dass dieser offensichtliche Abwärtstrend der Wassertemperaturen im Nordatlantik länger anhalten wird, stammt von der Japan Agency for Marine-Earth Science and Technology (JAMSTEC). Die globalen saisonalen Vorhersagen von Anomalien der Wassertemperatur erwiesen sich in der Vergangenheit als ziemlich gut, und deren jüngste langfristige Vorhersage (unten) zeigt, dass es ein ziemlich großes Gebiet mit unternormaler Wassertemperatur im Nordatlantik geben wird, und zwar im Winter 2016/2017 (eingekreiste blaue Region).

Modellvorhersage der JAMSTEC der Wassertemperatur-Anomalien für den Winter 2016/17.

Konsequenzen für die Ausdehnung von Meereis auf der Nordhemisphäre

Falls der Atlantik wirklich in eine Kaltphase wechselt (d. h. negative AMO), würde dies sehr wahrscheinlich bedeutende Auswirkungen auf das Meereis der Nordhemisphäre haben. Die Meereis-Ausdehnung auf der Nordhemisphäre war vor Mitte der neunziger Jahre allgemein größer als normal (Pfeil in der Graphik unten), bis die Temperaturphase des Nordatlantiks von kalt nach warm schwang. Nachdem sich die Warmphase des Nordatlantiks bis Ende der neunziger Jahre etabliert hatte, zeigte die Eisausdehnung der Nordhemisphäre einen scharfen Abwärtstrend von positiven Niveaus in den deutlich negativen Bereich. Während der letzten Jahre zeigte die Eisausdehnung einen gezackten Trend auf diesem unternormalen Niveau. Falls sich jedoch die Anzeichen einer möglichen Temperatur-Phasenänderung im Nordatlantik bestätigen (manchmal gibt es irreführende Anzeichen), dürfte sich das Meereis auf der Nordhemisphäre sehr wahrscheinlich wieder in nicht allzu ferner Zukunft übernormal ausdehnen – genauso wie es während der letzten Kaltphase vor Mitte der neunziger Jahre der Fall gewesen war.

Northern Hemisphere sea ice areal extent from 1979-2015; courtesy University of Illinois “cryosphere”, NOAA

Link: http://www.thegwpf.com/atlantic-ocean-showing-signs-of-a-significant-shift-to-cold-phase/

Übersetzt von Chris Frey EIKE

Bemerkung: Wer die Wassertemperatur-Anomalien täglich verfolgen will, der klicke auf diesen Link: http://weather.unisys.com/surface/sst_anom.gif. Da zeigt sich, dass offenbar auch im Nordpazifik eine massive Abkühlung des Wassers im Gange ist.




AfD mit historischen Entscheidungen – u.a. will sie den „Klimaschutz“ und die Energiewende beenden, Kernkraftwerke sollen weiterlaufen.

Es gibt sie noch die guten Nachrichten. Und es gibt sie auch deshalb, weil die schlechten Nachrichten fortbestehen, und die bestehen fort, weil die Politik die großen Probleme, die sie oft selber erst angerichtet hat, nicht löst. Gar nicht daran denkt sie zu lösen, auch wenn dies leicht möglich wäre. Deswegen wird die AfD als ernstzunehmende Kraft des Protests nicht nur noch lange bestehen bleiben, sondern auch zügig und jeden Tag mehr an Zustimmung  gewinnen.  Um das zu erkennen, braucht man kein Politikwissenschaftler zu sein, es genügt das Geschehen in diesem Lande aufmerksam zu beobachten.

Und das bringt uns zu den guten Nachrichten. Denn die AfD hat soeben auf ihrem Programm-Parteitag in Stuttgart ein Grundsatz-Programm mit klaren Aussagen zu vielen Aufreger-Themen beschlossen und sich dabei keinen Deut um die political correctness geschert. Was wiederum das gesamte politische Gewerbe, welches sich um die veröffentlichte Meinung kümmert, bzw. darum, dass diese im Rahmen der oben bereits genannten von ihnen bestimmten political correctness bleibt, in hellste Aufregung versetzte. Manche sogar in vorübergehende Resignation trieb. So wie den – im Zweifel linken-  Millionen Erben Jacob Augstein, der es auf SPON so formulierte: Zu spät.

Schluss mit der verheerenden Klima- und Energiepolitik

Ein Aufregerthema von vielen war und ist das Kapitel 12 des Grundsatzprogrammes. (Siehe Programm Auszug als pdf im Anhang) Darin stehen so schlimme Sachen wie

* KLI­MA­SCHUTZ­PO­LI­TIK:IRR­WEG  BE­EN­DEN,UM­WELT SCHÜT­ZEN

* DAS ER­NEU­ER­BA­RE‐ENER­GI­EN‐GE­SETZ    IST  NICHT  RE­FOR­MIER­BAR

* ZUM SCHUTZ VON MIE­TERN UND EI­GEN­TÜ­MERN:ENER­GIE­SPAR­VER­ORD­NUNG   UND ER­NEU­ER­BA­RE‐ENER­GI­EN‐WÄR­ME‐GE­SETZ AB­SCHAF­FEN

* BI­O­ENER­GIE:SUB­VEN­TI­O­NEN  BE­EN­DEN,VOR­RANGEIN‐SPEI­SUNG EIN­STEL­LEN

* FRA­CKING:RI­SI­KEN UND CHAN­CEN ER­FOR­SCHEN, NICHT OHNE BÜR­GER­BE­TEI­LI­GUNG

* KERN­ENER­GIE:AL­TER­NA­TI­VEN ERFORSCHEN.BIS DA­HIN 13LAUF­ZEIT­VER­LÄN­GE­RUNG

Und damit all das, was seriöse Natur-Wissenschaftler,  kluge Ingenieure und Leute, die mit klarem Kopf durchs Leben gehen, schon lange fordern, also solche, die nicht – direkt oder indirekt – im Sold des Öko-Industriellen Komplexes stehen, oder sich ungeachtet aller Propaganda ihren gesunden Menschenverstand bewahrt haben, und klugerweise davon ausgehen, dass die Politik zwar alle menschgemachten Regeln und Gesetze brechen kann und bei Bedarf auch brechen wird, aber nicht die Gesetze der Natur.

Das alles steht nun im Grundsatzprogramm einer  ernstzunehmenden politischen Kraft, die sich als Partei anschickt die gleichgeschaltete Parteienlandschaft in diesem Lande aufzumischen. Das ist die gute Nachricht.

Video vom Antrag zur Geschäftsordnung das Kapitel 12 direkt und ohne Diskussion zur Sofortabstimmung zu stellen. Die Person 2.v.links ist der Autor (mit Dank an R. Hoffman für den Hinweis auf diesen Ausschnitt vom Lifestream)

Die Hürden waren auch bei der AfD hoch

Doch bis es dazu kam war manche, zum Teil sehr hohe Hürde, zu nehmen. Und dies lag an der Fülle der Änderungsanträge (über 80 allein zum Kapitel 12 und > 1500 zu allen Kapiteln) und den Eigentümlichkeiten eines Mitgliederparteitages. In Vorbereitung desselben erhielten die Leiter der zuständigen Bundesfachausschüsse (BFA) -hier geht es um den BFA 10 zuständig für Energie, Klima und Infrastruktur, dem der Verfasser die Ehre hat anzugehören- die Aufgabe, die Fülle der Gegenanträge zu sortieren, einzelnen Themen zuzuordnen und dem Parteitag Empfehlungen zu geben, wie aus fachlicher Sicht damit umzugehen sei. Also entweder mit oder ohne Diskussion annehmen oder mit oder ohne Diskussion ablehnen.

Obwohl in der zuvor durchgeführten Online-Umfrage mit rd 5000 Teilnehmern sich schon ein klares positives Stimmungsbild abgezeichnete, mit Zustimmungswerten zwischen 75 % bis 90 % zu den obigen Themen, war diese große Zustimmung beim allein entscheidenden Mitgliederparteitag durchaus nicht sicher. Denn die Gegner gaben nicht auf, sondern versuchten mit einer Fülle von Änderungsanträgen, oft in identischem Wortlaut, oft auch von denselben Personen, aber versteckt unter verschiedenen Hüten – die  Rede war (Siehe Youtube Video) von 14 Kreisverbänden, 3 Landesverbänden und 1 Bundesfachausschuss, die dagegen seien-  den Eindruck zu erwecken, dass hier hochstrittige Aussagen getroffen würden, die eine Mehrheit der Teilnehmer nicht teilen würden.

Der Parteitag beschließt was und so oft er will

Auch deshalb hätte alle Vorbereitung auch umsonst sein können, denn der Parteitag konnte mehrheitlich beschließen, was er wollte, ohne sich an Fristen oder zuvor bereits beschlossene Aussagen zu halten. Alles konnte beschlossen, geändert, zurück geändert, und wieder anders beschlossen werden. Und das war nur von der  Stimmungslage und jeweiligen Überzeugung der anwesenden Teilnehmer abhängig. Und die wiederum war abhängig davon, wer noch zum Zeitpunkt des Aufrufes des Kapitels anwesend war und konnte damit durchaus von geschickten, wenn auch nur kurzen Redebeiträgen, beeinflusst werden.

Darauf setzten die Gegner der Leitanträge ihre ganze Hoffnung und bauten ihre Strategie darauf auf.

Der späte Vogel fängt den Wurm—Überrumpelungsmanöver verpufft

Es war schnell klar, dass das Energiethema erst ziemlich am Schluss aufgerufen würde, dann, wenn schon viele Teilnehmer abgereist waren oder langen evtl. hitzigen Diskussionen nicht mehr folgen wollten. Also sollte ein Antrag zur Geschäftsordnung (GO Antrag), die immer absolut vorrangig zu behandeln sind, in einer Art Überrumpelungsmanöver fordern dass, das gesamte Kapitel 1 enbloque und ohne Diskussion zur Abstimmung gestellt werden müsse.

In der Annahme, dass im bereits sehr ausgedünnte Publikum, das zudem nach 2 Parteitagstagen müde war, die Gegner die Mehrheit stellen würden.

Doch dieser Schuss ging gründlich ins eigene Knie.

Denn der Parteitag beschloss erstens diesem GO-Antrag zu folgen  aber stimmte in der zweiten entscheidenden Abstimmung mit ca. 3/4 Mehrheit für die Annahme des kompletten Kapitels 12. Auch spätere Versuche der Gegner dies wieder rückgängig zu machen, scheiterten.

Damit hat zum ersten Mal seit Aufkommen der politisch künstlich geschürten Klimahysterie mit der ihr nachgeschalteten -nur ideologisch begründeten-  Energiewende, eine relevante schnell wachsende bereits heute große politische Kraft die offensive Bekämpfung derselben auf ihre Fahnen geschrieben.

Das kann in Bezug auf die verheerende Wirkung der offiziellen Klima- und Energiepolitik nur als Beschluss von historischer Bedeutung verstanden werden.  Sollte die AfD mit dieser Politik auch weiter Erfolg haben – und daran kann angesichts der schlimmen Entwicklung eigentlich kein Zweifel bestehen- dann werden die anderen Parteien, nach eher hilflosen Bekämpfungsversuchen, denn die Faktenlage ist eindeutig- diesem Beispiel folgen.

Eher früher als später.

Ob die Verantwortlichen dann mal für ihre verheerende Politik Klima- und Energiepolitik  zur Verantwortung  gezogen werden, ist eher unwahrscheinlich, so lehrt es uns die Geschichte. Doch historisch bedeutsam bleibt diese Entscheidung des gestrigen Tages allemal. Das dürfte damit der Anfang vom Ende dieser unseligen Politik in Deutschland gewesen sein.

Related Files




Autoren einer Studie zu Fracking bestürzt über gute Nachrichten

Hydraulisches Brechen ist ein Verfahren zur Extraktion von Öl und Erdgas aus hartem Felsgestein wie Schiefer und gepresstem Sandstein. Innerhalb von weniger als 10 Jahren hat Fracking die USA von einem „ferner liefen“ zu einer Energie-Supermacht und zum größten Erdgaserzeuger der Welt gemacht. Das Verfahren könnte auch die Erdgaserzeugung in UK ankurbeln, jedoch war das Fracking hier starker Opposition seitens Umweltgruppen ausgesetzt, die die potentiellen Auswirkungen von Bohren, Erzeugung und Schwerlastverkehr als Belastung für die Region ansehen.

Schwerlastverkehr geht einher mit stärkerem Lärm, Straßenschäden und Luftverschmutzung in Gestalt kleiner Partikel – welche als Abfall bei der Treibstoffverbrennung überall anfallen – im Vergleich zu leichteren Fahrzeugen. Die Autoren der Studie entwickelten ein Modell zur Auswirkung auf den Verkehr, um eine umweltliche Abschätzung sowohl der kurz- als auch der langfristigen Auswirkungen von Fracking an individuellen Bohrstätten vornehmen zu können. Auch Auswirkungen auf die Region wurden analysiert.

Dem von den Forschern entwickelten Modell zufolge wäre der Schwerlastverkehr in Bezug auf Fracking an einer individuellen Bohrstelle, einem Feld mit mehreren Bohrungen oder sogar einer ganzen Region vernachlässigbar im Vergleich zum Transportwesen in der Region als Ganzes oder im Vergleich mit einigen anderen Emissionen von etablierten Industriebereichen. Allerdings zeigten die Forscher auch die Möglichkeit auf, dass es zu einer Zunahme von Partikelemissionen kommen könnte während des Fracking-Prozesses, der es erforderlich macht, dass hunderte Lastwagen Wasser und Sand zu einer Bohrstelle bringen, obwohl aus der Studie nicht hervorgeht, ob Verschmutzungs-Standards überschritten werden würden.

Verschmutzungen durch kleine Partikel welcher Art auch immer können Auswirkungen auf die Gesundheit von Anwohnern haben, falls sie über gesundheitsbasierte Standards hinausgehen. Aber die Menschen müssten diesem Partikel-Bombardement lange Zeit ausgesetzt sein, um negative Gesundheitsauswirkungen hervorzurufen. Deshalb wird die Einwirkung schädlicher Partikel typischerweise gemessen als ein zeitlich gewichtetes Mittel über eine Reihe von Jahren (in den USA drei Jahre) um bestimmen zu können, ob es negative gesundheitliche Auswirkungen gibt. Die kurze Dauer, während der es den Schwerlastverkehr während des Frackings geben würde, hätte wahrscheinlich kaum Auswirkungen auf dieses längerfristige Mittel.

Ironischerweise könnte Fracking eine wichtige Rolle spielen bei der Reduktion von Partikel-Verschmutzung in UK während der kommenden Jahrzehnte, weil UK große Mengen von Dieseltreibstoff verbrannt hat, was weit mehr Partikel in die Luft freisetzt als die Verbrennung von Erdgas zur Stromerzeugung.

Eine stärkere Versorgung mit bezahlbarem Erdgas wird unabdingbar sein, falls UK auf Kohle und Diesel basierende Treibstoffe durch Erdgas ersetzen will, erzeugen diese doch Stickstoffoxide und einen Partikelausstoß auf deutlich höherem Niveau als Erdgas-Kraftwerke. Außerdem emittiert die Verbrennung von Erdgas etwa ein Drittel weniger CO2 in die Luft als Benzin oder Diesel [puh! Ohne das geht es wohl nicht! Anm. d. Übers.]

Obwohl die Autoren der Studie nicht begeistert tun über die Ergebnisse ihrer Studie, sollten es die Menschen in UK sehr wohl sein, weil in weiter gesteckten Zeitrahmen – die gesamte Lebensdauer einer Bohrstelle – Fracking nur zu einer vernachlässigbaren Zunahme grundlegender Verkehrsauswirkungen führen würde. Diese Ergebnisse zusammen mit den umweltlichen Vorteilen von Erdgas im Vergleich zu Kohle oder Diesel sollten umweltbewusste Menschen dazu bringen, über die umweltlichen Vorteile von Fracking noch einmal nachzudenken.

Link: http://news.heartland.org/editorial/2016/04/13/authors-fracking-study-dismayed-good-news

Übersetzt von Chris Frey EIKE




Beeinflusst die Sonnenaktivität die Luftströmungen über Deutschland?

Bild rechts: Sonnenaufgang (mit undeutlicher „Nebensonne“) bei Jena. Foto: Stefan Kämpfe

Einleitung

Die Sonnenaktivität unterliegt kurz-, mittel- und langfristigen Schwankungen. Ein sehr grobes, aber mit geringem Aufwand zu beobachtendes und daher das einzige über längere Zeiträume verfügbare Maß der Sonnenaktivität ist die Anzahl der Sonnenflecken (dunklere und damit etwas kühlere Bereiche auf der Sonnenoberfläche, die meist auf einen erhöhten solaren Magnetismus und Teilchenauswurf hindeuten). Da für diese Arbeit nur Daten im Zeithorizont von knapp 70 bis 135 Jahren verfügbar waren, sollen als wichtigste Aktivitätszyklen nur der SCHWABE- Zyklus (etwa 11jährig), der HALE- Zyklus (22jährig), der BRÜCKNER- Zyklus (etwa 35jährig, strittiger, von vielen Forschern angezweifelter Zyklus), der GLEISSBERG- Zyklus (knapp 90jährig) und der DE- VRIES- SUESS- Hauptsonnenzyklus (etwa 200jährig) genannt werden. Es gibt auch noch längere Zyklen von 1000 bis über 2000 Jahren Länge, deren Existenz mittels Proxydaten, unter anderem der Konzentration bestimmter Isotope, nachgewiesen wurde. Den ähnlichen Verlauf zwischen der Sonnenaktivität und den mittleren Temperaturabweichungen in Mitteleuropa verdeutlichen die folgenden 2 Abbildungen:

Abb. 1a und 1b: Anomalien der Sonnenfleckenanzahl je SCHWABE- Zyklus (oben) und mittlere Temperaturabweichung in Mitteleuropa je SCHWABE- Zyklus (unten), jeweils mit Polynom- Ausgleichskurven (schwarz). Quelle: H. MALBERG, ehemaliger Direktor des meteorologischen Instituts der FU Berlin. Die Ähnlichkeit beider Verläufe ist unverkennbar; in Phasen mit weniger Sonnenflecken (geringere Aktivität) dominierten negative, in Phasen mit erhöhter Sonnenaktivität hingegen positive Temperaturabweichungen.

Die nächste Abbildung veranschaulicht den Zusammenhang zwischen Sonnenaktivität und Lufttemperaturen anhand des GLEISSBERG- Zyklus:

Abb. 2: Enge Korrelation zwischen der an der Erdoberfläche gemessenen Lufttemperatur der nördlichen Hemisphäre (dicke Kurve) und der Intensität der Sonnenfleckentätigkeit im säkularen Gleissberg- Zyklus (dünne Kurve) nach Friis-Christensen und Lassen. Quelle: http://www.schulphysik.de/klima/landscheidt/sonne2.htm

Untersuchungsergebnisse

Der Autor dieses Beitrages beschäftigt sich seit einigen Jahren mit der Entwicklung der Häufigkeitsverhältnisse der Großwetterlagen in Mitteleuropa und fand dabei Zusammenhänge zwischen der Häufigkeit bestimmter Wetterlagen und der Sonnenaktivität:

Abb. 3a und 3b: Sonnenfleckenanzahl und Großwetterlagenhäufigkeiten (jeweils 11jährige Gleitmittel, Großwetterlagen- Cluster aus den Großwetterlagen nach HESS/BREZOWSKY). Oben tendenziell mehr Lagen mit nördlichem Strömungsanteil (blau) im Jahresmittel in Phasen mit geringerer Sonnenaktivität (gelb). Lagen mit nördlichem Strömungsanteil wirken in Deutschland meist abkühlend, besonders im Frühling und Frühsommer. Unten Häufigkeit atlantischer Tiefdruckwetterlagen (violett, diese windigen Westlagen sind im Winter meist mild) und der Troglagen (extrem meridionales Strömungsmuster, die Westdrift ist blockiert) im Winter. In Phasen mit höherer Sonnenaktivität häuften sich meist auch die atlantischen Tiefdruckwetterlagen; in Phasen mit geringer Sonnenaktivität (so auch gegenwärtig!) hingegen die Troglagen.

Die Großwetterlagenhäufigkeit (langfristig bis 1881, mit Unsicherheiten bis 1871 verfügbar sind nur die nach HESS/ BREZOWSKY klassifizierten Lagen) wird jedoch auch von zahlreichen anderen Eiflussfaktoren gesteuert, unter anderem von der NAO und der QBO (Nordatlantische Oszillation, und Quasi- zweijährige Oszillation der Stratosphärenwindrichtung, bedeutsam sind beide für die winterlichen Temperaturverhältnisse), der AMO (Atlantische Mehrzehnjährige Oszillation), den Temperaturverhältnissen im Indik und Pazifik, der arktischen Eisbedeckung und weiteren Faktoren. Näheres unter anderem bei http://www.eike-klima-energie.eu/climategate-anzeige/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/ und http://www.eike-klima-energie.eu/climategate-anzeige/winter-201415-in-deutschland-erneut-zu-mild-warum/

Die Großwetterlagen werden aber ganz maßgeblich durch die Verhältnisse in höheren Luftschichten geprägt. In sogenannten Aerologischen Datensätzen findet man monatsweise Angaben zu den Windverhältnissen in höheren Luftschichten und Angaben zu den Höhenlagen der Druckflächen. Der „Zonalwind“ ist ein Maß für die Stärke des entlang der Breitenkreise (West- Ost-Richtung) wehenden Windanteils. Hat er ein positives Vorzeichen, so weht er aus Westen; bei negativem aus Osten. Im Folgenden wurde die Zonalwindstärke in der 500hPa- Druckfläche für den Gitterpunkt 50°N 10°E (liegt etwas südlich der Rhön und damit zentral in Deutschland) im Verhältnis zur Sonnenaktivität für den meteorologischen Winter (01.12. bis 28./29.02.) seit 1948/49 und für das Jahr seit 1948 dargestellt:

Abb. 4a und 4b: Zonalwindmittel (rot) für die Druckfläche 500 hPa (entspricht etwa 5.600 Metern Höhe im Mittel) am Gitterpunkt 50°N und 10°E, dazu die Sonnenaktivität (gelb, jeweils unten) und der Verlauf der AMO (grün, jeweils oben). Fette Kurven Polynome 6. Grades, etwas dünnere, dunklere 11jährige Gleitmittel (bei der AMO nicht gezeigt). Obere Abb. Verhältnisse im meteorolog. Winter, untere für das Jahr. Man erkennt in Phasen erhöhter Sonnenaktivität tendenziell eine erhöhte Zonalwindgeschwindigkeit. Zur AMO ergeben sich auf den ersten Blick keine eindeutigen Beziehungen; hier sind weitere Untersuchungen erforderlich.

Da Mitteleuropa in der Westwindzone der gemäßigten Breiten liegt, weht der Zonalwind im Jahresmittel stets und im Monatsmittel fast immer aus Westen (positives Vorzeichen). Weil die Witterungsverhältnisse am Boden von der Strömung in der mittleren Troposphäre ganz wesentlich gesteuert werden, gibt es in Zeiten mit höherer Zonalwindgeschwindigkeit tendenziell mehr Westlagen, was vorrangig im Winter, aber auch im Jahresmittel, zu höheren Lufttemperaturen in Deutschland führt (Golfstrom- Einfluss im weitesten Sinne):

Abb. 5a und 5b: Eine höhere Zonalwindgeschwindigkeit in der mittleren Troposphäre geht mit einer erhöhten Häufigkeit von Großwetterlagen mit Westanteil einher. Mit einem Korrelationskoeffizienten von r=0,59 (Bestimmtheitsmaß knapp 0,35) ist der Zusammenhang signifikant (oben). Mehr Lagen mit Westanteil bedeuten tendenziell höhere Jahresmitteltemperaturen in Deutschland (untere Abb.). Zwar ist der Zusammenhang mit r= 0,32 relativ undeutlich; betrachtet man aber nur den Winter, so ergibt sich im Zeitraum 1948/49 bis 2015/16 ein Korrelationskoeffizient von r=0,72 (Bestimmtheitsmaß knapp 52%), was hoch signifikant ist.

Abschließend werfen wir noch einen kurzen Blick auf die Höhenlage der 500 hPa- Druckfläche. Liegt diese höher, so befindet sich Warmluft in der mittleren und unteren Troposphäre, was meist (mit Ausnahmen!) auch höhere Lufttemperaturen am Boden zur Folge hat. Eine höhere Lage der 500 hPa- Druckfläche ist auch ein Indiz für eine nördlichere Lage des Jet- Streams und damit für ein insgesamt günstigeres (wärmeres) Klima in Deutschland. Der Zusammenhang zwischen Sonnenaktivität und Höhenlage der 500 hPa- Druckfläche ist geringer als beim Zonalwind, aber dennoch erkennbar; hier das Beispiel für den Winter:

Abb. 6: Im Winter erkennt man einen ähnlichen Verlauf der Höhenlage der 500 hPa- Druckfläche (rotviolett) und der Sonnenaktivität (gelb), beides mit 11jährigem Gleitmittel.

Zusammenfassung und Ausblick

Die Sonnenaktivität beeinflusst die Luftströmungen und Witterungsverhältnisse in Deutschland. Deutlich erkennbare Zusammenhänge bestehen zu den Häufigkeitsverhältnissen der Großwetterlagen (tendenziell mehr „Westwetter“ in Phasen mit hoher, aber mehr Nord- und Trogwetterlagen in Phasen mit geringerer Sonnenaktivität) und zu den Windverhältnissen in höheren Luftschichten (tendenziell erhöhte Westwind- Geschwindigkeit in Phasen mit erhöhter Sonnenaktivität). Ob auch Zusammenhänge zwischen der Sonnenaktivität, Höhenwindverhältnissen und der AMO bestehen, ließ sich, auch aufgrund des kurzen Untersuchungszeitraumes (die Aerologischen Daten waren erst ab 1948 verfügbar), nicht klären. Doch welche Bedeutung haben diese Untersuchungsergebnisse für die nahe Zukunft? Um diese Frage zu klären, betrachten wir zunächst einmal die Entwicklung und die Prognose der Sonnenaktivität im frühen 21. Jahrhundert:

Abb. 7: Monatlicher Verlauf der Anzahl der Sonnenflecken seit Januar 2000 mit Glättung (blau) und Prognose für die nächsten Jahre (rot). Der aktuelle SCHWABE- ZYKLUS Nr. 24 (rechte Bildhälfte) war schon deutlich schwächer als der 23. Zyklus, der sein Maximum kurz nach Beginn des Jahres 2000 hatte. Man erkennt die zu erwartende weiter nachlassende Aktivität (ganz rechts). Datenquelle http://www.swpc.noaa.gov/products/solar-cycle-progression

Da Witterung und Klima verzögert auf die nachlassende Sonnenaktivität reagieren, konnten wir uns in den ersten 15 Jahren des 21. Jahrhunderts noch über vorwiegend warmes Wetter freuen. Zwischen Ende 2002 und 2012 gab es jedoch schon erste, heftige Kälterückfälle (Winter 2002/03, 2004/05, 2005/06, 2008/09, 2009/10, 2010/ 11 und 2011/12). Nach dem noch sehr milden Winter 2015/16 ist die lang anhaltende Kälte zwischen Ende Februar und Ende April 2016 ein weiterer, möglicher Hinweis der beginnenden (vorwiegend solar bedingten) Abkühlungsphase, einhergehend mit einer ersten Häufung nördlicher Wetterlagen. Im „Horror- April“ 2016 gab es am Monatsanfang und noch nach dem 25.04. bergeweise Schnee in den Mittelgebirgen; aber selbst in tieferen Lagen schneiten die Frühlingsblüten teilweise ein:

Abb. 8: April- Schnee verdarb 2016 häufig die Frühlingsgefühle und die Baumblüte- ein Vorbote der möglichen Klimaabkühlung oder eine bloße Laune der Natur? Foto: Stefan Kämpfe

Und was passiert nach 2020? Die meisten Astrophysiker gehen von einer weiter nachlassenden Sonnenaktivität aus; der kommende 25. SCHWABE- Zyklus dürfte extrem schwach werden oder ganz ausfallen:

Abb. 9: Verlauf der Sonnenfleckenzahlen seit 1749. Man erkennt die sehr hohe Aktivität in der 2. Hälfte des 20. Jahrhunderts. Der nächste (25.) SCHWABE- Zyklus, der um oder kurz nach 2020 beginnen müsste, könnte extrem schwach ausfallen; diese Prognose ist aber noch sehr unsicher. Quelle der Abb. klimaskeptiker.info vom 25.01.2012, überarbeitet von Stefan Kämpfe

Schon ist ein neues „Maunder- Minimum“ (Höhepunkt der „Kleinen Eiszeit“ um 1680) in aller Munde. Aber selbst wenn dieses Horror- Szenario ausbleiben sollte und die Sonne weniger stark schwächelt, mit wieder öfter strengen Wintern, einer mindestens leichten Gesamtabkühlung und mit häufigeren Witterungsextremen müssen wir sehr wahrscheinlich rechnen. Die "Klimaerwärmung" findet nur in den realitätsfernen Modellrechnungen der überfinanzierten Klimaforschungsinstitute statt.

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher