Parteitags­beschluss der GRÜNEN: Die gleich­geschlecht­liche Ehe ist Bedingung für den Kohle­ausstieg

Unter ihrem Wahlslogan, der zu wirklich allem und nichts so nichtssagend passt, aber gerade dadurch die fehlende, durch reinste Ideologie und Ökoschwafelei ersetzte Substanz treffend beschreibt, verkündeten sie:
ZDF: [1] … Die Grünen wollen bis 2030 raus aus der Kohleenergie: Angetrieben von US-Präsident Trumps „America First“ setzen sie den Klimaschutz ganz oben auf ihre Parteitagsagenda. „Climate First“ heißt ihre Devise.
… Dieser Kompromiss sei zugleich radikal, realistisch und verantwortungsbewusst, sagte Spitzenkandidat Cem Özdemir. Im November hatten die Delegierten in Münster noch den kompletten Kohleausstieg bis 2025 beschlossen.
… In einem Rundumschlag kritisierte Fraktionschef Anton Hofreiter die Umweltpolitik der Bundesregierung. „Es geht um uns und unsere Lebensgrundlagen, und diesen Kampf müssen wir gewinnen“, sagte er. Der angekündigte Ausstieg der USA aus dem Pariser Klimaschutzabkommen sei ein „Verbrechen an der Zukunft der gesamten Menschheit“.
„Um das international zugesagte deutsche Klimaziel für das Jahr 2020 überhaupt noch schaffen zu können, werden wir unverzüglich die 20 dreckigsten Kohlekraftwerke vom Netz nehmen und den CO2-Ausstoß der verbleibenden Kohlekraftwerke analog zu den Klimazielen deckeln. Wir werden den Kohleausstieg in Einklang zu unseren Zielen 100 Prozent Erneuerbaren Energien im Strombereich bis 2030 gestalten.
Die Grünen haben die Ehe für Schwule und Lesben zur Bedingung für eine Koalition im Bund gemacht. „Mit uns wird es keinen Koalitionsvertrag ohne die Ehe für alle geben“…

Was haben gleichgeschlechtliche Ehe und Kohleausstieg miteinander gemein?

Wahrscheinlich nichts. Außer man betrachtet es soziologisch und hat damit ein Beispiel, wie hochgradig verrückt und abgehoben Parteien inzwischen auch in Deutschland geworden sind. Man vermisst nur noch die Korruption und Vetternwirtschaft wie in anderen Ländern. Allerdings hat da das EEG mit seiner Klientelpolitik schon den Einstieg gewiesen. Zum Beispiel konnte der (ehemals) viel bewunderte Gründer von Solarworld (inzwischen im wohl abschließenden Konkurs) als führender Grüner Politiker gleichzeitig die EEG-Gesetzte mit festlegen und eine Firma gründen, die diese gleich umsetzte (und ihn mehr als reich machte).

Was man nur noch resigniert feststellt, ist diese absolute Gläubigkeit, das Spurengas CO2 würde den Untergang der Welt verursachen (was natürlich nicht auf die GRÜNEN beschränkt ist) und die vollkommene Ignoranz, sich mit der physikalisch viel einfacheren Stromversorgung zu beschäftigen und die Problematik der Grundlast und Speicherung erkennen zu wollen. Dies erscheint allerdings weniger als Wunder, sondern als bewusst herbeigeführte Unfähigkeit. Einmal müssen sich die Delegierten auf Parteitagen zur Vorbereitung als Gehirnwäsche hanebüchene Klima-Propaganda-Vorträge anhören:
EIKE: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann
und wesentliche Fachperson*innen der GRÜNEN haben keinerlei Ausbildung (und man darf ruhig annehmen, auch kein tiefer gehendes Wissen) zu ihrem Fachgebiet, trauen sich aber wichtige Aussagen zu.

GRÜNES Fachpersonal

Die Fachfrau der Grünen, die Klimaexpertin Annalena Baerbock forderte:
[2] „Wir müssen radikaler werden!“ Es sei die „historische Aufgabe“ der Grünen, dafür zu sorgen, dass das Pariser Klimaabkommen umgesetzt werde. Das Jahr 2037 als Kohleausstiegsdatum anzupeilen, heiße, dass „die vollständige Dekarbonisierung rausgestrichen wird“.
Diese Fachfrau studierte laut ihrer Homepage: Politikwissenschaft sowie Öffentliches Recht+,
hat also alle Voraussetzungen, um kein technisches Wissen über Elektroenergie zu haben und so unbelastet jede Parteiideologie ohne Gewissensbisse voll und ganz vertreten zu können.

Nichts wäre schlimmer gewesen als wenn im Jubel über die Eingebungen der Parteitagsdelegierten zu wenig zu fordern. Deshalb kam auch aus Berlin, der Stadt der Finanz- und sonstiger Katastrophen, aber Vorbild im Radwegbau und CO2-Minderung zu Sensationskosten [3] die Ergänzung:
Frau Regine Günther: [2] Das nun beschlossene Ausstiegsjahr 2030 soll nach dem Willen der Grünen auch für den Verbrennungsmotor gelten. Dann „sollen nur noch abgasfreie Autos vom Band rollen“ …
Diese Frau sitzt als Parteilose für die Grünen im Berliner Senat für Umwelt, Verkehr und Klimaschutz. An Fachkenntnis kann sie vorweisen: Studium der Politischen Wissenschaft sowie Mittlere- und Neuere Geschichte, vor allem aber:
Ehemals Generaldirektorin Politik und Klima bei der Umweltstiftung WWF.

Wo Wissen fehlt, haben Gurus und Weltretter leichtes Spiel

Leider muss man feststellen, dass Energie und Klima eine Beschäftigungsdomäne für Politik- und ähnliche, nicht-technisch ausgerichtete Fächer Studierte geworden sind. Dass solche (in der Menge kaum sinnvoll zu beschäftigenden) Absolvent*innen inzwischen von den Unis wie am Fließband ausgespuckt werden, dürfte ein wesentlicher Grund sein, warum das Thema nicht mehr in vernünftige Bahnen zurückkommt. Wer würde schon freiwillig seinen Arbeitsplatz für überflüssig erklären.

Man nehme beispielhaft das (für die magere Klickrate gegenüber EIKE) geradezu aufgeblähte Redaktionsteam von klimaretter.info: Von den sieben Redakteur*innen hat keiner eine technisch orientierte Ausbildung oder Studium, welches die Themen Klima und EEG in der benötigten Tiefe verstehbar machen würde. Dafür aber in Politik, Geisteswissenschaften, Journalismus und vor allem Erfahrung in Umwelt-Aktivismus.

Das gilt auch allgemein und lässt sich anhand der bisherigen Bundes-Umweltminister*innen und ihren Fachausbildungen deutlich machen.
– Barbara Hendricks: Geschichte und Sozialwissenschaften
– Peter Altmaier: Jurist
– Norbert Röttgen: Jurist
– Sigmar Gabriel: Politik/Soziologie/Germanistik
– Jürgen Trittin: Diplom-Sozialwirt
– Angela Merkel: Physik mit Zusatzausbildung Agitation
– Klaus Töpfer: Diplom-Volkswirt
– Walter Wallmann: Rechts- und Staatswissenschaften sowie Politik

International sieht es nicht eine Spur besser aus. Kein Wunder, dass clevere Agitatoren leichtes Spiel haben und geglaubt wird, Computerspiele – neudeutsch Klima-Simulationen – könnten das Klima vorhersagen:
Blue Planet Prize für Schellnhuber: Schellnhuber erhält den Preis unter anderem dafür, dass er mitgeholfen hat, das Zwei-Grad-Ziel zu etablieren … Auch Schellnhubers Beitrag bei der Entwicklung des Konzepts der Kippelemente nennt die Stiftung als Grund für die Ehrung,
und mit Gott und esoterischem Gedankengut könnte es der Mensch lenken:
Frau Merkel: Scheitert Paris, dann scheitert die Schöpfung
Al Gore Says God Told Him to Fight Global Warming

Wenn es um die Fleischtöpfe geht, ist das für die anderen Parteien kein Hindernis

Den GRÜNEN muss man leider zugutehalten, dass, mögen ihre Ideen und Beschlüsse auch noch so abstrus sein, die Vorgabe von Frau Merkel gilt: Was GRÜN kann, können auch wir. Dass etablierte, kleine Parteien dagegen kein Hindernis bilden wenn gute Posten rufen, sei nur am Rande festgestellt.
klimaretter.info: [4] „Jamaika“ will Kohleausstieg komplettieren
Schleswig-Holsteins neue Regierung aus CDU, FDP und Grünen will den Kohleausstieg schaffen. Das geht aus ihrem Koalitionsvertrag hervor, dem am heutigen Freitag alle Verhandler zugestimmt haben.

Der Deutsche Staatsfunk weiß noch mehr

Der Deutsche Staatsfunk ergänzte seine „Berichterstattung“ um zusätzliche Information. Wohl um zu zeigen, wie recht die GRÜNEN doch haben, informiert er die Bürger im Report zusätzlich über die großen Kostenvorteile des EEG.
ZDF, 17.06.2017, Quelle:dpa, afp: [1] Erneuerbare oft günstiger
Es wurden mehr Ökostrom-Kraftwerke gebaut als fossile. Hauptgrund ist, dass in den meisten Teilen der Erde inzwischen Strom aus Wind, Wasser oder Sonne günstiger erzeugt werden kann als mit neuen Kohle-, Öl- oder Gaskraftwerken. Dies gilt im Kern auch für Deutschland. Windparks auf hoher See sollen beispielsweise ganz ohne staatliche Förderung gebaut werden.

Unterschlagen hat es dabei, dass dies nur gelten würde, wenn konventionelle Kraftwerke massiv mit CO2-Zusatzkosten belegt werden und alle Infrastruktur-Maßnahmen, Backupsysteme und Speicher, welche das EEG zusätzlich enötigt, bei den Kosten keine Berücksichtigung finden. Dass man die erforderlichen Speicher noch nicht entfernt hat, wurde ebenfalls „vergessen“.

Wie die wirklichen Kosten beispielhaft liegen, wurde erst kürzlich gezeigt:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
Dass in Ausschreibungen teils noch nicht einmal genehmigte Windanlagen mit dem Strom-Nettopreis in die Größenordnung konventioneller Kraftwerks-Abgabekosten kamen, ist noch lange kein Preisdurchbruch. Diese Anlagen werden einmal von vielen Kosten entlastet, können keine Grundlast und ob sie mangels Rendite nicht vielleicht bald nach dem Betrieb pleite gehen [6], wagt auch noch niemand vorherzusagen. Aber bewusste Desinformation hat beim EEG immer noch Methode [5].

Am einfachen Preisvergleich mit den anderen EU-Staaten und dem Kostenverlauf seit Einführung des EEG kann man den deutschen EEG-(Hochpreis-)„Erfolg“ jedenfalls nicht nur sehen, sondern bezahlen.


Quellen

[1] ZDF 17.06.2017: Bundesparteitag in Berlin Grüne wollen „Climate First“

[2] klimaretter.info: Grüne wollen Kohleausstieg bis 2030

[3] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[4] klimaretter.info, 16. Juni 2017: „Jamaika“ will Kohleausstieg komplettieren

[5] EIKE 15.06.2017: Fake News: Diesmal Klimaretter und Stadtwerke: Die Stromspeicherung kostet vielleicht ein oder zwei Cent

[6] EIKE 18. Juni 2017: Negative Preise – Planillusion und bizarrer Markt




20 weitere neue Studien weisen einen solaren Antrieb bzgl. Klima­wandel nach – macht für das Jahr 2017 bereits 80 derartige Studien

Die 20 jüngsten Studien zu Sonne vs. Klima

Wir bestätigen das Auftreten eines bevorstehenden Modernen Großen Minimums von 2020 bis 2053 … und dass die prophezeite Erwärmung im nächsten Jahrhundert extrem falsch ist“ – Zharkova et al. 2017

Gray et al., 2017: Es gibt viele vorgestellte Prozesse, mittels welcher der 11-Jahre-Sonnenzyklus (SC) das Klima der Erde beeinflussen könnte, wie in Abbildung 1 zusammengefasst. Darunter sind: a) der direkte Einfluss der Variabilität der solaren Einstrahlung auf die Temperaturen an der Erdoberfläche, charakterisiert durch Variationen der Gesamt-Einstrahlung TSI; b) die indirekte Auswirkung von Variationen durch die Absorption von UV-Strahlung in der oberen Stratosphäre in Verbindung mit der Gegenwart von Ozon; c) die indirekte Auswirkung von Variationen des Flusses energetischer Partikel in die Thermosphäre, Mesosphäre und obere Stratosphäre in höheren Breiten; und d) die Auswirkung von Variationen bei der Entstehung von Ionen durch kosmische Strahlung (GCR), welche in die Troposphäre eindringt. Obwohl alle diese Prozesse ihrer Natur nach unterschiedlich sind, dürften diese vier Prozesse nicht isoliert voneinander ablaufen, aber ihr Einfluss könnte synergetisch sein.

—————————————-

Zharkova et al., 2017: Unter Verwendung einer Summenkurve von zwei Eigenvektoren [eigen vectors ?] von Oszillationen des solaren Magnetfeldes, abgeleitet mittels einer Principal Components Analysis (PCA) aus synoptischen Karten für die Sonnenzyklen 21 bis 24 als Proxy der Sonnenaktivität, extrapolieren wir diese Kurve zeitlich um 3 Jahrtausende zurück. Dabei zeigen sich 9 Große Zyklen [Grand Cycles] mit einer Dauer von jeweils 350 bis 400 Jahren. Die Summenkurve zeigt eine bemerkenswerte Ähnlichkeit mit der Sonnenflecken- und terrestrischen Aktivität in der Vergangenheit: Große Minima – Maunder Minimum (1645 bis 1715), Wolf-Minimum (1280 bis 1350), Oort Minimum (1010 bis 1050) und Homer Minimum (900 bis 800 v. Chr.). Aber auch die Großen Maxima tauchen auf: Moderne Warmzeit (1990 bis 2015), Mittelalterliche Warmzeit (900 bis 1200), Römische Warmzeit (400 bis 10 v. Chr.) und andere. Wir verifizieren den extrapolierten Aktivitätsverlauf durch Beobachtungen von großen Sonnenflecken vor der Erfindung von Teleskopen mit bloßem Auge und dem Vergleich mit den beobachteten und den simulierten Schmetterlings-Diagrammen für das Maunder-Minimum mittels eines Maximums der terrestrischen Temperatur und extremer Himmelsfärbung (auroras), welche im 14. bis 16. Jahrhundert im vergangenen Großen Zyklus beobachtet worden waren.

Wir bestätigen das Auftreten eines Modernen Großen Minimums von 2020 bis 2053, welches aber nicht so lange dauern wird (3 Zyklen) und folglich einer höheren Sonnenaktivität im Vergleich zum Maunder-Minimum. … Ein Beispiel, wie man fälschlich die Oszillations-Funktion mit einer linearen Regression ermittelt, wird von Akasofu (2010) gezeigt (siehe darin die Abbildung 9). Damit wollte er die Erholung der Erde aus der Kleinen Eiszeit erklären sowie den fehlerhaften Gebrauch eines linearen Teils der Temperatur-Variationen für die extrem falsche Vorhersage des terrestrischen Temperaturanstiegs im nächsten Jahrhundert.

—————————————-

Harde, 2017: Eine natürlich erzeugte CO2-Emission trägt zu über 95% zur Gesamt-Emission bei, und dessen Entstehungsrate sowie die jeweilige Absorptionsrate reagieren empfindlich auf globale Temperaturvariationen. … Die bekannte verzögerte Reaktion von CO2 und Methan auf Temperaturänderungen von Land und Wasser (see, e.g., Petit et al. [2]; Monnin et al. [3]; Caillon et al. [4]; Torn and Harte [5]; Humlum et al. [6]; Salby [7]) werden vom AR 5 des IPCC nicht berücksichtigt. … Solange jedwede natürliche Variationen der CO2-Konzentrationen nicht bekannt sind, kann die Gleichgewichts-Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes nicht allein als zuverlässiger Indikator einer anthropogen verursachten Erwärmung herangezogen werden.

Das IPCC leugnet jeden merklichen solaren Einfluss auf das tatsächliche Klima, obwohl es starke Beweise für die zugenommen habende Sonnenaktivität während des vorigen Jahrhunderts gibt (Hoyt & Schatten [8]; Willson & Mordvinov [9]; Shapiro et al. [10]; Ziskin & Shaviv [11]; Scafetta & Willson [12]; Usoskin et al. [13]; Zhao & Feng [14]; Soon et al. [15]). … Aus diesen Studien schließen wir, dass die gemessene Erwärmung von 0,74°C im Zeitraum 1880 bis 2000 am besten mit einem Wolken-Rückkopplungs-Prozess erklärt werden kann, welcher vom solaren Einfluss dominiert ist. Daher scheint es sehr vernünftig, einen Modellmittelwert von 0,7°C als Klimasensitivität bei einer CO2-Verdoppelung anzusetzen. Daraus ergäbe sich eine CO2-induzierte Erwärmung von 0,3°C (von 1880 bis 2000) und einen Solaren Beitrag von 0,44°C (von 1880 bis 2000).

—————————————-

Pande et al., 2017: Ozon ist eine hoch reaktionsfreudige, natürliche Zutat der Stratosphäre, welches mittels Sonnenlicht aus Sauerstoff entsteht. Es ist eine der bedeutendsten Chemikalien sowohl in der Stratosphäre als auch in der Troposphäre. Neben der Absorption der schädlichen solaren UV-Strahlung spielt Ozon auch eine bedeutende Rolle hinsichtlich des Klimas der Erde. Die solare Variabilität beeinflusst das Ozon mittels Strahlungs-Aufheizung in der Atmosphäre. Solare-UV-Strahlung wird von atmosphärischem Ozon absorbiert. Sie ist ursächlich sowohl für die Entstehung als auch den Zerfall von Ozon. … Es zeigte sich, dass das Gesamt-Ozon während magnetisch gestörter Bedingungen verstärkt war, was zusammenhing mit Perioden stärkster Sonnenaktivität. Angell und Korshover (1976) zeigten, dass es eine nahezu In-Phase-Beziehung gibt zwischen Sonnenfleckenzahl und Gesamtozon.

—————————————-

Le Mouël et al., 2017: Die Sonnenaktivität enthält eine wichtige Komponente, welche während der letzten drei Jahrhunderte klare Oszillationen von ~90 Jahren durchlaufen hat mit einigen kleinen, aber systematischen längerzeitlichen Entwicklungen „augenblicklicher“ Periode und Amplitude. Die Hälfte der Varianz der Sonnenaktivität in diesen Zeitmaßstäben kann befriedigend reproduziert werden als Summe einer monotonen, multi-säkularen Zunahme, eines ~90-jährigen Gleissberg-Zyklus‘ und eines Schwabe-Zyklus‘ (mit einer Doppelspitze von ~10,0 und ~11,0 Jahren). Die Summe addiert sich zu 46% der Gesamtvarianz des Signals. Die Komponente des Gleissberg-Zyklus‘ muss definitiv betrachtet werden, wenn man versucht, Dynamo-Modelle der Sonnenaktivität zu konstruieren. Die erste SSA-Komponente ist ein klarer Beweis für einen langfristigen Trend der Sonnenfleckenzahlen, welche kompatibel ist mit der Existenz eines modernen Grand Maximum.

—————————————-

Wen et al., 2017: „Ein wärmeres und nasseres Klima herrscht seit ~4800 Jahren. Es war unterbrochen von einer scharfen kalten Phase vor etwa 3300 Jahren, vermutlich ausgelöst durch den solaren Strahlungsantrieb. Dies führte zu einer globalen Klimaabkühlung und vorstoßenden Gletschern.

—————————————-

Munz et al., 2017 : Die dekadische Auflösung der Aufzeichnung des Oman upwelling deutet auf den solaren Antrieb des Indischen Sommermonsuns (9-6 ka) … Wir zogen geochemische Parameter heran, Transfer-Funktionen von Plankton-Gemeinschaften [planktic foraminiferal assemblages] und Mg/Ca-Paläo-Thermometrie. Dabei fanden wir Beweise, welche die Ergebnisse früherer Studien bestätigen, denen zufolge die Intensität des Upwelling signifikant variiert in Kohärenz mit solaren Sonnenflecken-Zyklen. Der dominante, rund 80 bis 90 Jahre lange Gleissberg-Zyklus beeinflusste offenbar auch die Sauerstoff-Bedingungen am Meeresgrund.

—————————————-

Allan et al., 2017: Höhlen werden mittlerweile als wertvolles Archiv von Klimabedingungen auf den Kontinenten angesehen, bieten sie doch eine Anzahl von Vorteilen relativ zu anderen kontinentalen Klima-Proxies wie Sedimenten und Bohrkernen aus dem Schlamm. … Spurenelemente in Höhlen haben das Potential, eine hohe Auflösung der paläoklimatischen Variabilität während des Holozäns zu zeigen. Eine genauere Analyse enthüllt viele Perioden mit rapiden Klimaänderungen während des Holozäns (vor 10,7 bis 9,2; 8,2 bis 7,9; 7,2 bis 6,2; 4,8 bis 4,5 und 3 bis 2,4 Jahren [alle Zahlen multipliziert mit tausend]). Sie sind gleichlaufend mit den Kaltereignissen, welche aus verschiedenen natürlichen Paläoklima-Archiven hervor traten. Ein Vergleich zwischen der geochemischen Analyse [der Bedingungen in der] Père Noël-Höhle und der Sonnenaktivität (Sonnenfleckenzahl) zeigt eine signifikante Korrelation. Spektrale Analyse-Verfahren enthüllen gemeinsame solare Periodizitäten (Gleissberg-Zyklus, de Vries-Zyklus, einen nicht benannten 500-Jahre-Zyklus, Eddy-Zyklen und Hallstatt-Zyklus). Die geochemischen Analysen haben das Potential zu beweisen, dass Bedingungen in Höhlen empfindlich auf Änderungen der Sonnenaktivität reagieren im Zeitmaßstab von Jahrhunderten und Jahrtausenden während des Holozäns.

—————————————-

Woodson et al., 2017: Während der letzten ca. 1000 Jahre wurden die wärmsten Wassertemperaturen (SST) aufgezeichnet mit einem Mittel von 28,5°C. Wir zeigen zum ersten Mal für dieses Gebiet ein etwa 1000 Jahre langes kühles Intervall mit seinem Höhepunkt vor etwa 5000 Jahren, was einherging mit einer nassen Periode in Borneo. Die Aufzeichnung reflektiert auch ein warmes Intervall von vor 1000 bis 500 Jahren, welches die Mittelalterliche Klima-Anomalie repräsentieren könnte. Variationen des ostasiatischen Monsuns (EAM) und der Sonnenaktivität werden als potentielle Treiber von SST-Trends betrachtet. Allerdings dürften hydrologische Änderungen der ENSO-Variabilität, Verschiebungen des westpazifischen Warm-Pools und Migration der Innertropischen Konvergenzzone eher unseren zeitlichen SST-Trend beeinflusst haben … Die Trends der Sonnenaktivität (Steinhilber et al. 2012) stimmen allgemein überein mit der regionalen Abkühlung der SST (Linsley et al. 2010), und Oszillationen der Sonnenaktivität sind grob koinzident mit den wesentlichen Abweichungen unserer SST-Daten.

—————————————-

Li et al., 2017: „Die Hauptantriebe hinter Klimaänderungen im Holozän in der Lower Yangtze Region, East China (LYR) sind wahrscheinlich sommerliche Einstrahlung in Assoziation mit tropischen oder subtropischen Klimazirkulationen im Makro-Scale wie etwa der Innertropischen Konvergenzzone (ITCZ), des Westpazifischen Subtropenhochs (WPSH) und der ENSO.

—————————————-

Chang et al., 2017: Die auf Mücken basierende Aufzeichnung am Heihai-See zeigt eine sommerliche Temperatur-Fluktuation innerhalb von 2,4°C während der letzten 5000 Jahre im Ostteil des Qinghai–Tibetan Plateau (QTP). … Die sommerlichen Temperaturänderungen in diesem Gebiet reagieren primär auf die Variation des Asiatischen Sommermonsuns. Die Variabilität der Sonnenaktivität ist wahrscheinlich ein bedeutender Treiber der sommerlichen Temperaturen, entweder direkt oder durch Modifizierung der Stärke und Intensität des Indischen Ozeanischen Sommermonsuns.. … Wir fanden eine relativ lang dauernde sommerliche Abkühlungs-Episode (ca. 0,8°C niedriger als das 5000-Jahre-Mittel) von vor c. 270 cal. BP and AD c. 1956. … Die Aufzeichnung zeigt Abkühlungsperioden, welche vor 3100, 2600, 2100 und 1600 cal. auftraten. Dies spiegelt wahrscheinlich die Periode, welche allgemein als die Kleine Eiszeit der Nordhemisphäre von 1350 bis 1850 bezeichnet wird. Diese stehen möglicherweise im Zusammenhang mit mit dem solaren, quasi-periodischen 500-Jahre-Zyklus. Abkühlungsphasen von vor 270 bis 100 cal wurden ebenfalls beobachtet und sind möglicherweise verbunden mit der Kleinen Eiszeit. Dies zeigt einen Hemisphären-weiten Antriebsprozess für dieses Ereignis.

[Die Zeitangaben „c.“ und „cal“ sowie Andere bereiten mir Schwierigkeiten, denn nirgendwo finde ich eine Erklärung. Darum lasse ich sie immer wieder stehen, kursiv gesetzt. Anm. d. Übers.]

—————————————-

Lei et al., 2017: Die Niederschlags-Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten reflektiert allgemein immer Änderungen der Sonnenaktivität und der großräumigen Zirkulationen, z. B ENSO und Asiatischer Sommermonsun EASM (Chen et al. 2011, Vleeschouwer et al., 2012; Feng et al., 2014). Während der Mittelalterlichen Warmzeit war das nassere Klima in diesem Gebiet konsistent mit häufigeren ENSO-Ereignissen, stärkerem EASM und höherer Sonnenaktivität, während bei der Kleinen Eiszeit das Gegenteil gefunden wurde. Im Einzelnen sind die d13Cac-Fluktuationen im Zeitmaßstab von mehreren Jahrzehnten bis Jahrhunderten konsistent mit den Änderungen der Sonnenaktivität, wobei wenige Trocken-Intervalle mit Perioden geringer Sonnenaktivität korrespondieren innerhalb von Datierungsfehlern [Dating Errors ?]. Diese werden bezeichnet als das Oort Minimum (AD 1010-1050), Wolf Minimum (AD 1280-1340), Sporer Minimum (AD 1420-1530), Maunder Minimum (AD 1645-1715) and Dalton Minimum (AD 1795-1820). Diese Ergebnisse zeigen, dass Klimaänderungen in Südostchina auf die ENSO und den EASM reagieren, welche wiederum von der Sonnenaktivität getrieben werden.

—————————————-

Zhang et al., 2017: Die Aufzeichnungen zeigen, dass die Sommertemperatur im gesamten Zeitraum um ~2,5°C variiert. Zu einer allgemein wärmeren Periode war es gekommen zwischen c.8500 und c.6000 cal yr BP, und ein Abkühlungstrend wurde initiiert von c.5500 cal yr BP. Die Gesamt-Verteilung passt umfassend zur sommerlichen Einstrahlung bei 30°N und dem Verhalten des Asiatischen Sommermonsuns aus umliegenden Regionen. Dies zeigt, dass Sommertemperaturen im südöstlichen QTP auf Strahlungsantriebe reagieren und auf die vom Monsun getriebene Variabilität im Zeitmaßstab von Jahrtausenden. Modifizierungen dieses allgemeinen Trends treten bei feinerer zeitlicher Auflösung hervor, und wir zeigen, dass die Sonnenaktivität ein bedeutender Prozess sein kann, welcher die Variabilität im Zeitmaßstab von Jahrhunderten treibt. Sie kann einen verstärkten Effekt zum Ende des Holozäns gehabt haben, als sich der Einfluss des Monsuns abschwächte.

—————————————-

Luoto and Nevalainen, 2017: Hier verwenden wir vollständig synchronisierte paläo-limnologische und auf Proxies basierende Aufzeichnungen der Lufttemperatur und des effektiven Niederschlags [?] von zwei Seen in Skandinavien mit Sedimentprofilen, die etwa 2000 Jahre abdecken. Wir zeigen, dass die Relation zwischen Lufttemperatur und Niederschlag (T/P-Ratio) an beiden untersuchten Stellen während der gesamten Zeitreihe synchron ist. Es zeigen sich warme und trockene Bedingungen vom Jahr 300 bis 1100 sowie kalte und nasse Bedingungen von 1200 bis 1900. Aufgrund der signifikant gestiegenen Lufttemperatur ist die jüngste T/P-Ratio wieder positiv geworden. Während des ersten Jahrtausends folgt T/P den Schwankungen des Southern Oscillation Index, während T/P im zweiten Jahrtausend Reaktionen zeigt in Abhängigkeit vom NAO-Index. Aber die Ratio ist auch übereinstimmend mit Veränderungen der solaren Einstrahlung. Die Gründe für die Kleine Eiszeit LIA von 1200 bis 1900 sind nicht klar definiert infolge ihrer hoch variablen Natur (Wanner et al. 2011; Luoto and Nevalainen 2016; Zawiska et al. 2017). Und doch, zusätzlich zu einer persistent stark negativen Phase des NAO-Index‘ während der LIA wurde diese höchstwahrscheinlich getrieben von verringerter solarer Einstrahlung (darunter die Spörer-, Maunder- und Dalton-Minima), gesteigerter vulkanischer Aktivität (Aerosole) sowie Änderungen der Zirkulation im Atlantischen Ozean (Grove 2001; Goosse et al. 2005; Wanner et al. 2011).

—————————————-

Li et al., 2017: Korrelationen zwischen Aufzeichnungen der Paläo-Temperatur im Nordatlantik und Sonnenaktivität zeigen, dass Änderungen des solaren Outputs bedeutende Klimaverschiebungen im nordatlantischen Gebiet bewirken können. Um die Rolle der Sonnenaktivität bzgl. der Wassertemperatur an unserem Untersuchungsgebiet in Westgrönland zu testen, führten wir eine cross-correlation-Analyse durch zwischen unserem rekonstruierten Verlauf der sommerlichen Wassertemperatur SST und der Gesamt-Solarstrahlung TSI. Die Ergebnisse zeigen, dass der maximale Korrelations-Koeffizient (0,284) der sommerlichen SST und TSI erreicht wird bei einer Zeitverzögerung von fast Null (-6 time-lag). Dies bedeutet, dass Variationen der Sonnenaktivität die Variabilität der sommerlichen SST im untersuchten Gebiet beeinflusst. … Eine signifikant positive Relation zwischen sommerlichen SSTs auf dem Eisschild in Nordisland und der solaren Einstrahlung wurde auch von Jiang et al. gezeigt. Sie rekonstruierten diese Relation aus 10Be und 14C-Aufzeichnungen während des Holozäns. Dieses Ergebnis wird auch gestützt durch jüngste Klimamodell-Simulationen der Community Climate System Model Version 4 (CCSM4). Die Modellergebnisse zeigen eine starke positive Korrelation zwischen SST und TSI in der IC [innertropische Konvergenz?]. Dies zeigt, dass eine reduzierte Häufigkeit atlantischer Blockierungs-Lagen während Perioden mit hoher Sonneneinstrahlung für wärmere und salzigere Bedingungen im Bereich der IC sorgt wegen der stärkeren Zirkulation im Bereich der subpolaren Frontalzone. … Spektralanalysen zeigen, dass bedeutende Variationen im Zeitmaßstab von Jahrhunderten dem langzeitlichen Orbitaltrend überlagert sind. Die dominanten Periodizitäten sind 529, 410 und 191 Jahre. Diese würden sehr gut passen zu den bekannten Sonnenzyklen über 512 bzw. 206 Jahre. Cross correlation-Analysen zwischen sommerlichen SSTs und der Sonneneinstrahlung während der letzten 5000 Jahre zeigen, dass die Aufzeichnungen in Phase sind. Dies beweist, dass Variationen der Sonnenaktivität die regionale Variabilität der Sommer-SST beeinflusst. Insgesamt ist die starke Beziehung zwischen solarer Variabilität und Sommer-SSTs nicht nur regional von Bedeutung, sondern sie ist auch konsistent im gesamten Gebiet des Nordatlantiks.

—————————————-

Orme et al., 2017: Der Nord-Süd-Index zeigt, dass sich Zugbahnen von Tiefdruckgebieten aus einer südlichen Lage während der letzten 4000 Jahre in höheren Breiten verlagert haben, vermutlich gesteuert durch eine Änderung von einer meridionalen zu einer zonalen atmosphärischen Zirkulation, assoziiert mit einem Wechsel der NAO von negativ zu positiv. Wir zeigen, dass eine graduelle polare Abkühlung (verursacht durch abnehmende Sonneneinstrahlung im Sommer und verstärkt durch Meereis-Rückkopplungen) sowie eine Erwärmung der mittleren Breiten (verursacht durch eine zunehmende Einstrahlung im Winter) einen sich verstärkenden winterlichen Temperaturgradienten zum Ende des Holozäns zur Folge hat. Dies würde die beobachteten, weiter nördlich liegenden Zugbahnen von Tiefdruckwirbeln erklären.

—————————————-

Serykh and Sonechkin, 2017: Das globale Klima ist ein quasi-periodisch getriebenes dynamisches System. Zusätzlich zum jährlichen Zyklus des Wärmetransports von der Sonne und dem täglichen Zyklus der Erdrotation existieren andere externe periodische Faktoren, welche potentiell in der Lage sind, Klimafluktuationen zu verursachen. Die lunaren und solaren Tiden sind derartige Ursachen im Zeitmaßstab von einem Tag. Im Zeitmaßstab von Jahrzehnten sind diese Ursachen 11-jährige Variationen der Sonnenflecken (Wolff-Zyklus), und deren Doppelperiode manifestiert sich in den Änderungen der heliosphärischen Feld-Polarität (der Hale-Zyklus). Die Existenz säkularer solarer Zyklen ist auch möglich (Gleissberg- und Suess-Zyklus, gefunden in einer Anzahl von Sonnenflecken). Berechnungen zeigen, dass es einen etwa 180 Jahre langen Zyklus hinsichtlich der Rotation der Sonne um das Zentrum der Masse des Sonnensystems gibt. Die Autoren von (3) zeigen, dass dies in Relation steht zur Abfolge von bedeutenden Abnahmen der Sonnenaktivität während des vorigen Jahrtausends. Diese Perioden sind bekannt unter den Bezeichnungen Oort-, Wolff-, Spörer-, Maunder- und Dalton-Perioden. Es gibt paläoklimatische Beweise der Klimaabkühlung während dieser Perioden. Auf dieser Grundlage können wir folgern, dass die Dynamik des ONI (ENSO-Index) vorherrschend gesteuert wird durch zwei periodische externe Kräfte (der jährliche Wärmetransport in das Klimasystem von der Sonne und die Chandler Wobble [Präzession?] der Pole der Erde), und dass das System nicht chaotisch ist. Diese Tatsache zeigt, dass es eine prinzipielle Möglichkeit gibt für langfristige ENSO-Vorhersagen (viele Jahre im Voraus).

—————————————-

Kitaba et al., 2017: Die Abschwächung des geomagnetischen Feldes verursacht eine Zunahme der kosmischen Strahlung (GCR). Einige Forscher argumentieren, dass ein verstärkter GCR-Fluss zu einer Klimaabkühlung führen könnte infolge einer Zunahme der Bildung tiefer Wolken. Studien aus jüngerer Zeit haben Beweise für eine Verbindung gezeigt zwischen einem schwachen geomagnetischen Feld einerseits und Klimaabkühlung andererseits. … Eine stärkere terrestrische Abkühlung zeigt, dass eine Reduktion der Einstrahlung eine Schlüsselrolle spielt bei der Verbindung zwischen diesen beiden. Der wahrscheinlichste Kandidat für diesen Prozess scheint die verstärkte Albedo durch die tiefen Wolken zu sein.

—————————————-

Perșoiu et al., 2017: Während des gesamten Holozäns reagierte der unterirdische Eisblock der Scărișoara-Eishöhle empfindlich auf Änderungen sowohl der Wintertemperatur als auch der Quelle der Feuchtigkeit. Während dieses Zeitraumes wurde die Wintertemperatur im östlichen Mitteleuropa hauptsächlich kontrolliert durch Änderungen der solaren Einstrahlung. Das Wechselspiel zwischen Einstrahlungs-Variabilität, SST-Änderungen im Nordatlantik und der Einfluss des nachwirkenden [lingering] Laurentide-Eisschildes modulierte die Dynamik der großräumigen atmosphärischen Zirkluation.

—————————————-

Luthardt and Rößler: Der 11-jährige solare Zyklus, bekannt als der Schwabe-Zyklus, repräsentiert die kleinste zeitliche solare Zyklizität und kann anhand der Sonnenflecken-Aktivität zurückverfolgt werden (Douglass 1928, Lean 2000). Er hat eine messbare Auswirkung auf das Klima der Erde, wie das Maunder-Minimum belegt (Usoskin et al. 2015). Globale Klimarückkopplungs-Reaktionen auf Variationen der Sonneneinstrahlung aufgrund der Sonnenflecken sind komplex, und es wird hypothetisiert, dass sie ausgelöst werden durch 1) Variation des Gesamt-Energie-Inputs (Cubasch und Voss 2000), 2) den Einfluss der Intensität ultravioletten Lichtes auf die Zusammensetzung der Stratosphäre Lean und Rind 2001), 3) die Auswirkung kosmischer Strahlen auf die Wolkenbildung (Marsh und Svensmark 2000, Sun and Bradley 2002) und/oder 4) die Auswirkung hoch energetischer Partikel auf die Strato- und Mesosphäre (Jackman et al. 2005). … Wie auch heute verursachte die Sonnenflecken-Aktivität Fluktuationen der in die Erdatmosphäre eindringenden kosmischen Strahlung, was wiederum Auswirkung auf die Wolkenbildung und jährliche Niederschlagsraten hat.

Link: http://notrickszone.com/2017/06/12/20-more-new-papers-link-solar-forcing-to-climate-change-now-80-sun-climate-papers-for-2017/

Übersetzt von Chris Frey EIKE




Negative Preise – Planillusion und bizarrer Markt

Dem alten Gemüsehändler traten immer mehr Schweißperlen auf die Stirn, die in der Abendsonne glänzten. Aber was sollte ich tun? Ihm am Ende des Tages die letzten Tomaten aus Mitleid abkaufen? Er wollte für das Kilo wirklich nur einen Spottpreis haben, aber es lagen noch genügend Tomaten daheim. Sollte ich meine wegwerfen, statt er seine? Schließlich kam er um den Tisch herum und verbesserte sein Angebot, indem er mir die Tomaten samt Tüte schenken wollte. Aber was hätte ich davon, für ihn die Entsorgung zu übernehmen? So betrachtete ich das Gespräch als beendet und wandte mich zum Gehen. Nach wenigen Schritten hatte er mich eingeholt. Einen Euro wolle er mir zahlen, wenn ich die Tüte und Inhalt mitnehme.

Abbildung 1 oben
Am 1. Mai wurde ab Mitternacht bis 17 Uhr in deutschen Kraftwerken für negative Strompreise produ- ziert! Der Produktionsertrag von rd. 619 Millionen kWh wurde mit rd. 27 Millionen Euro (rd. 4,3 ct/kWh) an die vergütet, die bereit sind den überschüssig erzeugten Strom als Geschenk zu über- nehmen. Auf dieser Basis sind keine gerechten Löhne der erbrachten „Arbeit“ zu erwarten, für die der 1. Mai steht. Auszug aus Ausgewählte Kapitel der Energiewirtschaft von Prof. Dr. Helmut Alt
 

Während ich noch sinnierte, was ihn wohl dazu bewogen haben könnte, hatte er schon auf zwei Euro erhöht.

Auf dem Heimweg entsorgte ich die roten Früchte im Straßengraben und freute mich über drei Euro mehr in der Tasche, die ich am nächsten Bierstand zum Einsatz brachte. So war der Händler die Tomaten los und ich hatte anstelle der nicht benötigten Tomaten auch einen Vorteil.

Dunkelflaute von Frank Hennig; zu bestellen zB. hier

 

Tomaten und Elektrizität

Total unglaubwürdig, die Geschichte? Nein, nicht wenn es sich bei dem Produkt anstelle der Tomaten um elektrische Energie handelt. Bei diesem Wirtschaftsgut gibt es die Besonderheit, dass es zeitsynchron erzeugt und verbraucht oder, korrekt ausgedrückt, umgewandelt werden muss. Der Unterschied im Handel besteht nun darin, dass der Gemüsehändler die nicht mehr verwertbaren Früchte kompostiert oder verfüttert, niemals aber einem Kunden für die Abnahme noch Geld gezahlt hätte.

Anders beim Strom im weltweit einmaligen Energiewendewunderland. An 19 Tagen im Jahr 2016 taten für 97 Stunden die Stromhändler das, was der oben beschriebene Gemüsehändler in seinem Leben nie getan hätte – Ware verschenken und Geld dazugeben. Ein Zeichen erschöpfter Regelfähigkeit des Systems und Folge von Planwirtschaft, die Technologien bevorzugt (Einspeisevorrang), überwiegend fest vergütet und auf Marktsignale nicht gesamtwirtschaftlich sinnvoll reagieren kann.

Als erste Reaktion auf solche Ereignisse kommt von Seiten der Wendebewegten der Vorwurf des „verstopfenden“ Kohle- und Atomstroms. Warum fahren die Konventionellen nicht weiter zurück oder gehen außer Betrieb, wenn zum Zeitpunkt niedriger Last die Regenerativen powern? Dafür gibt es mehrere Gründe:

  • Zur Netzstabilität sind zwingend Systemdienstleistungen erforderlich (Wirk-  und Blindleistungsregelung, also Frequenz- und Spannungshaltung). Die Massenträgheit der Turbogeneratoren glättet die Mikroschwankungen im Netz. Die Netzreserve zum kurzfristigen bedarfsgerechten Hochregeln muss erhalten bleiben. Man spricht hier auch vom „Must-Run-Sockel“. Ohne Einbettung in ein stabiles und regelfähiges Netz würden die volatilen Einspeiser das Netz innerhalb von Sekunden kollabieren lassen.
  • Konventionelle Kraftwerksblöcke haben in der Regel Anfahrzeiten im Stundenbereich. Wenn man alle Blöcke an einem Standort abschalten würde, lägen die Anfahrzeiten im Bereich eines Tages. Dann könnte schon längst wieder Flaute sein.
  • Weitere Restriktionen ergeben sich durch die technisch fahrbaren Mindestlasten und die teils nötige Bereitstellung von Fern- oder Prozesswärme für Haushalte und Industrie (wärmegeführte KWK-Anlagen).
  • Für die Betreiber ist es eine wirtschaftliche Abwägung, einige Stunden Verluste in der Hoffnung auf nur kurzfristige negative Strompreise durchzuschwitzen und damit die erheblichen Außer- und Inbetriebnahmekosten zu sparen. Auch die Teilnahme am Regelleistungsmarkt fließt in die Betrachtung der Opportunitätskosten ein. Im Grunde ein betriebswirtschaftliches Problem, das neben den ohnehin niedrigen Strompreisen die wirtschaftliche Situation der konventionellen Kraftwerksbetreiber weiter verschlechtert, erkennbar an den Bilanzen von Stadtwerken und Großversorgern.

Im Jahr 2011 traten an sechs Tagen stundenweise negative Strompreise auf, 2015 an 25 Tagen, Tendenz weiter steigend. Starkwind zu Weihnachten und viel Sonne zu Pfingsten sind bei entsprechend niedrigem Bedarf die besten Voraussetzungen für negative Strompreise.

 

Bezahlte Geschenke

Am 8. Mai 2016 drückte so viel Wind- und Sonnenstrom ins Netz, dass 352 Millionen Kilowattstunden Strom und 21,3 Millionen Euro den benachbarten Energieunternehmen geschenkt wurden. Mit dieser Strommenge hätte man etwa 117.000 Dreipersonenhaushalte ein Jahr lang versorgen können. Für die deutschen Kunden wurde es teuer, denn der überschüssige Strom kostete sie per EEG 70 Millionen Euro, macht in Summe also 91,3 Millionen. Am 1. Mai 2017 waren es sogar 40 Millionen Euro Geldgeschenk ans Ausland. Für die Strombörse EEX in Leipzig ein „natürliches Phänomen des kurzfristigen Stromhandels“. Die Börse verdient bei jedem Handel mit – auch beim schlechten.

Die Unionsfraktion im Bundestag forderte, man dürfe neu gebauten Wind- und Solaranlagen bei negativen Strompreisen keine Vergütung mehr zahlen. Angesichts der zunehmenden Marktverzerrung kam die Regierung nicht umhin, die bisher für sakrosankt erklärte Einspeisevergütung tatsächlich anzutasten – wenigstens ein klein wenig. Seit 2016 gilt nun für Neuanlagen der Paragraf 24 des EEG, der festlegt, dass Windkraftanlagen größer als drei Megawatt und andere EE-Anlagen größer als 500 Kilowatt installierter Leistung bei negativen Preisen für mehr als sechs Stunden keine Vergütung mehr erhalten. Freiwillig änderte die Bundesregierung das EEG 2016 allerdings nicht. Der zeitweise Stopp der Vergütungszahlung geht im Kern auf Vorgaben der Europäischen Union zum Beihilferecht zurück. Die Umwelt- und Energie-Beihilfe-Leitlinie der EU (UEBLL) untersagt eine Förderung der Stromerzeugung bei negativen Preisen. Ausnahmen sind grundsätzlich zugelassen.

 

Sanfte Korrektur

Die Windbranche war zunächst bezüglich der Auswirkungen des Paragrafen 24 verunsichert. Erstmalig durchwehte ein leichter Hauch unternehmerischen Risikos die Branche. Befürchtungen zu den Auswirkungen reichten bis zu einer kompletten Unwirtschaftlichkeit zukünftiger Windprojekte. Die Thinktanks der Branche stellten Wirtschaftlichkeitsrechnungen auf, in denen befürchtet wird, dass neue Windkraftanlagen bis 2040 dadurch die Hälfte ihres Profits einbüßen könnten. Schon der betrachtete Zeithorizont lässt erkennen, dass man überhaupt nicht daran denkt, die Stromeinspeisung grund- und regellastfähig, mithin systemkompatibel zu machen. Die rückwirkende Betrachtung ergibt jedenfalls, dass sich Paragraf 24 bisher kaum ausgewirkt hätte. Dennoch grübelt man gegen den Paragrafen an und forderte zunächst seine Abschaffung. Da dies erfolglos war, zieht man Möglichkeiten der Gestaltung in Erwägung, indem man beispielsweise die hohe Einspeisung mit der Folge negativer Preise ab der fünften Stunde durch gezielte Abschaltungen und somit die Wirkung des Paragrafen verhindert. Nach einer Stunde eines Null- oder Positivstrompreises kann man wieder zuschalten und die Uhr läuft wieder los.

Die Tendenz ist deutlich, die Zeiten negativer Strompreise werden zunehmen. Maßgeblichen Einfluss haben auch die Austauschkapazitäten mit den Nachbarländern. Da die Übertragungskapazitäten zwischen Deutschland und Südeuropa nicht ausreichen, sucht sich der Strom oft den Weg über Polen und Tschechien. Diese Länder intervenierten darauf hin beim europäischen Regulierungsverband ACER, der nun die Aufhebung der gemeinsamen Preiszone Deutschland/Österreich durchsetzen will. Sollte diese heute einheitliche Zone aufgeteilt werden, ergeben sich in Deutschland längere Zeiten negativer Preise und für die Endkunden in der Alpenrepublik, die bisher vom niedrigen deutschen Börsenpreis profitierten, höhere Preise.

Energiepolitik bizarr: Während in Brüssel Europa-Politiker von einem baldigen Binnenmarkt für Elektrizität oder sogar einer Energie-Union reden, passiert in der Realität das Gegenteil: Re-Nationalisierung und Fragmentierung des europäischen Marktes, die Errichtung von Grenzen und der Aufbau neuer Handelshemmnisse auf Grund eines deutschnationalen Sonderwegs. Dabei besteht der Engpass nicht in fehlenden Leitungen zwischen Deutschland und Österreich, sondern an mangelnden Trassenkapazitäten zwischen Nord- und Süddeutschland. Verschiedene Strompreiszonen in Deutschland sind politisch allerdings (noch) nicht durchsetzbar.

Es bleibt die spannende Frage, ab wann auf dem Weg zu „100-Prozent-Erneuerbar“ die Regenerativen endlich Verantwortung am System Netz übernehmen werden. Dies wird mit dem Ziel der Gewinnmaximierung der Branche kollidieren, so dass neue Subventionstatbestände oder Umlagen zu erwarten sind.

 

Was tun?

Wie sähe eine pragmatische Lösung aus? Negative Preise dürften an der Börse nicht mehr zugelassen werden, was bedeuten würde, alle Einspeiser oberhalb des Must-Run-Sockels ohne Entschädigung abzuschalten, aus Kostengründen die mit den höchsten Einspeisevergütungen zuerst. Dies würde den bloßen und der Versorgungssicherheit abträglichen massenhaften Zubau volatiler Einspeisung begrenzen und vor allem den Druck erzeugen, Systemdienstleistungen bereitzustellen und, noch wichtiger, Speicherkapazitäten zu schaffen. Die mächtige Wind- und Solarlobby wird dies aber nicht zulassen. Eher gehen die Konventionellen in die Insolvenz, um dann vom Staat gerettet und wegen ihrer systemsichernden Rolle auch subventioniert zu werden.

Wirtschaftsgüter, Strom wie auch Tomaten, haben grundsätzlich einen Preis von größer Null, wenn der Markt funktionieren soll. Negative Preise sind die Perversion von Markt, ein Schritt zu seiner Zerstörung und hier eine Folge staatlicher Regulierung, die in eine Planwirtschaft führt.

Der Mörder ist nicht immer der Gärtner, aber in Deutschland ist am Ende immer der Stromkunde der Dumme.

 




Teil 2: Feinstaub – Die Pest des 21. Jahrhunderts, oder nicht!

Das Geschäft mit der Angst basiert beim Feinstaub auf folgender WHO-Aussage:

Im Jahr 2012 (Anmerkung: Das Jahr ist beliebig austauschbar) sind laut einer Schätzung rund sieben Millionen Menschen weltweit an Erkrankungen gestorben, die mit verschmutzter Luft in Zusammenhang stehen.“

Diese Aussage ist aus zweierlei Gründen nicht zu beanstanden:

  • Und da ist von „In Zusammenhang stehen“ die Rede. Wieder so eine Konjunktiv-Aussage, die nichts wert ist: Unser Leben steht auch mit unserem Tod im Zusammenhang…

Solche Konjunktiv-Aussagen sind ähnlich zutreffend, wie, die Erde kann von einem übergroßen Meteoriten getroffen werden, wobei letzteres indes wahrscheinlicher ist, als durch Feinstaub zu sterben.

Der Spiegel macht denn aus solch einer Nullmeldung (Dass sie eine Lachnummer ist, wird der Autor gleich zeigen):

WHO Luftverschmutzung offiziell als Krebsursache eingestuft“

Was ist aus diesem Magazin geworden, welches der Autor seit 1973 regelmäßig, über 30 Jahre lang, las? Der dortige Redakteur hat in seiner Aussage den Satzfüller „offiziell“ benutzt. Solche Attribute werden üblicherweise dann verwendet, will man eine Nullnummer, der nichts zu entnehmen ist, aufwerten und ihr dadurch einen fundierten Charakter verleihen möchte!

Aus „Luftverschmutzung“ wurde dann die Ableitung erstellt, das „Feinstaub“ Krebs verursacht, was nun völliger Unsinn ist, wie der Autor gleich zeigen wird. Wogegen man „Luftverschmutzung“ in Verbindung mit dem Konjunktiv, also “kann“, gerade so durchgehen lassen kann – immerhin ist die stärkste bekannte Luftverschmutzung, das Rauchen, als entsprechend schädlich bekannt, obwohl auch dieses kein Garant für Krebs ist, wie das Beispiel unseres Altbundeskanzlers Helmut Schmidt zeigt – so einfach ist Krebs nun auch wieder nicht zu verstehen, sonst wäre er längstens heilbar. So ist die Feinstaubbelastung für eine mögliche Krebserkrankung schlichtweg auszuschließen. Doch begeben wir uns nun in die molekularen Ebenen, in denen die o.g. Krankheiten ihren Ursprung und damit ihre Ursache haben.

Oben wurde das Beispiel unseres Altbundeskanzlers genannt, der trotz intensivem Rauchen, weit über 90 Jahre alt wurde und damit fast 20 Jahre länger, als die mittlere Lebenserwartung lebte, trotz Rauchen. Demnach sollte es Faktoren geben, die langes Leben unterstützen und den Ausbruch der Krankheit verhindern. Die gibt es auch und dies sind:

  • Unsere genetische Ausstattung (wobei die durch die entsprechenden Gene produzierten Proteine und der mit ihnen verbundenen Steuerungssequenzen das entscheidende Kriterium darstellen). Die Wissenschaft spricht vom individuellen Phänotyp.
  • Unser menschliches Immunsystem, wobei es ein Immunsystem gar nicht gibt, sondern den Verbund zwischen dem angeborenen Immunsystem, dem adaptiven Immunsystem, dem zelleigenen Immunsystem, dem Zellkernimmunsystem, dem „Wächterrat“ (z.B.: Peyersche Plaques), den „Verbindungsgliedern“, sowie dem genetischen Immunsystem. Wobei beim letzteren nicht von einen Immunsystem gesprochen wird, weil keine Antigene im Fokus stehen, sondern komplexe Reparaturprozesse vorgenommen werden.

Krebs ist eine Gen-/Chromosomenkrankheit, die ausschließlich in dieser molekularen Ebene ausgelöst werden kann. Sog.Krebsgene können durch äußere Einflüsse entstehen, wie z.B. hochenergetische Strahlung, Giftstoffe (einige chemische Stoffe, man spricht von karzinogenen Stoffen) oder durch Viren. In den meisten Fällen entstehen Krebsgene jedoch durch innere Einflüsse (Eigenmutationen durch den Austausch von Basenpaaren im jeweiligen Gen oder falsch ablaufende Reparaturprozesse in der Doppelhelix des Genoms, z.B. Brustkrebs bei Frauen) der Zelle selbst, die keine(!) Beeinflussung von außen benötigen. Hierzu muss hinzukommen, dass unser adaptives Immunsystem, solche Zellen nicht erkennt und ausschaltet.

Diese Mutationen sind jedoch nicht selbst die Ursache von Krebszellen, sondern größtenteils ist Krebs das Ergebnis der dadurch veränderten Aktivität vieler andere Gene, die für wichtige zelluläre Regelmechanismen verantwortlich sind. So schalten einige Mutationen, Regel- und Überwachungsgene aus, andere erhöhen die Aktivität von Genen, die wiederum die Aktivität der Zelle erhöhen. Da meist (eine Ausnahme z.B. vererbte Krebsdisposition) mehrere Mutationen notwendig sind, um die vorgenannten Regelkreise anzustoßen, ist Krebs denn auch meist eine „Alterskrankheit“. Je früher sie im Alter auftritt, umso weniger ist unser Immunsystem in der Lage, sie in Schach zu halten. Von gut erforschten Krebsarten, wie dem Mammakarzinom, weiß man, dass etwa 1.000 Gene an der Entstehung eines Krebstumors beteiligt sind. Folgende sieben Grundeigenschaften muss eine Zelle aufweisen, damit aus ihr eine Krebszelle werden kann:

  • Autonomie der Zellteilungssignale (Krebszellen erzeugen ihre eigenen Wachstumssubstanzen oder verstärken externe Wachstumssubstanzen)
  • Unempfindlichkeit gegen wachstumshemmende Signale (das umliegende gesunde Gewebe sendet wachstumshemmende Signale aus, gegen die die Krebszellen unempfindlich sind)
  • Deaktivierung des programmierten Zelltods = Apoptose (Mechanismen in der Zelle, gesteuert von zelleigenen Proteinen, werden unterdrückt)
  • Unbegrenzte Teilungsfähigkeit (Krebszellen können die normalerweise – läuft über „mathematische“ Logik – begrenzte Anzahl von Zellteilungen umgehen)
  • Neubildung von Blutgefäßen (Krebszellen senden Signale für die Bildung neuer Gefäße aus, mit denen sie mit Sauerstoff und Nährstoffen versorgt werden)
  • Invasivität und Beweglichkeit (zellinterne Regelmechanismen hindern Zellen meist daran, zu wandern und in fremdes Gewebe einzudringen, Krebszellen sind unempfänglich für solche Signale, die diese Regelkreise steuern)
  • Manipulation des Immunsystems (Krebszellen spannen z.B. Zellen des angeborenenImmunsystems für ihre Zwecke ein – zweckentfremdet). Makrophagen können Krebszellen entweder selbst abtöten oder Signale an die T-Zellen des adaptiven Immunsystems senden, welche dann die Zerstörung einleiten. Krebszellen können die Makrophagen jedoch regelrecht umerziehen, so dass sie sich regelrecht in Fabriken für Cytokine und Wachstumsfaktoren wandeln, die den Krebstumor wachsen lassen.

Zur Steuerung aller vorgenannten Eigenschaften dienen aus Aminosäuren, den chemischen Grundbausteinen des Lebens, bestehende Proteine / Enzyme. Feinstaub, als tote Materie, ist nie in der Lage, solche Signale zu steuern oder gar solche Stoffe herzustellen.

Um eine Krebsentstehung zu initiieren, müssen sich demnach sog. Schlüsselgene einer Zelle zu onkogenen Veränderungen anhäufen. Diese Zellen werden dadurch zu ungehemmtem Wachstum angeregt, wodurch dann eine Krebstumorzelle entstehen kann. Wie bereits gesagt, kann dies z.B. durch Genmutationen (durch die Evolution = springende Gene), durch hochenergetische Strahlung (Brüche in der Helix) entstehen oder durch aggressive chemische Substanzen, die direkt in die Zelle und deren Zellkern gelangen und dort das Erbgut direkt schädigen. Nun, das Feinstaub zu den Genen gelangt und dort sowohl Gene, wie Chromosomen schädigt ist der Wissenschaft bisher wohl entgangen.

Krebs ist weiter eine Krankheit von vielzelligen Lebewesen, worin die Erkenntnis verborgen ist, was Krebs eigentlich ist. Deshalb gibt es in der Krebsforschung Ansätze, ihn mit der Evolution zu erklären. Sozusagen als ein Nebenprodukt der Evolution, dass mit ihr entstanden ist. Nun wird niemand ernsthaft behaupten wollen, tote Materie wie Feinstaub, wäre ein Produkt der Evolution.

Gene und deren Proteine überwachen grundsätzlich jede Zellteilung und passen sozusagen darauf auf, wie sich eine Zelle vermehrt. Tut sie dies außerhalb vorgesetzter Regeln, so lösen diese Suppressorproteine entweder die Zellapoptose aus oder veranlassen das adaptive Immunsystem, die Zelle zu töten. Bei Krebs ist diese Kaskade, deren biologische Signalgebung, gestört.

Krebs kann weiter durch Viren, wie dem HPV-Virus (verursacht bei Frauen Gebärmutterkrebs, nicht zu verwechseln, mit HIV-Virus) verursacht werden. Nun, Viren und deren RNA können als lebende Organismen die Zelle „überlisten“, diese entern und ihre RNA zu den Genen/Chromosomen im Zellkern gelangen und dort aggressive Veränderungen vornehmen, wenn sie z.B. ihre Viren-RNA in das menschliche Genom einbauen oder Reparaturprozesse in den Chromosomen verhindern. Unser Genom besitzt übrigens eine Vielzahl von Virensequenzen, die sich im Laufe der Evolutionsgeschichte dort angehäuft haben. Die meisten davon sind unkritisch.

Abb.9, Quelle (https://www.dermatologie-am-dom.de/dermatologie/allgemeine-dermatologie/hpv-viren/): Papillomviren infizieren die Schleimhaut der Gebärmutter, was zu bösartigen Veränderungen in der Gebärmutter führen kann.

Damit eine Krebszelle überhaupt entstehen kann, müssen zuvor falsche Gene abgelesen werden. Gene, sowohl die zellspezifischen, als auch sog. falsche, bzw. entartete Gene werden durch einen komplizierten Proteinkomplex, die (RNA-)Polymerase II abgelesen. Dieser besteht aus über einem Dutzend verschiedener Funktionseinheiten, die mittels Transkriptionsfaktoren (Proteine, deren geometrische Figur wie ein Schlüssel an die jeweils entsprechende Andockstelle passt und die für die Katalyse notwendig sind) gesteuert werden. So funktioniert z.B. das Gift des Knollenblätterpilzes dahingehend, dass seine biologische Struktur sich an eine solche Andockstelle in der Polymerase II der Leberzellen festsetzt, an die eigentlich ein Transkriptionsfaktor andockt, der die Polymerase II steuert. Da der Platz aber vom biologischen Gift besetzt ist, kann er nicht mehr andocken und die Polymerase II funktioniert nicht mehr und die Zelle wird nicht mehr mit dem notwendigen Nachschub (Proteine) versorgt und stirbt ab. Sie „verhungert“ sozusagen. Nicht gleich, sondern 1 Tag später. Deshalb ist dieses Gift so heimtückisch: Wird es bemerkt, ist es meist zu spät und die Zellen sind bereits abgestorben.

Die Verfechter der Feinstaub-Hype können dem Autor sicherlich sofort sagen, wie Feinstaub die Polymerase II steuert.

Abb.10, Quelle (http://www.biochem.umd.edu/biochem/kahn/molmachines/newpolII/home.html) zeigt vereinfacht den Ablesevorgang an einem Gen durch die RNA-Polymerase II.Dazu wird die Doppelhelix aufgetrennt und der entsprechende Abschnitt mit Hilfe dutzender Hilfs- und Steuerungsproteinen kopiert. Die Boten-RNA wandert dann, wiederum mit Hilfsstoffe aus dem Zellkern zu den Ribosomen, an denen dann das jeweilige Protein entsteht. Feinstaub hat keinerlei Möglichkeit (ist ausgeschlossen) die Polymerase II irgendwie zu beeinflussen.

So tragen Proteine am Anfang ihrer Aminosäurekette einen Code, der ihren Bestimmungsort signalisiert, sozusagen, eine „Postleitzahl“. In den Ribosomen wird anhand der o.g. genetischen Boten RNA (DNA-Kopie = Bauplan), der Genabschrift im Zellkern durch die Polymerase II, mittels Transfer RNAs, die mit Hilfe von Enzymen (ohne deren Hilfe kann die genetische Bauanleitung nicht richtig ausgeführt werden), jeweils an eine „ihrer“ Dreierabfolge der Nukleotide andocken, die Lebensbausteine des Körpers erzeugt. Hier ist ein evolutorisch sehr alter Schutzmechanismus der Zelle vor Vireninfektionen eingefügt und zum Schutz einer korrekten Übersetzung: Nicht die Boten-RNA direkt wird übersetzt, sondern mit Hilfe zelleigener Transfer RNAs, die erkennen sollen, ob es sich um eine falsche Dreierabfolge von Nukleotiden und damit um Fremdgene handelt.

Diese Transfer-RNAs veranlassen das Ribosom, die jeweilige Aminosäure zu erzeugen, mit denen das Protein hergestellt wird. In einer Untereinheit des Ribosoms, dem Signal Recocnition Particle, wird den Proteinen die Zieladressen in der Zelle oder außerhalb der Zelle angefügt. Anschließend verlässt das Protein das Ribosom und beginnt sich in einem komplizierten Prozess zu falten. Falsche Faltungen sind z.B. die Ursache von Krankheiten wie BSE. Bevor jetzt jemand auf die Schnapsidee kommt, Feinstaub würde diese Faltungen behindern und wäre (auch) für BSE verantwortlich: Der Faltungsprozess läuft mittels biologischer Elemente (Cofaktoren wie Chaparone) und nutzt dabei physikalische Grundgesetze. Abgesehen davon, dass Feinstaub gar nicht erst dorthin gelangt, wo diese Prozesse ablaufen.

Die in den Ribosomen hergestellten Proteine dienen der Zelle für ihren „Betrieb“. Wie bereits erwähnt, werden bei Krebszellen falsche Gene abgelesen, die wiederum die Zelle zu abnormen Verhalten veranlassen. Feinstaub kann hier nichts beeinflussen oder eingreifen, da biologische Stoffe aus Aminosäuren notwendig sind.

Bei solchen Genen, die eine hohe Bedeutung für die Entstehung von Krebs haben (Proto-Onkogen), bzw. deren Veränderung Krebs entstehen lässt, spricht die Wissenschaft von Krebsgenen oder Onkogenen. Zu ihnen gehören die z.B. BRCA-Gene (dienen für Reparaturprozesse an der Genom-Helix) oder die FAS-Gene, die für die Fettsäuresynthese verantwortlich sind und somit Schlüsselfunktionen im Gewebe und der Energieversorgung (Energiespeicher) innehaben. Wobei, wie bereits gesagt, mehrere Gene mutiert sein müssen, um eine normale Zelle, in eine Krebszelle zu verwandeln. Ein Grund, warum Krebs meist eine Alterskrankheit ist.

Abb.11, (Quelle Max Planck Gesellschaft) zeigt einen kleinen Ausschnitt der zelleigenen Proteine und ihre komplexen Wechselwirkungen. Insgesamt konnten bei Krebs ca. 10.000 Proteine identifiziert werden, die sich in Verbindung mit der Krankheit wandeln und die Zelle abnorm werden lassen. Alle Proteine und alle ihre Wechselwirkungen laufen über biologische Signalstoffe, die jeweils ihr Rezeptorprotein erkennen müssen, um etwas auslösen zu können.

Um diesen Proteinverbund, wie auch den „normalen“ aufrecht zu halten, benötigt es Kommunikationen. Dazu besitzt eine Zelle Rezeptoren, an die ihr ganz bestimmter Bindungsfaktor andocken muss, damit ein Wirkstoff in eine Zelle gelangt oder in ihr etwas auslöst. Dies kann man sich bildhaft so vorstellen wie eine Fahrberechtigung beim Auto. Nur, wer den richtigen und passenden Schlüssel hat, der kommt in das Fahrzeug, hier, in die Zelle. Der passende Schlüssel ist dabei die räumliche Ausgestaltung der Aminosäuren an einer anderen Zelle, z.B. des Immunsystems oder ein Botenstoff, wie z.B. ein Cytokin. Viren müssen übrigens genau den passenden Rezeptor (Schlüssel) tragen, wollen sie in eine Zelle gelangen. Ohne diesen „Schlüssel“ kommen sie nicht in eine Zelle, um diese zu infizieren und sich anschließend darin zu vermehren. Feinstaub ist aber ein toter Stoff, der keine Bausteine des Lebens (Aminosäuren) hat und damit auch nicht den jeweils passenden Schlüssel, um an einem jeweils ganz bestimmten Oberflächenmolekül an oder in einer Zelle etwas auszurichten. Folglich kann Feinstaub hier grundsätzlich keine Rolle spielen: Weder bei der Entstehung von Krebs, noch bei Erkrankungen wie einer Grippe.

Ein entscheidendes Kriterium bei Krebs ist sein (Zell)Wachstum. Hierfür benutzt er die zelleigenen, sonst „üblichen“ Prozesse, die die Zelle einschlägt zu wachsen, bzw. sich zu vermehren oder zu erneuern. Mit dem Unterschied, dass Regelproteine (wieder biologische Stoffe), die ansonsten ein ungebremstes Zellwachstum verhindern, gehemmt sind und die Proteine, die das Zellwachstum ankurbeln, stark erhöht, also hyperaktiv sind.

Zellwachstum beginnt mit einer Familie von Rezeptoren (EGFR) in der Zellmembran. Werden diese durch externe Wachstumsfaktoren (biologische Proteine wie Sonic hedgehog oder Nough) stimuliert, die die richtige Form in ihren Verbindungsstellen aufweisen, um an diese Rezeptoren anzudocken, wird in den Zellen eine entsprechende Signalkaskade angestoßen, die die Gene in der Zelle adressiert, die für Wachstum und Teilung zuständig sind. Die Aktivierung dieser Rezeptoren bewirkt über eine komplexe Signalkaskade mit dutzenden biologischen Hilfs- und Regelstoffen in der Zelle, an der ausschließlich biologische Stoffe beteiligt sind, weitere Proteine zu erzeugen, die schließlich die notwendigen Gene im Zellkern für die Zellteilung anstoßen. Als totes Material hat Feinstaub hier keinerlei Einflussmöglichkeiten.

Abb.12(http://physiologie.cc/II.1.htm) links zeigt anhand einer Fettzelle anschaulich und vereinfacht die Kommunikation zwischen den Zellen und rechts das Andocken eines jeweils entsprechenden Bindungspartners an Zellrezeptoren und ebenfalls stark vereinfacht, die Zellprozesse, die daraufhin angestoßen werden.

Dockt an die Zelle außen am Rezeptor ein Wachstumsfaktor an, so verbindet sich der Rezeptor mit seinem Nachbarn. Die Paarung zweier Rezeptormoleküle aktiviert ihre sog. Tyrosinkinase (Enzym). Durch anschließende Phosphorylierung (Anhängen einer Phosphatgruppe) an die Innenseite der Rezeptoren, wird eine Signalkaskade in Richtung Zellkern in Gang gesetzt, der entsprechende Wachstumsgene aktiviert. Andere Rezeptorpaare können dagegen direkt in den Zellkern wandern und dort Gene anschalten, die die Zellteilung ankurbeln und die Apoptose verhindern (z.B. Östrogenrezeptor). Solche Rezeptoren lösen, wenn ihr Bindungspartner (immer ein biologischer Stoff = Protein) an ihr andockt, im Zellinnern ein Vermehrungssignal aus, indem sie eine molekulare Kaskade in Gang setzen. In deren Verlauf weitere Gene aktiviert, deren Proteinprodukte wiederum die Aktivität andere Gene regulieren (zur Komplexität siehe Abb.11). Ein Zuviel solcher Wachstumsfaktoren (EGFR), kann denn eine Zelle in eine Krebszelle verwandeln. Mit Feinstaub hat dies alles nichts zu tun.

Um ihr Wachstum zu fördern, senden Krebszellen ihrerseits Wachstumsfaktoren aus (z.B. VEGF = vaskuläre endotheliale Wachstumsfaktur) aus, die Zellen der inneren Blutgefäßwand anlocken. Diese Endothelzellen bilden dann neu aussprossende Blutgefäße, die den Krebstumor versorgen. Der Autor wüsste gern, wie Feinstaub auf diese sog. Angiogenese Einfluss nehmen soll. Die Antwort: Da es sich ausnahmslos um biologisch gesteuerte Prozesse, mit biologischen Stoffen handelt, kann Feinstaub hier als totes Material niemals irgendeinen Einfluss ausüben. Wer nicht den Schlüssel zu einem Fahrzeug hat, der kommt auch niemals hinein. Es sei denn, er schlägt die Fenster ein. Bei Zellen müsste dieser eine zelltoxische Stoff sein. Derartige Stoffe, sog. Karzinogene, sind bekannt. Zu ihnen gehören z.B. Dioxine und in größeren Dosen Aromatische Kohlenwasserstoffe.

Feinstaub, also zu Deutsch feiner Steinist jedoch nicht zelltoxisch (Anmerkung: Es sei denn, man stoßt sich den Kopf an einem größeren Stein – der Autor möchte jetzt niemandem etwas unterstellen) wie z.B. Dioxin und kann daher auch keine „Fenster“ in der Zelle einschlagen und sie dadurch zerstören – biologische Prozesse, die für Krebs notwendig sind, kann er nie anstoßen – er kann seine Wirkung auf äußere Zellen „nur“ mechanisch ausüben. Daher schreibt auch Prof. Dr. Joachim Heyder (über die beobachteten Auswirkungen des ultrafeinen Feinstaubes um 0,1µm): „Aber nach wenigen Tagen sind diese Entzündungen (Anmerkung: In der Lunge) abgeklungen.“ Diese mechanisch verursachten Entzündungen werden durch das angeborene Immunsystem ausgelöst (dazu später mehr), die Fremdstoffe werden identifiziert, gebunden, zerstört und dann abtransportiert. Die Entzündungen klingen wieder ab und bleiben nicht bestehen. Gleiches geschieht auch beim Schnupfen und dort sind die Entzündungserscheinungen weit größer. Kein Mensch würde nun behaupten, das Schnupfen Krebs verursacht.

Weiter benutzen Krebszelle das angeborene Immunsystem, besonders die Makrophagen, um zu wachsen und zu metastieren. Sie programmieren die Makrophagen sozusagen um, so dass diese falsche Signalstoffe an die B-Zellen des adaptiven Immunsystems senden, die dann ihrerseits das angeborene Immunsystem aktivieren, die Krebstumorzellen beim Überleben und beim Wachstum unterstützen, indem sie z.B. den entzündungsfördernden Faktor KappaB produzieren, der Makrophagen anlockt und der sie veranlasst, in den inneren, sauerstoffarmen Bereich den Krebstumors zu wandern, womit sie bewirken, das Blutgefäße hineinwachsen. Ansonsten könnte ein Krebstumor nicht wachsen, da ihm die Sauerstoffversorgung fehlt.

Der Autor wüsste nun gern, wie Feinstaub die biologischen Signale sendet, damit das angeborene Immunsystem umprogrammiert wird? Er wird natürlich keine Antwort erhalten (können), da Feinstaub dieses nicht auszulösen vermag und als tote Materie keine Signale an biologische Proteine, die letztendlich für die obigen Kaskaden verantwortlich sind, abgeben kann.

Abb.13, Quelle: Cancer Immnology Research, „NF-κB, an Active Player in Human Cancers“, zeigt, wie Krebszellen das angeborene Immunsystem für sich ‚einspannen‘. In Abb.13 ist der NF-KappaB dargestellt. Dieses Signalprotein wird vom angeborenen Immunsystem dazu benutzt, um Entzündungsreaktionen (dazu später mehr) hervorzurufen. Chronische Entzündungen können eine wichtige Rolle bei der Entstehung von Krebstumoren, nicht von einzelnen Zellen, spielen. Chronische Entzündungen allein bewirken grundsätzlich keine Mutationen und lösen auch keinen Krebs aus. Sie können ihn indes unterstützen, zu wachsen.

So produzieren Makrophagen entzündungsfördernde Stoffe, wie den Tumornekrosefaktor (TNF), der in der Zelle einen genetischen Schalter, den nuclear factor-kappa B umlegt. In aktivierter Form wandert er in den Zellkern und kurbelt dort die Produktion von Proteinen an, die die Apoptose verhindern, die Entzündung verstärken und die Zellteilung anregen.

Damit Gene abgelesen werden können, bedarf es nicht nur einer entsprechenden biologischen Signalgebung, um der RNA-Polymerase II zu übermitteln, welches Gen abgelesen werden soll, sondern der entsprechende Abschnitt im Chromosom muss für den vergleichsweise großen Ablesekomplex (RNA-Polymerase II) zugänglich sein. Anmerkung: Der Autor dringt deshalb so tief in die Molekularbiologie und die Zellabläufe ein, um zu zeigen, dass für Feinstaub hier nichts zu beeinflussen ist.

Das menschliche Genom besteht aus ca. 21.000 Genen. Von den drei Milliarden Buchstaben (Nukleotide) sind dies gerade einmal knapp 2%, die für Aminosäuren (das Leben ist aus 20 Standardaminosäuren aufgebaut), den Grundbausteinen der Proteine, codieren. Unser Genom besitzt weiter, 19.000 Pseudogene (an ihren Sequenzveränderungen wird die genetische Uhr abgelesen) und der große Anteil von Introns (etwa 30%, Steuerungssequenzen in den Genen, die nicht codieren) und der ganz große Rest aus Sequenzen außerhalb der Gene und Pseudogene. Die genetischen Buchstaben sind dabei in der DNA-Helix, an einem doppelsträngigen Grundgerüst von Zucker und Phosphateinheiten aufgereiht.

Abb.14, Quelle (http://www.wissensschau.de/genom/rna_genom.php) links zeigt die Doppelhelix unseres Genoms (Ausschnitt), mit den vier Basen, Adenin, Cytosin, Guanin und Tymidin (wobei im Doppelstrang stets A mit T und G mit C gepaart sind und die sog. Leiter bilden) und die entsprechende Boten-RNA, wie sie von der RNA-Polymerase II abgelesen wird und als „Blaupause“ für die Ribosomen in der Zelle dient, anhand derer, das Ribosom die durch Aneinanderreihung von Aminosäuren, das jeweilige Protein bildet. Jeweils drei Buchstaben codieren dabei für eine Aminosäure.

Abb.14 rechts zeigt die zwei Hauptaufgaben der RNA: Blaupause für Proteine und Regulator für Genaktivitäten. Auch hier gibt es für Feinstaub nichts zu beeinflussen – ist für Feinstaub unmöglich.

Chromosome sind wiederum um „Verpackungseinheiten“, die Histone, gewickelt. An denen sich Steuerungseinheiten, Acetyl- und/oder Methylgruppen, befinden. Werden diese entfernt (sog. Langlebigkeitsgene* vermögen dies), so ändert sich deren Komplexität / Räumlichkeit und bei der Zellteilung entsteht weniger sog. ribosomale DNA, die eine der Ursachen für die Begrenzung von Zellteilungen ist, weil sich diese Elemente im Zellkern ansammeln und mit jeder Teilung dort häufen. Weil repetitive Sequenzen dazu neigen, zu rekombinieren und dadurch sog. Stottersequenzen in der Abschrift des Chromosoms entstehen, die die Zellteilung letztendlich verhindern oder zu entarteten Funktionen führen, wodurch dann Krankheiten ausgelöst werden, bzw. keine Zellteilungen mehr erfolgen – zu Deutsch: Alterungsprozesse werden eingeleitet, bis hin zur Apoptose, dem zellprogrammierten Zelltod.

* Zu den sog. Langlebigkeitsgenen gehören Sirtuine. Indem Sirtuine in diese komplexe Genregulierungen eingreifen, können sie Alterungsprozesse hinauszögern. Sirtuine greifen weiter in die Prozesse ein, die Diabetes vom Typ 2 auslösen (können ihn hinauszögern) und hemmen Entzündungsreaktionen, indem sie den nekrose Faktor Kappa B bremsen. So regelt das Sirt 1 Enzym die Insulin Produktion und den insolinähnlichen Wachstumsfaktor IGF-1. Kalorienarme Kost (Ernährung) regelt über die dortigen Stoffe den Zellstoffwechsel, der wiederum Stoffe produziert, die die Langlebigkeitsgene ein oder ausschalten, sofern diese vorhanden sind. Darauf beruht übrigens die statistische Erkenntnis, dass gesunde Ernährung der Gesundheit zu Gute kommt. Wogegen die pseudowissenschaftlichen Studien der WHO, Feinstaub würde Millionen Tote verursachen, auf keiner wissenschaftlichen Erkenntnis beruhen, sondern, wieder einmal, auf reinen, subjektiven Modellberechnungen, ohne jegliche wissenschaftliche Grundlage. So etwas wird üblicherweise als Pseudowissenschaft bezeichnet. Prof. Dr. Joachim Heyder vom Forschungszentrum für Umwelt und Gesundheit zu diesen WHO-Studien: „Ich halte das für unseriös.“ Wie anhand der biologischen Abläufe gezeigt, ist dem nichts hinzuzufügen.

Feinstaub hat als totes Material, gar nicht die Möglichkeit, Aminosäuren, die Bausteine des Lebens zu erzeugen und daraus die jeweils entsprechenden Steuerungselemente zu bilden, um in irgendwelche Regelkreisläufe der Zelle einzugreifen um diese entarten zu lassen. Ganz abgesehen davon, dass er gar nicht in den Hochsicherheitstrakt der Zelle, ihren Zellkern, hineinkommt.

Abb.15 (https://www.boundless.com/biology) zeigt anschaulich, wie auf den Chromosomen durch Methylierung durch biologische Steuerungssequenzen, sog. Genregulatoren, sich die Verpackungsdichte der Histone ändert und dadurch das Gen zugänglich wird. Unnötig zu erwähnen, dass auch hier Feinstaub keine Einflussmöglichkeiten hat.

Bei dicht gepackten Genomabschnitten spricht man von Heterochromatin. Wogegen das locker gewickelte und ablesbare Euchromatin heißt. Ribonecleinsäuren aus dem Genom-Bereich IGS (nicht codierende Steuerungssequenz) und ein spezieller Enzymcomplex (NoRC) sind für die Verpackung und Stilllegung auf den Chromosomen zuständig. Durch zu wenig ribosomale RNA (siehe Abb.14) wird die Verpackungsdichte reduziert und somit Bereiche des Genoms abgelesen, die sonst still liegen. Nun weisen Krebszellen eine veränderte DNA-Methylierung an den Histonen auf. Verursacht durch fehlgeleitete zellgenetische Steuerungen. Auch hier würde der Autor gerne wissen, wie Feinstaub in diese biologisch / genetische Regelung, die mit für die Auslösung einer Krebserkrankung verantwortlich sein kann (wenn falsche Stellen angefahren werden), eingreift?

Weiter fehlt Feinstaub die Energie, wie z.B. ionisierende Strahlung, um im Genom Veränderungen vorzunehmen (abgesehen davon, dass Feinstaub gar nicht dorthin kommt), indem z.B. ein Nukleotid (genetischer Buchstabe) verändert wird. Da immer jeweils drei Nukleotide für eine Aminosäure codieren, kann ein Fehler unter Umständen fatale Auswirkungen auf das anschießende Protein haben, sofern dies nicht vorher erkannt wird.

Anmerkung: Der Autor weiß, es ist sehr fachspezifisch, er will aber zeigen, dass Feinstaub da nichts regeln oder beeinflussen kann.

Genmutationen entstehen auch dadurch, dass eine skriptierte RNA (nachdem die Introns entfernt wurden) wieder in DNA zurückgeschrieben und in unser Genom eingebaut wird. Auch hieraus kann theoretisch eine Krebserkrankung werden. Oder ein sonstiger, körpereigener Mangel, der zu einer spezifischen Krankheit führt. So kann z.B. der Mensch, im Gegensatz zu anderen Säugetieren, kein Vitamin C selbst herstellen, weil das notwendige Gen (Gulo) im Chromosom 8 entartet ist (vor mehr als 50 Mio. Jahren) und nur noch als Pseudogen vorliegt. Der Mensch und seine Vorfahren haben dennoch überlebt, weil wir diese Stoffe mit der Nahrung zu uns nehmen. Mangelerscheinungen sind denn auch die Folge solch fehlender Stoffe, die der Körper braucht, aber nicht (mehr) selbst erzeugen kann.

Weiter besitzen wir Menschen bestimmte Gene (deren Proteine), um Beschädigungen der Doppel- oder Einzelstrangbrüche der Helix im Genom zu reparieren. Ohne ein solches funktionsfähiges Gen, haben wir ein viel höheres Risiko, an bestimmten Krebsarten zu erkranken – das Chromosom zerfällt dann in zwei Teile oder reißt an einer Stelle auf, was drastische Folgen haben kann, denn Krebs ist eine Gen-/Chromosomenkrankheit, die auf dieser Ebene entsteht. Gut erforscht ist dabei ihr Einfluss auf Brustkrebserkrankungen bei Frauen, bei der BRCA-Gene mutiert sind, die für solche Reparaturprozesse notwendig sind. Vielleicht können auch hier die Feinstaub-Aktivisten dem Autor sagen, wie Feinstaub in den Hochsicherheitstrakt der Zelle, ihren Zellkern gelangt, dort zu den Chromosomen und dann auch noch, ohne eigene Energie, Chromosomenbrüche verursacht. Der Autor beantwortet die Frage: Schlicht und ergreifend unmöglich.

Ein weiteres wichtiges Feld im Verständnis von Krebs sind sog. Krebsstammzellen. Sie sind meist der Grund, wenn sich ein Tumor wieder bildet. Stammzellen sind Zellen, an denen durch eine Kaskade von Aktivitäten (z.B. Sonic hedgehog = Wachstum), die jeweiligen Vorläuferzellen eines Zelltyps entstehen und schließlich, nach zig-Einzelschritten und Differenzierungen, die fertige, funktionale Zelle oder, die entartete Zelle. Ein Versagen der biologischen Stammzellenregulation (deren Kontrolle) liegt vielen Krebsarten zu Grunde. Nun meine lieben „Freunde“ von der Feinstaub-Hype, erklärt doch mal dem Autor, wie Feinstaub dies anstellen soll? Doch da gibt’s jedoch nichts zu erklären, weil zwischen toter und lebender Materie keine Signale und damit Steuerungen ausgetauscht / initiiert werden können. Da Feinstaub auch kein Energieträger ist, können auch auf physikalischer Basis keine Wechselwirkungen in diese Regelkreise erfolgen.

Abb.16, Quelle (http://www.scienceinschool.org/de/2011/issue21/cscs): Zwei Modelle, die zu erklären versuchen, warum innerhalb eines Krebstumors dessen Zellen so unterschiedlich sein können und, dass eine kleine Untergruppe von Zellen (Krebsstammzellen) für die Auslösung und den Bestand des Krebses verantwortlich ist. Die Funktion und das Verhalten von Stammzellen wird von ihrem eigenen, genetischen Programm und einer Vielzahl von (biologischen) Signalen aus dem Gewebe gesteuert (entscheidet auch darüber, ob und wo sich Metastasen bilden). Stammzellen, mit sog. onkogenen Veränderungen in ihrem Programm und die Änderung der vorgenannten Signalketten können dazu führen, dass Krebsstammzellen entstehen. Weder kann Feinstaub als tote Materie die Signalkette manipulieren, noch genetische Veränderungen hervorrufen. Demzufolge, kann Feinstaub auch keinen Krebs auslösen. Immunzellen sind übrigens dazu in der Lage, Krebsstammzellen aufzuspüren und sie zu zerstören.

Krebs kann jedoch nicht allein mit dem Gen-Modell erklärt werden, sondern die Betrachtung muss auf die Chromosomen ausgeweitet werden. So ist Krebs eine Gen-/Chromosomenkrankheit. Auffällig ist, dass in Krebszellen gleich ganze Chromosomenbereiche entartet sind und nicht nur einige Gene. So sind in einer Krebszelle zwar einzelne Gene verändert, aber gleichzeitig sind die Chromosome, die tausende Gene tragen, gravierend verändert. Manche sind zerbrochen, tragen Stücke von anderen, andere sind zu viel und andere wiederum fehlen ganz. Dieses direkte Chaos ist nicht die Folge von genetischen Einzelveränderungen, sondern die eigentliche Ursache von Krebs. So sind denn die Abweichungen in der Anzahl und der Struktur der Chromosomen in einer Zelle die Ursache für deren Entartung.

Wir Menschen besitzen zwar weitgehend identische Grundgene. Diese unterscheiden sich jedoch durch Variationen, in denen einzelne Nukleotide verändert sind. Jeder Mensch trägt über sein Genom eine Vielzahl solcher Mutationen und vererbt diese weiter, was die menschliche Vielfalt ausmacht. Man spricht vom Phänotyp.

Der Chromosomensatz in einer Zelle ist hingegen immer gleich und er kommt immer paarweise (diploid) vor. Die Zelle besitzt jeweils ein gleiches Chromosom vom Vater und der Mutter (einzige Ausnahme das männliche Geschlechtschromosom). Diese chromosomale Regel ist eine unverrückbare Stabilitätsregel bei der Zellentwicklung und im Gegensatz zu Genen, gibt es hierzu keine Abweichungen. Bei Krebs jedoch sind die Chromosomen nicht diploid, sondern immer (!) aneuploid.

Abb.17, Quelle P. Duesberg / Univ. Berkeley: Der menschliche Chromosomensatz besteht aus 23 Chromosomenpaaren, die immer jeweils gleiche Paarbildung aufweisen. Nur beim Mann ist ein ungleiches Paar zu finden (X und Y-Chromosom, bei der Frau jeweils X zu X-Chromosom). Bei Krebszellen herrscht immer chromosomale Unordnung: Einige Chromosomen liegen in Überzahl vor, einige fehlen, andere haben Bruchstücke ausgetauscht,… Unnötig zu erwähnen, dass Feinstaub ein solches Chromosomenchaos nicht anrichten kann, da es erst gar nicht dorthin gelangt, geschweige in die komplizierten biologischen Steuermechanismen eingreifen kann, die normalerweise für Ordnung sorgen. Der Grund ist vielmehr in der Struktur der Chromosomen selbst zu finden. Neben einigen äußeren Einflüssen, die oben beschrieben wurden (z.B. Viren oder hochenergetische Strahlung), kommt der Anstoß zur Entartung einer Zelle meist (!) aus ihrer inneren Struktur selbst, auf die Feinstaub nun erst recht keinen Einfluss hat.

Die chromosomale Betrachtung erklärt denn auch, warum Krebs meist erst im hohen Alter entsteht: Wegen dem sich immer mehr anhäufenden Aneuploidgrad in den Zellen. Ist der Gang der Euploid-Entwicklung erst einmal in Gang gesetzt, erzeugt jede neue Zelle weitere und mehr euploidie, bis diese schließlich entartet. Die Wissenschaft weiß z.B., dass die Chromosomenenden, die Telomere, eine wichtige Rolle bei der Stabilität des Chromosoms spielen. Diese Telomere werden aber mit jeder Zellteilung (mit dem Alter) weniger, was auf die Polymerase I zurückzuführen ist.

Abb.18 Quelle (https://physics.aps.org/articles/v6/129) zeigt bildhaft, wie sich die Telomere mit jeder Zellteilung verkürzen.

Eine wichtige Funktion, dass sich bei der Zellteilung die Chromosomenpaare richtig ausrichten und paaren, hat zu Beginn der Zellteilung der sog. Spindelapparat der Zelle. Ist er gestört, ordnen sich die Chromosomenpaare falsch an, was wiederum Krebszellen entstehen lassen kann, wenn dies nicht vorher vom Immunsystem erkannt wird. So haben die o.g. Aromatische Kohlenwasserstoffe, die unter die Karzinogene fallen, die Eigenschaft, dass sie die Microtubuli („Kraftseile“ der Zelle) depolymerisieren und dadurch zerstören. Diese Proteine braucht jedoch der Spindelapparat, bei der Zellteilung. Dioxine wirken dadurch karzinogen, indem sie durch ihre hohe Toxizität, die Chromosomen direkt angreifen. Der Autor wüsste nun gerne, wie Feinstaub dies fertigbringen soll? Er weiß, dass er keine Antwort erhalten wird.

Die inhärente Instabilität des Krebses ist auch die Ursache, warum Krebs so leicht neue individuelle Merkmale erreicht und dadurch für Medikamente nicht mehr erreichbar ist, die vorher noch halfen. Krebszellen unterscheiden sich damit grundlegend von ihren natürlichen „Vettern“, die alle artspezifische Eigenschaften aufweisen.

Zuweilen fällt bei Feinstaubbelastung und seiner postulierten Wirkung der Begriff Oxidativer Stress und damit verbunden: Freie Sauerstoffradikale. Nun, diese Radikale entstehen grundsätzlich bei unseren Stoffwechselprozessen und sind, da sie sehr reaktionsfreudig sind, kurzlebig. Sie sind deshalb sehr reaktionsfreudig, weil ihnen ein ungepaartes Elektron fehlt und sie versuchen anderen Stoffen, wie den Mitochondrien, dieses Elektron zu entreißen, wodurch sich deren chemische Eigenschaften ändern und sie dadurch instabil, beschädigt werden. Die deutschen Qualitätsjournalisten, die mit diesen Begriffen jonglieren wissen natürlich sofort, warum Freie Radikale so „scharf“ darauf sind, ihr ungepaartes Elektron zu paaren. Daher eigentlich unnötig, dass der Autor den Grund nennt: Ihre Energiegewinn ist dadurch sehr groß. Nach diesem Ausflug in ferne und fremde Welten, nein, die Rede ist nicht vom Raumschiff Enterprise, sondern von der Physik, obwohl der Autor so manchmal den Eindruck hat, dass für unsere deutschen Qualitätsjournalisten das eine dasselbe wie das andere ist, zurück zum oxidativen Stress.

In der Zellen gibt es zum einen biologische Stoffe, die freie Radikale unschädlich machen und zum anderen, Reparaturprozesse, die es ermöglichen, solche Schäden durch freie Radikale zu beheben. Mit dem Alter werden diese weniger, weil, so die gängige Meinung, die Zellen erschlaffen. Jedoch hat die Zelle Möglichkeiten, Alterungsprozesse hinauszuzögern. Dazu gehören die bereits erwähnten Langlebigkeitsgene (z.B. Sirtuine), aber auch Gene, die den Stoffwechsel oder das Wachstum steuern. Sirtuine sind auch bei der Zellabwehr aktiv und unterstützen diese, weiter steuern sie die Apoptose – bei Krebs maßgeblich. Wer eine entsprechende genetische Ausstattung (siehe Helmut Schmidt), vor allem die, die solche Gene aktiviert, hat, der lebt länger, auch wenn er raucht. Durch bestimmte Stoffe, wie Resveratrol (in roten Weitrauben) lassen sich übrigens Zellen dazu anregen, solche Langlebigkeitsgene über chemische Prozesse in der Zelle zu aktivieren. Daher kommt auch die Aussage, wer täglich ein Glas Rotwein trinkt, der lebt länger – die gleiche Substanz ist indes auch im roten (alkoholfreien) Traubensaft.

Besonders vom Rauchen ist bekannt, dass dadurch in unseren Zellen eine mehr als 1.000-fache Erhöhung solcher freien Radikale auftreten können. Ansonsten sind sie normaler Bestandteil unsers Zellstoffwechsels.

Die „Schwadronauten“, inklusive der politischen Organisation WHO, die behaupten, Feinstaub würde Krebs verursachen, können dem Autor sicherlich sofort erklären, wie Feinstaub dies in den vorher beschriebenen, molekularen Zellprozesses, anstellen soll.

Krebs und Virenerkrankungen haben auf molekularer Ebene eine grundlegende Gemeinsamkeit: In beiden Fällen werden in der Zelle falsche Gene abgelesen. Im letzteren durch Manipulation der Viren (indem sie den Enzymapparat der Zelle übernimmt), also der lebenden Fremdkörper und im anderen Fall, durch die (lebenden) Zellprozesse selbst (indem Gene aktiv werden – durch den Krebs aktiv gemacht werden, die eigentlich stumm bleiben müssen, z.B. Gene, die die Zellteilung anregen). In der Wissenschaft besteht hier ein Ansatz (über small interferring RNAs), die über genetisch* erzeugte Antikörper in die Zelle eingeschleust werden. Diese Antikörper fangen die falsch abgelesene RNA in der Zelle auf, indem sie sich auf ihre jeweiligen, konträren RNA-Nucleotide heften. Hierdurch können gezielt Gene stumm geschaltet werden, oder falsche Boten-RNA (z.B. Viren) abgefangen werden. Der Vorgang ist recht komplex und nutzt die zelleigene Interfrenzmachinerie. Der Vorgang gehört übrigens zum zelleigenen Immunsystem. Feinstaub hat als tote Materie, auch nicht im Geringsten die Möglichkeit, in die o.g. Regulation der Zellgene einzugreifen.

*Ohne Genmanipulation ließen sich viele heute verwendete Heilmittel und auch zukünftige, nie herstellen. Sie stellen zudem sicher, dass nur ihr eigentliches Ziel und nicht auch gesundes Gewebe angegriffen wird.

Der Autor hat detailliert beschrieben, dass Feinstaub nicht in der Lage ist, in die biologischen Systeme / Prozesse einzugreifen, die mit Krankheiten wie Krebs in Verbindung stehen, die Feinstaub angeblich auslösen soll. Haben denn „Umwelteinflüsse“ keinen Einfluss auf genetische Prozesse?

Doch, natürlich! Wir sind Kinder der Evolution und wie Charles Darwin so brillant nachwies, passen wir / das Leben sich an seine Umwelt und deren Veränderungen an. So beträgt die Zeitspanne, in der sich ein Gen ändern kann, ca. 10.000 Jahre. Für die Menschheitsgeschichte und noch mehr, die Geschichte des Lebens auf der Erde ist dies nur ein Wimpernschlag. Dennoch wird jetzt hoffentlich niemand um die Ecke kommen und behaupten, seine Gene hätten sich geändert, weil er 10.000 Jahre einer zu hohen Feinstaubbelastung ausgesetzt war. Jeder wüsste sofort, dass dies nur blanker Unsinn sein kann.

Nun können sich Steuerungssequenzen in unserem Genom (Chromosomen) schneller ändern als proteincodierende Gene. Z.B. über Ablesefehler (in die Chromosomen kommt Feinstaub aber gar nicht hin) oder über springende Gene (transposable elements = TEs), die den Ort ihres Erbgutes ändern können und neben der genetischen Vielfalt, zu genetisch bedingten Krankheiten beitragen können. Ausgelöst werden solche Prozesse durch das Genom selbst. Das Genom / Chromosomen ist nämlich keine Datenbank, wie meist behauptet wird, sondern ein komplexes Betriebssystem, in das wie beim Computer auch Viren eindringen können. Als tote Materie kann Feinstaub dieses Betriebssystem nicht beeinflussen. Der Autor hat auch noch nie gehört, dass Feinstaub irgendein Computersystem, dessen Betriebssystem lahmgelegt hätte.

Allerdings können TEs auch epigenetisch kontrolliert werden. Hierbei wird keine DNA verändert, sondern die DNA markiert. Wie weiter oben bereits angerissen, können die Verpackungseinheiten der Chromosome, die Histone, über chemische Stoffe methyliert oder acethyliert werden. Dies entscheidet darüber, ob die Polymerase II den Genabschnitt ablesen kann. Also Stoffe produziert werden oder ob nicht. Über die Zelleigenschaften nehmen Umwelteinflüsse darauf Einfluss, das Grundprinzip der Evolution auf Genomebene.

Nur“, diese „Umwelteinflüsse“ müssen Tag ein, Tag aus, über Jahre anliegen, sonst verändert sich gar nichts. Beim Rauchen, das bekanntlich Krebs verursachen kann (wenn das Immunsystem, bzw. die genetische Ausstattung – der individuelle Phänotyp – dies nicht unterbindet) liegt dieses Tag ein Tag aus vor. Beim Feinstaub nicht! Selbst in Stuttgart wurde der Grenzwert nur an 63 Tagen in 2016 überschritten. Dies sind nicht einmal 10% eines Jahres und der gemessene Wert basiert hauptsächlich auf der Gewichtsklasse um 10µm und diese Gewichtsklasse beeinflusst rein gar nichts, weil sie nicht in der Lage ist, in den menschlichen Körper einzudringen. Zitat Prof. Ulrich Walter „PM 10 dringt nur bis in den Nasen-Rachenraum vor und ist daher gesundheitlich kaum bedenklich.“

Selbst das grüne Umweltamt in Stuttgart sagt zu dem kleinen Feinstaub von <2,5µm „seit Jahren keine Überschreitungen der Werte registriert“. Erschwerend kommt hinzu, dass der entzündungsauslösende Feinstaub in der Lunge, in Größenordnungen von <0,1µm liegt. Also nochmals der Faktor 25-mal kleiner als der angeblich gefährliche um 2,5µm.

Nein, bei den Feinstaubalarmen und Dieselfahrverboten geht es nicht um unsere Gesundheit, hier geht es um politische Mache zu Lasten eines ganzen Industriezweiges und auf dem Rücken der vielen, dortigen Beschäftigten. Aber dies ist den grünen Männchen und ihren Hilfstruppen gleichgültig. Durch die verbreitete Panik und Angstmache wird denn ausschließlich deren eigener Profit gestärkt. Sei es, um Wähler zu ihren Gunsten zu manipulieren, Macht auszuüben oder Gelder anzuhäufen. Alles zu Lasten unseres Landes und seiner Bürgerinnen und Bürger.

Teil 3: Scharlatane in Zeiten der Feinstaub-Hype, in kürze.

Raimund Leistenschneider – EIKE

Abb.19: Sebastiaen Vrancx, zugeschrieben, Affen mit Quacksalber auf einem Marktplatz. Der Autor vermag nun nicht zu sagen, ob der Affe symbolisch für die deutsche Qualitätspresse steht.

 




Grundlagen der Treibhaustheorie werden angefochten durch neue Analyse der Beobachtungen im Sonnensystem

Link zur ‘Unified Theory of Climate’

Ned Nikolov and Karl Zeller, Studie

Es war ein langer und verräterischer Weg mit vielen Revisionen und Verfeinerungen der ursprünglichen Studie. Bei mehreren Gelegenheiten wurde das Manuskript bereits ungelesen abgelehnt, aber Ned und Karl haben endlich ihr stark verbessertes und erweitertes Papier veröffentlicht. Diese letzte Version ist eine „Tour de Force“, die durch die Strenge der Kritik von einer Armee von Peer-Rezensenten in mehreren Zeitschriften gestärkt wurde.

Mit der Dimensionsanalyse (eine klassische Technik zur Ableitung von körperlich sinnvollen Beziehungen aus Messdaten) zeigen sie, dass die langfristige globale Gleichgewichtstemperatur von Oberflächen der PLaneten im Sonnensystem mit nur zwei Prädiktoren genau beschrieben werden können, so vielfältig sie auch sind, wie die Venus, der Mond, die Erde, der Mars, der Titan und Triton: Der mittlere Abstand von der Sonne und des absoluten atmosphärischen Oberflächendrucks. Diese Art von Cross-Planetary-Analyse mit überprüften NASA Beobachtungen wurde nicht von anderen Autoren durchgeführt. Es stellt den ersten und einzigen Versuch in der Geschichte der Klimaforschung dar, die Oberflächentemperatur der Erde im Zusammenhang mit einem kosmischen physikalischen Kontinuum zu bestimmen, das durch tatsächliche planetarische Beobachtungen definiert ist. Das Ergebnis ist die neue Erkenntnis, dass die Planetenklima unabhängig von der infraroten optischen Tiefe ihrer Atmosphären sind, die sich aus ihrer Zusammensetzung ergeben und dass die langwellige „Rückstrahlung“ tatsächlich ein Produkt der atmosphärischen thermischen Wirkung ist und nicht eine Ursache dafür.

Die Implikationen dieser Entdeckung sind fundamental und tiefgreifend! Es stellt sich heraus, dass die Schwerkraft und die Masse einer planetaren Atmosphäre, anstatt ihrer Zusammensetzung, die entscheidenden Faktoren bei der Bestimmung der Erhöhung der Temperatur sind, die die Oberfläche hat, im Vergleich zu der Temperatur, die die Oberfläche haben würde, wenn es keine Atmosphäre darüber gäbe. Das bedeutet, dass die menschliche industrielle Tätigkeit das globale Klima grundsätzlich nicht beeinflussen kann, da wir keinen Einfluss auf die atmosphärische Masse haben.

Eine weitere Konsequenz ist, dass die planetare Albedo weitgehend eine auftretende Eigenschaft des Klimasystems ist und nicht ein unabhängiger Treiber der Oberflächentemperatur. Ein weiterer wichtiger Schluss ist, dass das Klima der Erde in hundertjährigen Zeiträumen ziemlich stabil ist, da sich die Masse der Atmosphäre unter dem Einfluss des Sonnenwindes und der allmählichen, emittierenden und absorptiven Gasprozesse auf der Erde sich relativ nur sehr langsam ändert. Ein weiterer Schlüsselfaktor sind die hundertjährigen Variationen der Wolken-Albedo der Erde, die durch Schwankungen der Solar-magnetischen Aktivität induziert werden, sind auf Änderungen der Oberflächentemperatur in der Größenordnung von ± 0,65 K begrenzt. Dies ist wegen der Stabilisierung von negativen Rückkopplungen innerhalb des Systems (z. B. eine Verringerung der Wolkendecke verursacht Oberflächenwärme, die wiederum dazu neigt, die Verdunstung zu erhöhen und so die Wolkenbildung zu fördern).

Ned und Karl’s veröffentlichte Studie lenkt die Aufmerksamkeit der Forscher auf die Rolle des atmosphärischen Drucks als direkte Steuerung der planetaren Oberflächentemperatur. Der Druck wurde in der Klimaforschung seit über einem Jahrhundert missverstanden. Die aktuelle Treibhaustheorie erlaubt nur eine indirekte Wirkung des Drucks auf die Bodentemperatur durch die atmosphärische Infrarot-Opazität durch Absorptionslinienverbreiterung. Dies ist trotz der Tatsache, dass in der klassischen Thermodynamik die Gastemperatur bekanntermaßen eng vom Gasdruck abhängig ist. Zum Beispiel nutzt der Dieselmotor diese Abhängigkeit (alias das Prinzip der Kompressionsheizung) in eine praktische Technologie, die wir seit 120 Jahren genossen haben. Diese Punkte sind in dieser letzten Version des Papiers gut erklärt.

Um ihr neues Modell weiter zu validieren, haben Ned und Karl Vorhersagen für die Oberflächentemperaturen von Himmelskörpern gemacht, die noch nicht durch Sonden im Nahbereich untersucht wurden, aber in den kommenden zwei Jahrzehnten besucht werden sollen. Theorien leben und sterben auf dem Erfolg und Misserfolg der Vorhersagen, die von ihnen gemacht werden, also „Respekt und Anerkennung“ geht an Ned und Karl, die Rückgrat und Durchhaltevermögen gezeigt haben!

Diese erweiterte und überarbeitete Version von Ned und Karl’s Theorie ist hervorragend in ihrer umfassenden Behandlung des Themas und zitiert über 130 vorherige Beiträge aus der wissenschaftlichen Literatur. Ich empfehle Ihnen das Herunterladen und lesen Sie es in Ihrer Freizeit, um die tiefen Auswirkungen, die es für unser Verständnis der Physik der planetaren Atmosphären und der oberflächennahen thermischen Verstärkung, die bisher als „Treibhauseffekt“ bekannt ist, zu schätzen.

Erschienen am 1. June 2017 auf tallbloke

 

Auch der Autor kommentierte seinen Blogbeitrag zusätzlich

Ned Nikolov sagt:

  1. Juni 2017 um 14:19 Uhr

Vielen Dank, Roger für die freundliche Einleitung!

Wir haben jetzt eine umfassende alternative Theorie zur aktuellen Greenhouse (GH) Hypothese. Anders als das GH-Konzept basiert unsere Theorie jedoch auf geprüften Planetenbeobachtungen, die eine enorme Bandbreite an physikalischen Umgebungen im Sonnensystem umfassen. Die GH-Hypothese begann sein Leben als theoretische Vermutung im Jahre 1827, dass die Atmosphäre wie „das Glas eines Treibhauses“ (siehe die Schriften von Fourier) gearbeitet hat. Natürlich wissen wir jetzt, dass dies völlig falsch ist … Doch die Kernannahme der GH-Hypothese, nämlich dass eine freie konvektive Atmosphäre „Strahlungswärme“ fangen könnte, wurde niemals experimentell validiert oder demonstriert. Eine solche Validierung fehlt seit 190 Jahren, weil das „Einfangen von Hitze“ durch freie Gase in Wirklichkeit physisch unmöglich ist!

 

  1. Juni 2017 um 15:08 Uhr

Wir glauben an die Unabhängigkeit der Wissenschaft von der Politik! Leider ist ein rein physikalisches Problem, wie das Klima der Erde unangemessen in eine „moralische“ und „politische“ Frage von Politikern und extremen Umweltschützern mit tragischen Konsequenzen umgewandelt worden, wie man es aus den Milliarden von Dollars sehen kann, die bis jetzt den Planeten „retten“. Basierend auf einer mehr als missverstandenen Wissenschaftshypothese aus dem 19. Jahrhundert!

Um die Wurzeln des physikalischen Missverständnisses in der aktuellen Treibhaustheorie zu verstehen, empfehle ich Ihnen, diese 3 klassischen Papiere (jetzt im PDF-Format) zu lesen:

  1. Arrhenius S (1896)On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground
    [über den Einfluss von Kohlensäure in der Luft auf die Temperatur des Bodens] http://www.rsc.org/images/Arrhenius1896_tcm18-173546.pdf
  2. Callendar GS (1938)THE ARTIFICIAL PRODUCTION OF CARBON DIOXIDE AND ITS INFLUENCE ON TEMPERATURE
    Die Künstliche Produktion von Kohlenstoff und seinen Einfluss auf die Temperatur
    http://www.met.reading.ac.uk/~ed/callendar_1938.pdf)
  3. Fourier JBJ (1827)On the Temperatures of the Terrestrial Sphere and Interplanetary Space. A translation of Jean-Baptiste Joseph Fourier’s ”M´emoire sur les Temp´eratures du Globe Terrestre et des Espaces Plan´etaires,” , which originally appeared in M´emoires d l’Acad´emie Royale des Sciences de l’Institute de France VII 570-604 1827.
    [Über die Temperaturen der terrestrischen Kugel und des interplanetaren Raumes. Eine Übersetzung von Jean-Baptiste Joseph Fouriers…] Https://geosci.uchicago.edu/~rtp1/papers/Fourier1827Trans.pdf

Keiner dieser Studien hätte die modernen Standards der Peer-Reviews und der wissenschaftlichen Strenge bestanden, wenn sie heute als neue Manuskripte eingereicht würden. Dennoch werden diese Publikationen als Grundlage für das aktuelle GH-Konzept und die vermeintlichen menschlichen Auswirkungen auf das globale Klima zitiert …

 

Übersetzt durch Andreas Demmig

https://tallbloke.wordpress.com/2017/06/01/foundations-of-greenhouse-theory-challenged-by-new-analysis-of-solar-system-observations/

Anmerkung der EIKE-Redaktion

Immer wieder machen sich Naturwissenschaftler daran, die bis heute unzufriedend gelöste Problematik des atmosphärischen Treibhauseffekts zu verbessern oder gar gänzlich neu zufassen. Wir veröffentlichen diesen Beitrag, weil wir der Auffassung sind, dass er zur Diskussion beitragen könnte. Wir weisen aber darauf hin, dass zu einer ernsthaften Beschäftigung mit neuen Hypothesen die Veröffentlichung in einem referierten Fachjournal unabdingbare Voraussetzung ist. Dies ist hier der Fall.