„Organic-Flow“-Batterie: ökologisch Strom speichern wie Benzin oder Heizöl?

Um die von vorn herein nicht funktionierende Energiewende der Angela Merkel noch zu retten, treiben Journalisten eine Energiespeicher-Sau nach der anderen durchs Dorf; vom Wasserstoff bis zur Alu-Luft-Batterie. In einem aktuellen Artikel stellt das Handelsblatt den „Organic Flow“-Akkumulator vor, der mit Lignin funktionieren soll.

Für die Nicht-Biowissenschaftler unter uns: Das Material wird vor allen von Bäumen in die Zellulosewände ihrer Wasserleitgefäße eingelagert und somit massiv stabilisiert – so entsteht Holz. Lignin fällt in großer Menge in der Papierindustrie an, wo das es von der Zellulose getrennt wird.

Eingesetzt werden soll der „Abfallstoff“ in einer Flußbatterie als flüssiger Elektrolyt, nach dem Prinzip einer Redox-Flow-Batterie. Das Ergebnis ist nicht brennbar wie ein Lithiumakku, dafür aber auch nicht sehr fix, da die Energie nur sehr langsam abgegeben werden kann. Die Leistung und der Energieinhalt sollen zudem „fast beliebig“ skaliert werden können. Im Auto erscheint ein solch träger Akku nicht sinnvoll; daher sei die Batterie günstig als Zwischenspeicher von Ökostrom aus Windkraft etc, um „Lastspitzen im Stromnetz abzufedern“, wie ein Experte vom Fraunhofer-Institut meint.

Man könne mit der Flußbatterie „Lücken schließen“, für kleine Heimspeicher (von Leuten mit Solarpanneele auf dem Dach) oder im Vorfeld der Power-to-X-Projekte wie grünem Wasserstoff, den unsere Wissenschaftsministerin Anja Karliczek aus Afrika importieren will. Auch in EIKEs Heimstatt Jena will nun eine Firma namens Jena Batteries die organischen Batterien bauen.

Nun können wir Menschen bekannterweise Energie lange nicht so gut so gut speichern wie die Natur – als Folge thermodynamischer Beschränkungen. Es gibt grundsätzlich immer mindestens einen Faktor, der unsere Bestrebungen völlig zunichte macht. Wo ist also der Haken der „Ökobatterie“? Einer ist der hohe Preis, der aber nur daher rühre, daß die Batterien halt nicht im großen Maßstab produziert würden. Dennoch sind sich die Unternehmer aus Alzenau und Jena sicher, daß ihr Produkt langfristig konkurrenzfähig werde. Dann aber bitte ohne Subventionen über die Forschungsphase hinaus – dann glauben wir es. Ich befürchte aber eher, daß die verantwortlichen Politiker neben der Technik zur Gewinnung von Ökostrom bald auch die Zwischenspeicher fördern werden; schon, um die Energiewende wenigstens ein paar Jahre länger aufrecht erhalten zu können.




Warum Herden-Immunität bzgl. COVID-19 viel früher erreicht wird als gedacht

Das ,Herden-Immunitäts-Potential‘ [herd immunity threshold (HIT)] kann geschätzt werden aus der zugrunde liegenden Reproduktionsrate der Epidemie, R0 – eine Maßzahl, wie viele Menschen durch eine infizierte Person jeweils angesteckt werden können. Einfache Standard-Modelle epidemischen Wachstums implizieren, dass der HIT gleich ist {1 – 1/R0}. Ist der HIT erst einmal überstanden, beginnen Neu-Infektionen abzunehmen, was sicherstellen sollte, dass Gesundheitssysteme danach nicht zusammenbrechen und dass man wirksamer vorangehen kann, um die Krankheit zu eliminieren.

Allerdings schätzte der Ferguson20-Report, dass während der Epidemie 81% der Bevölkerung in UK und den USA infiziert werden würden, wenn man sich auf die Herden-Immunität verlässt, hauptsächlich über einen Zeitraum von 2 Monaten auf der Grundlage einer R0–Schätzung von 2,4. Diese Zahlen implizieren, dass Gesundheitssysteme doch zusammenbrechen würden mit der Folge von viel mehr Todesfällen. Die Studie behauptet, dass nur drakonische Maßnahmen der Regierung ein solches Szenario verhindern können. Sofort wurden derartige Maßnahmen in UK erlassen, ebenso wie in den meisten US-Staaten und verschiedenen anderen Ländern – in Gestalt höchst destabilisierender und restriktiver Lockdowns.

Eine bemerkenswerte Ausnahme war Schweden, wo man damit fortgefahren hat, eine auf Herden-Immunität basierende Strategie zu verfolgen. Das Team vom Imperial College schätzte, dass aufgrund der Mitte März eingeführten sehr moderaten Maßnahmen in Schweden R0 lediglich 2,5 betrug, mit einer Wahrscheinlichkeit von nur 2,5%, dass sie unter 1,5 lag (3). Die rapide Ausbreitung von COVID-19 in dem Land in der zweiten Märzhälfte zeigt, dass es unwahrscheinlich ist, dass R0 deutlich unter 2,0 lag (4).

Sehr vernünftigerweise hat die schwedische Gesundheitsbehörde die Anzahl der Individuen im Auge gehabt, welche mit dem SARS-COV-2-Virus infiziert waren, und zwar mittels des PCR-Testverfahrens in Stockholm, wo COVID-19 erstmals aufgetreten war. Daraus leitete man die Schätzung ab, dass bis zum 11. April 17% der Bevölkerung infiziert wäre und bis zum 1 Mai 2020 25% (5). Aber dennoch hat die Anzahl neuer Fälle ab dem 11. April aufgehört zuzunehmen (Abbildung 1), ebenso Einweisungen ins Krankenhaus, und beider Anzahl ist seitdem signifikant gesunken. Dies belegt, dass der Höhepunkt am 11. April erreicht worden war, zu welchem Zeitpunkt nur 17% der Bevölkerung infiziert gewesen zu sein scheinen.

Wie kann es sein, dass der HIT in Stockholm mit nur 17% der Bevölkerung infiziert erreicht worden war, während ein R0 von 2,0 normalerweise einen HIT von 50% implizieren würde?

Die Bedeutung der Inhomogenität der Bevölkerung

Eine neue Studie von Gomes et al. (7) gibt die Antwort. Sie zeigt, dass Unterschiede zwischen den Individuen hinsichtlich ihrer Anfälligkeit für Infektionen und ihrer Neigung, andere anzustecken, dazu führen können, dass die HIT viel geringer ausfällt als in einer homogenen Population. Einfache Standard-Modelle bzgl. Epidemien berücksichtigen eine solche Variabilität nicht. Und das bei Ferguson20 herangezogene Modell scheint trotz seiner erheblich größeren Komplexität nur diejenigen Inhomogenitäten zu berücksichtigen, welche sich aus einer sehr begrenzten Anzahl von Faktoren ergeben – vor allem die geographische Separierung von Anderen sowie die Größe der Haushalte – woraus nur eine moderate Auswirkung auf die Verbreitung der Epidemie resultiert (8). Unter Verwendung eines so modifizierten Modells, dass es eine solche Variabilität berücksichtigt, wobei die Kovariabilität zwischen Anfälligkeit und Infektiosität wohl realistischer gehandhabt wird als bei Gomes et al., bestätige ich ihre Feststellung, dass der HIT tatsächlich auf einem viel niedrigeren Niveau erreicht wird als bei einer homogenen Population. Das würde erklären, warum der Höhepunkt in Stockholm schon Mitte April durchlaufen worden war. Gleiches scheint der Fall gewesen zu sein in anderen großen Städten und Regionen, welche stark von COVID-19 betroffen waren.

Abbildung 1: Neu-Infektionen mit COVID-19 in Stockholm über die 7 Tage bis zum angegebenen Datum.

Man beachte in Abbildung 1, dass Tests bzgl. einer COVID-19-Infektion ab dem 11. März nur noch bei Menschen durchgeführt wurden, welche einer Behandlung im Krankenhaus bedurften, so dass seitdem nur ein kleiner Anteil an Infektionen als Fälle gemeldet wurden. Dies wäre die Ursache für das fehlende Wachstum in der ersten geplotteten Woche. Da Krankenhaus-Einlieferungen in der Regel erst mehrere Tage nach dem Auftreten von Symptomen erfolgen, vergrößert diese Änderung auch die Verzögerung zwischen Auftreten und Meldung einer Infektion als ein Fall. Dementsprechend wird die Zahl der Neuinfektionen, die im Durchschnitt etwa zwei Wochen zuvor aufgetreten sind, ab Mitte März mit einem Rückstand von 7 Tagen widerspiegeln.

[Es folgt eine längere Beschreibung der Verfahren und der Vergleiche der Verhältnisse in Stockholm mit denen anderswo mit vielen technischen Details. Diese Abschnitte werden hier bei der Übersetzung übersprungen, und es folgen die Schlussfolgerungen daraus. Anm. d. Übers.]

Conclusions

Wenn man in einem epidemiologischen Standard-Modell in vernünftiger Weise eine Inhomogenität in Bezug auf Anfälligkeit und Infektionsrate einbezieht, anstatt von einer homogenen Population auszugehen, führt dies zu einer sehr starken Senkung der Schwelle zur Herden-Immunität und auch des letztendlichen Infektionsniveaus, wenn die Epidemie danach einem ungehinderten Pfad folgt. Daher ist die Zahl der Todesfälle, die mit dem Erreichen der Herden-Immunität verbunden sind, viel geringer, als es sonst der Fall wäre.

Meiner Ansicht nach liegt die wahre Herden-Immunitätsschwelle wahrscheinlich irgendwo zwischen den 7% und 24%. Wenn sie bei etwa 17% läge, was aus dem Bezirk Stockholm bekannt ist, dürften die daraus resultierenden Todesfälle durch Infektionen vor Erreichen des HIT einen sehr geringen Anteil der Bevölkerung ausmachen. Die Sterblichkeitsrate bei Infektionen in Stockholm scheint bei etwa 0,4% zu liegen (20) und damit deutlich niedriger als nach den Schätzungen von Verity et al. (21), die in Ferguson20 verwendet wurden, mit einer Sterblichkeitsrate von weniger als 0,1% durch Infektionen bis zum Erreichen des HIT. Die Sterblichkeitsrate, um den HIT in weniger dicht besiedelten Gebieten zu erreichen, sollte niedriger sein, da R0 positiv mit der Bevölkerungsdichte zusammenhängt. (22) Dementsprechend sollten die Gesamttodesfälle bis zum Erreichen der Herden-Immunität deutlich unter 0,1% der Bevölkerung liegen. Obwohl es anschließend weitere Todesfälle geben würde, sollte es mit dem Schrumpfen der Epidemie immer praktikabler werden, ihr Ende durch Tests und Kontaktverfolgung zu beschleunigen, um die Ausbreitung von Infektionen zu verhindern und so die Zahl der weiteren Todesfälle in einem völlig ungemilderten Szenario erheblich unter die vom SEIR-Modell prognostizierte Zahl zu senken.

Remarks and References
[1] Neil M Ferguson et al., Impact of non-pharmaceutical interventions (NPIs) to reduce COVID-19 mortality and healthcare demand. Imperial College COVID-19 Response Team Report 9, 16 March 2020, https://spiral.imperial.ac.uk:8443/handle/10044/1/77482
[2] A final infection rate of 81% implies, in the context of a simple compartmental model with a fixed, homogeneous population, that the ‘effective R0‘ is between 2.0 and 2.1, and that the HIT is slightly over 50%. Ferguson20 use a more complex model, so it is not surprising that the implied effective R0 differs slightly from the basic 2.4 value that Ferguson20 state they assume.
[3] Flaxman, S. et al., Estimating the number of infections and the impact of non-pharmaceutical interventions on COVID-19 in 11 European countries. Imperial College COVID-19 Response Team Report 13, 30 March 2020, https://www.imperial.ac.uk/mrc-global-infectious-disease-analysis/covid-19/report-13-europe-npi-impact/
[4] Based on the Ferguson20 estimate of a mean generation time of 6.5 days, which appears to be in line with existing evidence, an R0 of 2.0 would result in a daily growth rate of 2.0^(1/6.5)= 11%. That is slightly lower than the peak growth rate in cases in late March in Stockholm County, and in early April in the two regions with the next highest number of cases, in both of which the epidemic took off slightly later than in Stockholm, and in line with the growth rate in Swedish COVID-19 deaths in early April
[5] https://www.folkhalsomyndigheten.se/contentassets/2da059f90b90458d8454a04955d1697f/skattning-peakdag-antal-infekterade-covid-19-utbrottet-stockholms-lan-februari-april-2020.pdf
[6] John Burn-Murdoch, Financial Times Research, 2 May 2020. http://web.archive.org/web/20200507075628/https:/twitter.com/jburnmurdoch/status/1256712090028576768
[7] Gomes, M. G. M., et al. Individual variation in susceptibility or exposure to SARS-CoV-2 lowers the herd immunity threshold. medRxiv 2 May 2020. https://www.medrxiv.org/content/10.1101/2020.04.27.20081893v1
[8] The 81% proportion of the population that Ferguson20 estimated would eventually become infected is only slightly lower than the 88% level implied by their R0 estimate of 2.4 in the case of a homogeneous population.
[9] https://en.wikipedia.org/wiki/Compartmental_models_in_epidemiology#The_SEIR_model
[10] Gomes et al. instead set the latent period slightly longer, to 4 days and treated it as a partly infectious period, unlike in the standard SEIR model.
[11] Li Q, Guan X, Wu P, et al.: Early Transmission Dynamics in Wuhan, China, of Novel Coronavirus-Infected Pneumonia. N Engl J Med. 2020; 382(13):1199–1207.https://www.nejm.org/doi/10.1056/NEJMoa2001316
[12] Once a SEIR model has passed its start up phase, and while a negligible proportion susceptible individuals have been infected, the epidemic daily growth factor is R0^(1/generation time), or 1.10–1.13 for R0=2.0–2.4 if the generation time is 7 days.
[13] L. Ferretti et al., Science 10.1126/science.abb6936 (2020).
[14] The coefficient of variation is the ratio of the standard deviation to the mean of its probability distribution. It is usual to assume a gamma distribution for infectivity, the shape parameter of which equals 1/CV2.
[15] Bi, Qifang, et al. “Epidemiology and transmission of COVID-19 in 391 cases and 1286 of their close contacts in Shenzhen, China: a retrospective cohort study.” The Lancet Infectious Diseases 27 April 2020. https://doi.org/10.1016/S1473-3099(20)30287-5
[16] Endo, Akira, et al. “Estimating the overdispersion in COVID-19 transmission using outbreak sizes outside China.” Wellcome Open Research 5.67 (2020): 67. https://wellcomeopenresearch.org/articles/5-67
[17] Lloyd-Smith, J O et al. “Superspreading and the effect of individual variation on disease emergence.” Nature 438.7066 (2005): 355-359. https://www.nature.com/articles/nature04153
[18] For computational efficiency, I divide the population into 10,000 equal sized segments with their common social connectivity factor increasing according to its assumed probability distribution, and allocate each population segment values for unrelated variability in susceptibility and infectivity randomly, according to their respective probability distributions.
[19] A highly susceptible but averagely infectious person is more likely to be removed from the susceptible pool early in an epidemic, reducing the average susceptibility of the pool. However, no such selective removal occurs for a highly infectious person of averagely susceptibility. Therefore, as Gomes et al. point out, variability in susceptibility lowers the HIT, but variability in infectivity does not do so except to the extent that it is correlated with variability in susceptibility.
[20] On 8 May 2020 reported total COVID-19 deaths in Stockholm County were 1,660, which is 0.40% of the estimated 413,000 of its population who had been infected by 11 April 2020. COVID-19 deaths reported for Stockholm County after 8 May that relate to infections by 11 April 2020 are likely to be approximately balanced by deaths reported by 8 May 2020 that related to post 11 April 2020 infections.
[21] Verity R, Okell LC, Dorigatti I, et al. Estimates of the severity of COVID-19 disease. medRxiv 13 March 2020; https://www.medrxiv.org/content/10.1101/2020.03.09.20033357v1.
[22] Similarly, the HIT may be significantly higher in areas that are very densely populated, have much less inhomogenous populations and/or are repeatedly reseeded from other areas. That would account for the high prevalence of COVID-19 infection that has been found in, for instance, some prisons and residential institutions or in city districts.
Link: https://www.nicholaslewis.org/why-herd-immunity-to-covid-19-is-reached-much-earlier-than-thought/
Übersetzt von Chris Frey EIKE
Hinweis in eigener Sache: Wegen mangelnder Sachkenntnis des Übersetzers ist bei dieser Übersetzung phasenweise eine Übersetzungsmaschine benutzt worden [Linguee].




Bestechung zum Ausbau der Windenergie

 Kosten der Stromerzeugung

 
Wir müssen in Deutschland zwei Gruppen von Stromerzeugern unterscheiden.
1. Stromerzeuger, die regelbar sind und jederzeit planbar die verlangte Leistung produzieren können. Das sind die Kern-, Kohle- und Gaskraftwerke mit 3 bis 7 Cent je Kilowattstunde (Ct/kWh) Erzeugungskosten, die Wasserkraftwerke mit 3 bis 10 und die sogenannten Biogasanlagen mit 10 bis 17 Cent. Wasserkraftwerke und Biogasanlagen können ihre Strommenge kaum noch erhöhen, weil es dafür an Flächen fehlt. Das Rückgrat der Stromerzeugung sind die Dampf- und Gaskraftwerke, denn sie liefern mit ihren großen rotierenden Massen auch die Momentanreserve, die für die Netzstabilität notwendig ist. Aber Steinkohle und Gas müssen importiert werden. Braunkohle dagegen ist der einzige nennenswerte heimische Energieträger. Mit dem Verzicht auf die Braunkohleverstromung ist Deutschland voll vom Ausland abhängig und damit beliebig erpressbar.
2. Stromerzeuger, deren Leistung vom Wetter bestimmt wird. Das sind die Windgeneratoren und Solaranlagen. Deren Leistung an Land schwankt zwischen 0  Prozent bei nächtlicher Windstille und 60  Prozent bei Starkwind und Sonnenschein, bezogen auf die installierte Leistung. Im Jahresmittel leisten die Windgeneratoren nur 20  und die Solaranlagen nur 10  Prozent. Auf See werden gelegentliche Spitzenleistungen von mehr als 80  Prozent erreicht, aber im Jahresdurchschnitt weniger als 40  Prozent.  Die Erzeugungskosten von Windstrom an Land liegen bei 8 Ct/kWh, auf See bei 15 und von Solarstrom  bei 13 Cent. Der Wert dieses Stromes liegt jedoch deutlich unter diesen Erzeugungskosten, weil er meist nicht verfügbar ist, wenn man ihn braucht. Daher müssen Regelkraftwerke künstlich gedrosselt („unter Teillast“) mitlaufen. Wird mehr Strom gebraucht, werden sie hochgefahren, wenn das Stromangebot aus Wind und Sonnenschein steigt, werden sie gedrosselt. Wind- und Solarstrom können also immer nur einen Teil des Kraftwerkstromes ersetzen.

Was ist Fakepower?

Und sie sind teuer. Trotzdem plant die Bundesregierung mit diesem Strom die Vollversorgung Deutschlands. Das ist wirtschaftlicher und das ist technischer Unsinn. Um ihn gleichwohl durchzusetzen, werden den Bürgern zu den Kosten und sonstigen Auswirkungen einseitige und auch falsche Angaben aufgetischt. Daher nennt  der Stromverbraucherschutz NAEB diesen Strom „Fakepower“ (Fake = Fälschung, Täuschung). Die Angaben über die Produktionskosten von Fakepower unterscheiden sich erheblich – je nachdem, ob sie von Befürwortern oder Kritikern der Energiewende kommen. Vergütet jedenfalls wird die Fakepower den Erzeugern mit durchschnittlich 14 Ct/kWh. Diese Zahl stammt von den  Übertragungsnetzbetreibern, die für die Auszahlung der Vergütungen nach dem EEG zuständig sind. Der Börsenpreis von Fakepower schwankt zwischen 3 bis 0 Cent. Bei Starkwind und Sonnenschein und gleichzeitig geringer Stromnachfrage geht der Börsenpreis sogar ins Minus. Damit der  Überschussstrom entsorgt wird, erhalten die Abnehmer ihn nicht nur gratis, sondern sogar noch Geld dazu. Allein im letzten Monat (April 2020) war das siebenmal der Fall. Im laufenden Jahr  2020 gab es bereits fast 200 Stunden mit solchen negativen Strompreisen.

Fakepower als Preistreiber

Deutschland kann preiswert und sicher mit Kraftwerksstrom versorgt werden. Es sind auch keine neuen Stromtrassen erforderlich. Fakepower verteuert den Strom nicht nur durch die EEG-Umlage (das ist die Differenz zwischen Vergütung und Börsenpreis), sondern weiterhin durch steigenden Regelaufwand, durch Ersatzkraftwerke, durch neue Trassen von Nord nach Süd und Verstärkung der Verteilernetze und durch höhere Stromverluste wegen längerer Leitungen. Hinzu kommen noch die Ausgleichkosten für das Abschalten von Industrieanlagen, wenn die Fakepowererzeugung  durch Wolken oder nachlassenden Wind plötzlich abfällt. Jede neue Fakepower-Anlage erhöht zwangsläufig die Stromkosten weiter. Nur mit Fakepower allein kann kein sicheres Stromnetz aufgebaut bzw. erhalten werden. Das zeigen unter anderem die Inseln El Hierro (Kanaren) und Graciosa (Azoren), die komplett auf Solar- und Windstrom umsteigen wollten. Der Strompreis stieg auf über 100 Ct/kWh. Trotzdem war eine sichere Versorgung nur mit Dieselgeneratoren möglich, die immer wieder einspringen mussten. Die Inseln werden inzwischen wieder weitgehend mit Dieselgeneratoren versorgt  – mit sinkenden Strompreisen.
Die deutsche Regierung nimmt diese negativen Erfahrungen nicht zur Kenntnis. Sie will die Stromerzeugung aus Wind und Sonne immer noch weiter ausbauen, obwohl bei Starkwind und Sonnenschein schon heute Fakepower im Überschuss erzeugt wird, die kostenpflichtig entsorgt werden muss. Sie will die Leistung der Windgeneratoren und Solaranlagen verdreifachen: von heute über 100.000 MW auf 300.000 MW. Rein rechnerisch könnte man damit etwa 80 Prozent des Strombedarfs in Deutschland decken. Praktisch und technisch ist das nicht möglich. Der Überschussstrom muss entsorgt werden und geht verloren. Ihn zur Erzeugung von Wasserstoff zu verwenden, ist unwirtschaftlich. Für ein stabiles Netz brauchen wir mindestens 45 Prozent Leistung aus den Kraftwerken, die mit ihren großen rotierenden Generatoren die Frequenz stabilisieren und den Takt für das Einspeisen von Fakepower vorgeben. Wie die wachsenden Mengen von Überschussstrom zeigen, haben wir bereits jetzt die Grenze für das Einspeisen von Fakepower erreicht. Doch die mächtige Lobby der Energiewendeprofiteure im Verein mit Klimaschutzideologen hat den Bau von weiteren Fakepower-Anlagen durchgesetzt.

Widerstand gegen Fakepower wächst

Gegen den Bau von Windkraftanlagen wenden sich inzwischen rund eintausend Bürgerinitiativen, die in dem Verband „Vernunftkraft“ zusammengeschlossen sind. Die Akzeptanz für Windkraftanlagen nimmt stark ab. Wahre Umweltschützer wollen keine Anlagen, die Vögel, Fledermäuse und Insekten töten. Naturfreunde lehnen sich gegen den Bau von Windrädern in Wäldern und an oder sogar in Naturschutzgebieten auf. Anlieger beklagen die Entwertung ihrer Immobilien und Gesundheitsschäden durch Schattenschlag und Infraschall. Eine wachsende Zahl der Gegner hat inzwischen auch erkannt, dass Windenergie den Strom zugunsten der Profiteure verteuert, ohne den immer ins Feld geführten Klimazielen näher zu kommen. Wie bereits beschrieben, ist dies technisch und wirtschaftlich nicht möglich.

Bestechung

Die Bundesregierung im Verein mit den Profiteuren will nun den Widerstand brechen. Sie will die Anlieger und die für die Baugenehmigung zuständigen Gemeinden mit Geld ködern. Die Gemeinden sollen pro Anlage im Jahr 20.000 Euro erhalten und die betroffenen Anlieger verbilligten Strom beziehen können. So will die Regierung sie an der „Wertschöpfung“ beteiligen. Das ist Bestechung pur. Doch diese Bestechung ist gesetzlich gewollt und damit nicht strafbar. Hier wird das gleiche System angewendet wie bei den Dumping-Verkäufen von Fakepower. Die Vergütung von Fakepower liegt weit über den Börsenpreisen. Der ständige Verkauf unter den Gestehungskosten ist Dumping. Mit Dumpingkosten von mehr als 25 Milliarden Euro im Jahr dürfte dies die größte Dumpingaktion der Welt sein. Sie wird aber nicht geahndet, weil sie vom EEG geschützt wird.
Fakepower ist teurer und unwirtschaftlicher Strom. Ohne Subventionierung rechnet sich keine Anlage. Ohne EEG würde sich kein Windrad drehen und der Strompreis auf die Hälfte sinken. Mit dem EEG steigt der Strompreis mit jeder neuen Anlage weiter. Die „Bestechungskosten“ werden die Betreiber über einen Vergütungszuschlag einfordern. Mit steigenden Strompreisen bezahlen damit die geköderten Gemeinden und Anlieger die Vergünstigungen selbst.
Pressesprecher NAEB e.V. Stromverbraucherschutz



Globale Erwärmung für die zwei Kulturen

Über den Vortragenden

Richard S. Lindzen war Alfred P. Sloan-Professor für Meteorologie beim Massachusetts Institute of Technology bis zu seinem Ruhestand im Jahre 2013. Er ist Autor von über 200 Fachartikeln zu den Themen Meteorologie und Klimatologie und ist ein Mitglied der US-National Academy of Sciences und in der akademischen Beratungsversammlung der GWPF (s. Liste der Mitglieder am Ende des Papiers.).
Prof. Lindszens Vortrag
Vor über einem halben Jahrhundert hat C.P. Snow (ein Romanschriftsteller und physikalischer Chemiker, der auch in verschiedenen wichtigen Positionen des Britischen Staatsdiensts und kurzzeitig in der UK-Regierung diente) ausgezeichnet die Verflechtungen ‚zweier Kulturen‘ untersucht:

„Viele Male war ich bei Zusammentreffen von Leuten anwesend, die –nach den
Maßstäben der traditionellen Kultur – für hochgradig gebildet gehalten
wurden und die mit beträchtlicher Begeisterung ihre Ungläubigkeit bezüglich
der Unwissenheit der Wissenschaftler zum Ausdruck brachten. Ein-oder auch
zweimal war ich provoziert und habe die Gesellschaft gefragt, wie viele von
ihnen das Zweite Gesetz der Thermodynamik (2. Hauptsatz) beschreiben könnten. Die
Reaktion war kalt: Sie war negativ. Obwohl ich nach etwas gefragt hatte, was
das wissenschaftliche Gegenstück zu der Frage war: „Haben Sie ein Stück von
Shakespeares Werk gelesen?“.
Ich glaube nun, falls ich eine noch einfachere Frage gestellt hätte – so etwa
„Was bedeutet Masse, oder Beschleunigung, was ist das wissenschaftliche
Äquivalent zu der Frage „Können Sie lesen?“ – nicht mehr als einer von zehn
dieser hochgradig Gebildeten hätte den Eindruck gehabt, dass ich die gleiche
Sprache wie sie benutze. So geht es dem das großartigen Gebäude der
modernen Physik und die Mehrheit der cleversten Leute in der westlichen
Welt hat etwa so viel Kenntnis davon wie es ihre Vorgänger im Neolithikum
hatten.“

Ich befürchte, dass sich seit Snows Einschätzung vor 60 Jahren nicht viel geändert hat. Während es einige weiterhin vertreten mögen, dass Unwissenheit in der Physik die politischen Fähigkeiten nicht beeinträchtigt, so beeinträchtigt das jedoch sehr wahrscheinlich die Fähigkeit von nicht-wissenschaftlichen Politikern, mit wissenschaftlich-basierten Themen umzugehen. Die Lücke im Verständnis ist somit eine Einladung zur vorsätzlichen, bösartigen Ausnutzung. Bei der demokratischen Notwendigkeit, dass Nicht-Wissenschaftler zu einer wissenschaftlichen Frage Stellung beziehen, ersetzen Glaube und Vertrauen unvermeidlich das Verständnis, wobei triviale und stark vereinfachte falsche Erzählungen die Nichtwissenschaftlern darin beruhigen, dass sie nicht ohne wissenschaftliches „Verständnis“ handeln. Das Thema der globalen Erwärmung bietet zahlreiche Beispiele für all‘ das.
Ich möchte diese Vorlesung mit dem Versuch beginnen, die Wissenschaftler im Auditorium sich mit der wirklichen Natur des Klimasystems auseinander  zu setzen , und den motivierten Nicht-Wissenschaftlern unter den Zuhörern zu helfen, dass sie bei Snows „einer von zehn“ dabei sind, um sich über die trivialen Übervereinfachungen hinwegzusetzen.

Das Klimasystem


Die nachfolgende Beschreibung des Klimasystems enthält nichts, was im Geringsten kontrovers ist und ich erwarte, dass jedermann mit wissenschaftlichem Hintergrund ohne Weiteres dieser Beschreibung folgen kann. Auch werde ich trotz der Beobachtungen von Snow versuchen, diese Beschreibung auch für den Nicht-Wissenschaftler verständlich zu machen.
Das System, das wir betrachten, besteht aus zwei turbulenten Flüssigkeiten (die Atmosphäre und die Ozeane) , die sich miteinander in Wechselwirkung befinden. Mit „turbulent“ meine ich einfach, dass es durch irreguläre Kreisläufe gekennzeichnet ist – wie zum Beispiel in einem gurgelnden Bach oder in kochendem Wasser – allerdings hier im planetarischen Maßstab der Ozeane und der Atmosphäre. Der Gegensatz von turbulent wird laminar genannt, aber jede Flüssigkeit, die zu einer genügend schnellen Strömung gezwungen wird, die wird turbulent – und Turbulenz begrenzt deutlich eine Berechenbarkeit und Voraussage. Mit Wechselwirkung meine ich einfach, dass sie Druck und Stress aufeinander ausüben und dabei auch Wärme austauschen.
Diese Flüssigkeiten befinden sich auf einem rotierenden Planeten, der ungleichmäßig von der Sonne „beheizt“ wird. Die Bewegungen in der Atmosphäre (und in geringerem Ausmaß in den Ozeanen) werden durch diesen ungleichmäßigen Einfluss der Sonne verursacht. Die Sonne selbst kann die Erde durchaus unveränderlich bestrahlen, aber sie scheint senkrecht über den Tropen während sie die Polregionen nur streift. Was die Ozeane antreibt, ist weitaus komplexer und es enthält den Windeinfluss ebenso wie das Absinken von kaltem und von Salzwasser. Auch die Erdrotation hat ebenfalls viele Auswirkungen, aber hier sollten wir einfach zur Kenntnis nehmen, dass es zu einer Einstrahlung entlang der Breitengrade führt, die somit einer Kreisbahn folgt.
Die Ozeane haben Kreisläufe und Strömungen, die in Zeiträumen von Jahren bis zu Jahrtausenden ablaufen, und diese Systeme befördern Wärme hin zu der Oberfläche und weg von ihr. Auf Grund der Ausmaße und der Dichte der Ozeane sind diese Flussgeschwindigkeiten generell sehr viel kleiner als wie in der Atmosphäre und sind durch weitaus längere Zeitabläufe gekennzeichnet. Die Tatsache, dass diese Zirkulationen Wärme zur Oberfläche und von ihr fort transportieren, bedeutet, dass sich die Oberfläche selbst niemals in einem Gleichgewicht mit dem Weltraum befindet. Das heißt, es gibt niemals ein exaktes Gleichgewicht zwischen der von der Sonne eingehenden Wärme und der von der Erde abgegebenen Strahlung weil Wärme immer in den Ozeanen gespeichert und auch von ihnen abgegeben wird und sich deren Oberflächentemperatur daher immer etwas verändert.
Zusätzlich zu den Ozeanen steht die Atmosphäre in Wechselwirkung mit einer sehr unregelmäßigen Landoberfläche. Wenn Luft über eine Gebirgsregion strömt, ist dieser Fluss stark gestört. Deshalb spielt die Topographie bei der Beeinflussung des regionalen Klimas eine Hauptrolle. Diese gestörten Luftströmungen erzeugen sogar Strömungswellen, die das Klima in entfernten Regionen ändern können. Computersimulationen des Klimas können diese Auswirkungen nicht ausreichend beschreiben.
Ein entscheidender Bestandteil des atmosphärischen Teils ist Wasser – in seinen flüssigen, festen oder dampfförmigen Phasen – und die Phasenänderungen haben gewaltige Auswirkungen auf die Energieflüsse. Jede dieser beiden Komponenten hat auch bedeutende Auswirkungen auf die Abstrahlung. Sie alle wissen, dass es Wärme braucht, um Eis zu schmelzen, und weitere Wärme ist erforderlich, um aus Wasser Dampf zu erzeugen. Der Begriff Feuchtigkeitsgehalt bezieht sich auf die Wasserdampfmenge in der Atmosphäre. Die Flussrichtung der Wärme kehrt sich um, wenn die Phasenwechsel in Gegenrichtung erfolgen; das heißt, wenn Wasserdampf zu Wasser kondensiert und wenn Wasser gefriert. Das Freiwerden von Wärme bei der Wasserdampf-Kondensation erzeugt Gewitterwolken (bekannt als Cumulonimbus), und die in einer Gewitterwolke existierende Energie ist mit der einer H-Bombe vergleichbar. Ich sage das, um zu veranschaulichen, dass diese Energieumwandlungen sehr beträchtlich sind. Wolken bestehen aus Wasser in Form von kleinen Tröpfchen und Eis in Form kleiner Kristalle. Normalerweise werden diese Tröpfchen und Eiskristalle durch aufsteigende Luftströmungen in der Schwebe gehalten, aber wenn sie genügend groß angewachsen sind, fallen sie durch die aufsteigende Luft als Regen oder Schnee. Nicht nur sind die bei den Phasen-Umwandlungen beteiligten Energien bedeutend, ebenso ist es eine Tatsache, dass sowohl Wasserdampf als auch Wolken (Eis und Wasser enthaltend) die Abstrahlung stark beeinflussen.
Obwohl ich noch nicht den Treibhauseffekt erwähnt habe, bin ich sicher, dass Sie alle gehört haben, dass Kohlendioxid ein Treibhausgas ist und dass dies seine Erwärmungswirkung erklärt. Sie sollten deshalb verstehen, dass die zwei wichtigsten Treibhaus-Substanzen bei weitem Wasserdampf und Wolken sind.
Wolken sind außerdem bedeutende Reflektoren für das Sonnenlicht.
Das Einheitsmaß für die Beschreibung von Energieflüssen ist Watt pro Quadratmeter. Der Energievorrat dieses Systems enthält die Absorption und die Rückstrahlung von etwa 200 Watt pro Quadratmeter. Eine Verdopplung des CO2 hat eine Störung von 2 % dieses Energiebudgets zur Folge. Das bewirken auch kleinere Veränderungen in der Bewölkung oder andere Merkmale, und solche Veränderungen gibt es häufig. Die Erde empfängt etwa 340 Watt pro Quadratmeter von der Sonne, aber ca. 140 Watt pro Quadratmeter werden einfach in den Weltraum zurück reflektiert – sowohl von der Erdoberfläche, aber wichtiger noch, durch die Wolken. Damit bleiben etwa 200 Watt pro Quadratmeter, die von der Erde emittiert werden müssen um ein Gleichgewicht herzustellen. Die Sonne strahlt im sichtbaren Teil ihres Strahlungsspektrums, weil ihre Temperatur ca. 6000K beträgt. „K“ bezieht sich auf Kelvin-Grade, die einfach Celsiusgrade plus 273 sind. Null K ist die niedrigste mögliche Temperatur (-273 oC). Die Temperatur bestimmt das Spektrum der emittierten Strahlung.
Wenn die Erde gar keine Atmosphäre hätte (aber für die hier angewendete Beweisführung nach wie vor 140 Watt pro Quadratmeter reflektieren würde), dann müsste sie (den verbleibenden Überschuss) mit einer Temperatur von etwa 255K (minus 18 oC) abstrahlen, und bei dieser Temperatur wäre ihre Strahlung überwiegend im Infrarot.
Selbstverständlich hat die Erde eine Atmosphäre und Ozeane, und das schafft eine Unmenge an Komplikationen. Seien Sie also gewarnt, denn was nun folgt, erfordert eine nicht unerhebliche Konzentration. Die Verdunstung aus den Ozeanen schafft Wasserdampf in die Atmosphäre – und Wasserdampf absorbiert und emittiert sehr stark Strahlung im Infrarot. Das meinen wir, wenn wir Wasserdampf ein Treibhausgas nennen. Der Wasserdampf behindert ganz wesentlich Infrarotstrahlung, die die Erdoberfläche verlassen will, was dazu führt, dass sowohl die Oberfläche und (durch Energieübertragung) auch die Luft in Oberflächen-Nähe aufgeheizt wird und – wie bei einem erwärmten Topf mit Wasser – setzt die Konvektion ein. Weil die Luftdichte mit der Höhe abnimmt, dehnen sich die Bestandteile bei ihrem Aufstieg aus. Das führt wiederum dazu, dass sich diese Bestandteile abkühlen, und ihre Vermischung bewirkt eine abnehmende Temperatur bei größerer Höhe anstelle einer konstanten Temperatur. Um dieses Geschehen noch komplizierter zu machen, sinkt der Anteil des Wasserdampfs, den die Luft halten kann, bei dieser sinkenden Temperatur. Bei einer bestimmten Höhe existiert dort derart wenig Wasserdampf, dass nun die Strahlung ab dieser Höhe in den Weltraum „entkommen“ kann. An diesem Höhenniveau (um die 5 km) muss die Temperatur etwa 255K betragen, um die Energie der Einstrahlung auszugleichen. Aber weil die Konvektion – die Wärmeleitung – dazu führt, dass die Temperatur mit wachsender Höhe abnimmt, , muss jetzt die Erdoberfläche wärmer als 255K sein. Es stellte sich heraus, dass sie etwa 288K betragen muß (was die Durchschnittstemperatur der Erdoberfläche ist).
Das ist es, was man jetzt als Treibhauseffekt bezeichnet. Es ist eine interessante Kuriosität, dass es in dem Falle, dass die Konvektion eine konstante Temperatur erzeugt hätte, keinen Treibhauseffekt geben würde.
In der Realität ist die Situation noch komplizierter. Unter anderem blockiert die Existenz hoher Cirrus-Wolken, die sehr starke Absorber und Emitter von Infrarotstrahlung sind, sehr wirksam die von unten kommende Strahlung. Wenn es also derartige Wolken oberhalb von etwa 5 km gibt, dass bestimmen ihre obersten Teile die Höhe, ab der Infrarot in den Weltraum abgestrahlt werden kann. Das Hinzufügen von anderen Treibhausgasen (wie Kohlendioxid) hebt diese Emissionshöhe weiter an und wegen der konvektiven Vermischung wird dieser neue Level kälter sein. Das wiederum verringert den abgegebenen Infrarot-Strahlungsfluss und – um das Gleichgewicht wieder zu erreichen – würde sich die Atmosphäre erwärmen müssen. Eine Verdopplung der Kohlendioxid-Konzentration wird als eine Wirkung (forcing) von ca. 3,7 Watt pro Quadratmeter abgeschätzt, was etwas weniger als 2% der ankommenden Nettoenergie ist. Zahlreiche Faktoren wie Wolkenbedeckung und –höhe, Schneebedeckung und Ozeanströmungen verursachen gewöhnlich Änderungen von vergleichbarer Größenordnung.
Es ist wichtig, zur Kenntnis zu nehmen, dass ein solches System in Zeiträumen fluktuiert, die von Sekunden bis zu Jahrtausenden variieren – sogar in der Abwesenheit eines stabilen Antriebs anstelle der Sonne. Viele der populären Veröffentlichungen (auf beiden Seiten der Klimadebatte) nehmen an, dass alle Veränderungen von bestimmten externen Faktoren bewirkt werden. Selbstverständlich ist das Klimasystem von der Sonne angetrieben, aber selbst wenn der solare Antrieb konstant wäre, würde sich das Klima verändern. Das wussten Sie alle schon seit langem – selbst wenn Sie das nicht realisierten. Schließlich können Sie ohne Schwierigkeit feststellen, dass das Streichen einer Violinensaite mit einem Bogen dazu führt, dass die Saite zu vibrieren beginnt und Schallwellen erzeugt werden. In einer ähnlichen Weise reagiert das Atmosphäre-Ozean-System auf einen gleichmäßigen Antrieb mit seinen eigenen Variationsarten (die zugegebenermaßen oft komplexer sind als die Wirkungsweise einer Violinensaite). Überdies können angesichts der massiven Natur der Ozeane derartige Veränderungen eher Zeiträume von Jahrtausenden als von Millisekunden zur Folge haben. El Niño, das Jahre andauert, ist ein relativ kurzfristiges Beispiel, aber die meisten dieser innewohnenden Zeitveränderungen sind zu lang, um mit unseren – zeitlich relativ kurzen- gemessenen Aufzeichnungen erkannt zu werden. Die Natur bietet zahlreiche Beispiele von autonomen Veränderlichkeiten; einschließlich des annähernd 11-jährigen Sonnenflecken-Zyklus sowie die Umkehrungen des Magnetfeldes der Erde nach etwa hunderttausend Jahren. In dieser Beziehung unterscheidet sich das Klimasystem nicht von anderen natürlichen Systemen.
Selbstverständlich reagieren derartige Systeme auf externe Antriebe, aber solche Antriebe werden von ihnen nicht benötigt, um eine Variabilität zu zeigen. Während das oben Gesagte vollkommen unstreitig ist, denken Sie dennoch für eine Weile darüber nach. Bedenken Sie die gewaltige Verschiedenheit und Komplexität des Systems sowie die Vielfalt der Variabilitäts-Mechanismen wenn wir die derzeitige Schilderung bewerten, die gewöhnlich als entschiedene Wissenschaft (settled science) präsentiert wird.

Die populäre Schilderung und ihre politische Entstehung

Hier ist nun die derzeitige populäre Beschreibung dieses Systems. Das Klima, ein komplexes Multifaktoren-System, kann in gerade einer Veränderlichen, der globalen Temperaturveränderung,  zusammengefasst werden – und ist hauptsächlich von der 1 – 2% Störung im Energiehaushalt auf Grund einer einzigen Veränderlichen – Kohlendioxid – unter vielen anderen Veränderlichen von vergleichbarer Bedeutung.
….Das ist ein merkwürdiges Paar von Behauptungen, das an Wunderglaube grenzt. Es ist allerdings die Beschreibung, die weithin akzeptiert wird; sogar von vielen Skeptikern. Diese Akzeptierung ist ein starker Hinweis auf das von Snow festgestellte Problem.
….Viele Politiker und akademische Gesellschaften gehen sogar noch weiter: Sie schließen sich der Ansicht an, dass Kohlendioxid die maßgebliche Variable ist und obwohl die von Menschen verursachten CO2-Beiträge im Vergleich mit den viel größeren, aber unbestimmten natürlichen Austauschprozesse mit den Ozeanen und der Biosphäre gering sind, sind sie davon überzeugt, dass sie genau wissen, welche Politiken eingeführt werden müssen, um die Kohlendioxidwerte zu steuern.
….Obwohl einige Wissenschaftler diese Ansicht in den vergangenen 200 Jahren vertreten haben, wurde sie bis zu den 1980er Jahren generell zurückgewiesen. Als 1988 der NASA-Wissenschaftler James Hansen dem US-Senat mitteilte, dass die Wärme des Sommers die erhöhten Kohlendioxid-Werte widerspiegelt, berichtete sogar das Science Magazin, dass die Klimatologen skeptisch waren. Die Etablierung dieser extremen Position als ein Dogma in dem bisherigen Zeitraum ist politischen Akteuren zuzuschreiben sowie Anderen, die die Möglichkeiten ausnutzen wollten, die im multi-Billionen-Dollar Sektor reichlich vorhanden sind. Ein Beispiel war Maurice Strong, ein weltumfassender Bürokrat und raffinierter Geschäftemacher (der seine letzten Jahre in China verbrachte, um seiner Strafverfolgung wegen seiner Rolle in den Skandalen im Öl-für-Lebensmittel-Programm der UN zu entgehen). Strong wird wiederholt zugeschrieben, dass er die Bewegung „Globale Erwärmung“ in den frühen 1980ern einleitete und später die Rio-Konferenz zu organisieren half, welche die Rahmenkonvention zum Klimawandel erarbeitete. Andere Personen wie Olof Palme und dessen Freund Bert Bolin, der der erste Vorsitzende des Intergovernmental Panel on Climate Change IPCC (Amn.:“Weltklimarat“) war, waren ebenfalls – schon in den 1970ern – beteiligt.
….Die politische Begeisterung verstärkte sich noch, als politische Ideologie eine Hauptrolle zu spielen begann. Einige Jahre zuvor sagte Christiana Figueres, die damalige Generalsekretärin, dass sich die Menschheit zum ersten Male in der Geschichte selbst die Aufgabe gesetzt hätte, absichtlich das Wirtschaftssystem zu verändern (L 1).
….Ms. Figueres glaubt dies nicht allein. Der engste Berater von Papst Franziskus übte scharfe Kritik an konservativen Klimawandel-Skeptikern in den USA und beschuldigte den Kapitalismus für ihre Ansichten. In einem Gespräch mit Journalisten kritisierte Kardinal Rodriguez Maradiaga gewisse „Bewegungen“ in den USA, die im Voraus ihre Opposition zu Franziskus‘ geplanter Enzyklika zum Klimawandel kundgetan hatten. „Die Ideologie, die Umweltthemen umgibt, ist auch mit einem Kapitalismus verbunden, der die Zerstörung der Umwelt nicht aufhalten will, weil sie ihre Profite nicht aufgeben wollen“, sagte er.
….In diesem kürzlich vergangenen August (Anm.:2018) erschien in den Proceedings of the National Academy of Sciences ein Artikel. Übersät mit „kann sein“ und „könnte sein“ folgerte er, dass eine „Gemeinsame Aktion der Menschen“ nötig sei, um „das System Erde von einer potenziellen Schwelle wegzusteuern“, um es bewohnbar bleiben zu lassen. Die Autoren sagten, dass dies eine „Verwaltung des gesamten Erdsystems – Biosphäre, Klima und die Gesellschaften“ einbeziehen müsse – und das könnte „Dekarbonisierung der Weltwirtschaft, Verstärkung der Kohlenstoffsenken in der Biosphäre, Änderung von Verhaltensweisen, neue Regierungsformen und geänderte soziale Werte beinhalten“.
….Denken Sie daran, dass in einer Welt, die an das „Vorsichtsprinzip“ glaubt, selbst die einfache Behauptung einer weit entfernten Möglichkeit extreme Aktionen rechtfertigt.
….Vermutlich ist die Macht, die diese Leute krampfhaft suchen, die Macht zum Zurückschrauben des Status und des Wohlergehens, die eine normale Person erreicht hat – und weiterhin auf der Grundlage der vom fossilen Treibstoff geschaffenen industriellen Revolution zu erreichen sucht – und sie zu ihrem
vermutlich angemessenen Status als Sklave zurückzubringen. Sehr Vielen der Ärmsten dieser Welt wird die Chance für eine Besserung ihrer Lebensumstände verboten sein.
….Dennoch haben unsere führenden Politiker Angst, sich dagegen zu wenden, wenn ihnen diese Forderungen – zusammen mit dem Schwindel, dass dem 97% der Wissenschaftler zustimmen – präsentiert werden. Und sie fahren damit fort, wie die Lemminge, den Selbstmord der Industriegesellschaft zu planen. Wiederum: Nichts beschreibt das Problem besser, als es Snow getan hat.
….Interessanterweise neigen „normale“ Leute (im Gegensatz zu unseren „gebildeten“ Eliten) dazu, den präsentierten Unsinn zu durchschauen. Woran liegt es, dass unsere Eliten so anfällig sind und was bringt viele unserer Wissenschaftler dazu, derartigen Blödsinn zu unterstützen? Die Antworten können für beide nicht sehr schmeichelhaft sein. Betrachten wir zuerst die „anfälligen“ Eliten.
1.  Sie sind in einem System ausgebildet worden, wo Erfolg auf der Fähigkeit beruht, ihren Professoren zu gefallen. Anders gesagt sind sie darauf konditioniert worden, alles rational zu erklären.
2.  Während sie anfällig für falsche Schilderungen sind, sind sie ökonomisch weitaus weniger anfällig als normale Leute. Sie halten sich für wohlhabend genug, um den wirtschaftlichen Leiden der vorgeschlagenen Politiken zu widerstehen – und sie sind schlau genug, um öfter von ihnen zu profitieren.
3.  Die Beschreibung bzw. Schilderung ist für die Elite trivial genug, um sich einzubilden, dass sie Wissenschaft „verstehen“.
4  Für Viele (insbesondere die Rechten) veranlasst das Bemühen, als intelligent angesehen zu werden, die Furcht, dass eine Opposition gegen nirgend etwas, das als „wissenschaftlich“ bezeichnet wird, sie als ignorant erscheinen lässt. Und diese Furcht überwältigt jegliche ideologische Verpflichtung zur Freiheit, die sie haben könnten.
Keiner dieser Faktoren gilt für „normale“ Leute. Das könnte sehr wohl das stärkste Argument für eine Demokratie des Volkes und gegen eine Führung durch jene, die es „am besten wissen“:
….Wie steht es mit den Wissenschaftlern?
1.  Wissenschaftler sind Spezialisten. Wenige von ihnen sind Experten der Klimaforschung. Das schließt viele vermeintliche „Klimawissenschaftler“ ein, die in dieses Gebiet Einzug hielten; als Reaktion auf die enormen Steigerungen der Fördermittel, die die Hysterie der Globalen Erwärmung begleiteten.
2.  Wissenschaftler sind Menschen mit eigenen politischen Standpunkten, und viele waren darüber begeistert, dass sie ihren Status als Wissenschaftler benutzen konnten, um ihre politischen Positionen zu unterstützen (ganz ähnlich wie Berühmtheiten, deren Status einige Wissenschaftler anstreben). Als Beispiele betrachten Sie die Bewegungen gegen Nuklearwaffen, gegen die strategische Verteidigungs-Initiative, gegen den Vietnamkrieg und so weiter.
….Wissenschaftlern ist auch scharfsinnig und zynisch die Ignoranz der Nicht-Wissenschaftler bewusst und sie sehen darin eine Gefahr. Diese Furcht beruhigt die „verletzlichen“ Eliten, die besonders durch die Zusicherung erleichtert sind, dass die Theorie, die dem Alarm zugrunde liegt, trivial einfach sei und „alle“ Wissenschaftler dem zustimmen. Typisch war der frühere Senator und Außenminister John F. Kerry, als er bezüglich der Treibhaus-Erwärmung erklärte, „Ich weiß Einiges aus meiner High-School- und College-Zeit, einige Aspekte der Chemie oder Physik können schwierig sein. Aber das hier ist nicht schwierig. Es ist einfach. Kinder im geringsten Alter können es verstehen“.
Wie Sie gesehen haben, ist der Treibhauseffekt alles andere als einfach. Nur bemerkenswert brillante Kinder würden es verstehen. In Anbetracht von Kerry’s folgender Beschreibung des Klimas und der zugrunde liegenden Physik war es klar, dass er dieser Aufgabe nicht gewachsen war.

Der Beweis

An dieser Stelle könnten sich einige von Ihnen über alle der sogenannten Beweise des gefährlichen Klimawandels wundern. Was ist mit dem verschwindenden arktischen Eis, dem ansteigenden Meeresspiegel, mit den Wetterextremen, den verhungernden Eisbären, dem syrischen Bürgerkrieg und allem Übrigen? Die riesenhafte Vielfalt der Behauptungen macht es unmöglich, auf einen besonderen Fehler hinzuweisen, der auf alle von diesen zutrifft. Selbstverständlich würde die Erwähnung von Veränderungen – selbst wenn diese Beobachtungen korrekt sind (obwohl sie es überraschenderweise oft nicht sind) – diese nicht per se in einen Zusammenhang mit einer Treibhaus-Erwärmung bringen. Und auch nicht auf eine Gefahr hinweisen. Beachten Sie, dass sich die meisten dieser sogenannten Beweise auf Dinge beziehen, über die Sie keine persönlichen Erfahrungen besitzen. Einige dieser Behauptungen, zum Beispiel jene, die sich auf Wetterextreme beziehen, widersprechen dem, was sowohl die Theorie der Physik als auch Erfahrungsdaten zeigen. Die Absicht dieser Behauptungen ist offensichtlich, die Leute zu erschrecken und zu benebeln, um den Anschein zu erwecken, dass es Beweise gibt, wo es tatsächlich gar keine gibt. Falls es über irgendetwas einen Beweis gibt, dann ist es der über die Richtigkeit der Beobachtungen C.P. Snows. Einige Beispiele sollen zeigen, was ich meine.
Erstens: Wenn etwas ein Beweis sein soll, muss es eindeutig vorausgesagt worden sein. (Das ist eine notwendige, aber bei Weitem nicht ausreichende Bedingung.) Abbildung 1 zeigt die IPCC- Modellierungs-Vorhersage über das Sommer-Minimum des arktischen Meereises im Jahre 2100 – in Bezug auf den Zeitraum 1980-2000. Wie Sie sehen, gibt es ein Computermodell für jegliches Resultat. Das erscheint ein wenig wie das Rezept, ein Meisterschütze zu werden: Schieße zuerst und behaupte dann, was immer Du getroffen hast, sei das Ziel gewesen.   Wenden wir uns dem Thema der Temperaturextreme zu: Gibt es irgendwelche Daten, die eine Besorgnis entstehen lassen? Was diese Extreme betrifft, zeigen die Daten keinen Trend – und das IPCC stimmt dem zu. Sogar Gavin Schmidt, Jim Hansens Nachfolger in NASA’s New Yorker Niederlassung, GISS, bemerkte, dass „allgemeine Behauptungen über Extreme können beinahe nirgends in der Fachliteratur gefunden werden, scheinen aber in populären Medien reichlich vorhanden zu sein“. Er sagte weiterhin, dass es nur wenige Sekunden des Nachdenkens brauche, um zu erkennen, dass die populäre Vorstellung, dass „globale Erwärmung“ bedeuten würde, alle Extreme müssten
immer stärker werden, „Nonsense“ sind.

Abb. 1: Klima-Modellierungsprojektionen der Meereis-Verlustrate
in der Arktis
Quelle: Eisenmann et al., J. Clim., 2011

Der Kern dieses Unsinns ist das Versagen bei der Unterscheidung zwischen Wetter und Klima. Also: Die globale Erwärmung bezieht sich auf den willkommenen Temperaturanstieg von ca. 1o C nach dem Ende der Kleinen Eiszeit vor etwa 200 Jahren. Andererseits sind Wetterextreme durch Temperaturveränderungen der Größe von 20o C gekennzeichnet. Dermaßen große Veränderungen sind durch eine vollkommen andere Entstehung gekennzeichnet als eine globale Erwärmung. Grob gesagt sind sie die Folge von Winden, die warme und kalte Luft aus entfernten Regionen, die sehr warm oder sehr kalt sind, transportieren. Diese Winde haben eine Wellenform. Die Stärke dieser Wellen hängt von dem Temperaturunterschied zwischen den Tropen und der Arktis ab (wobei größere Unterschiede zu stärkeren Wellen führen). Aber alle Modellrechnungen, die zur Beschreibung der globalen Erwärmung benutzt werden, präsentieren die Vorhersage, dass sich dieser Temperaturunterschied eher verringern als zunehmen wird. Somit würde ein Anstieg der Temperaturextreme die beste Unterstützung für die Idee einer globalen Abkühlung anstelle einer globalen Erwärmung sein. Wie dem auch sei, wissenschaftlich ungebildete Leute scheinen unfähig zu sein, eine globale Klima-Erwärmung von Temperaturextremen infolge des Wetters zu unterscheiden. Wie bereits erwähnt, scheint es tatsächlich keinen feststellbaren Trend bezüglich der Wetterextreme zu geben. Es ist nur die größere Beachtung , die die Medien dem Wetter widmen, und das Ausnutzen dieser „Nachrichten“-Berichterstattung durch Leute, die wissen, dass Projektionen von Katastrophen in ferner Zukunft kaum zwingend sind und dass sie deshalb eine Methode brauchen, um das Publikum davon zu überzeugen, dass die Gefahr unmittelbar droht, auch wenn es nicht so ist.
…Das war ebenfalls die Sache mit dem Meeresspiegel-Anstieg. Dieser betrug in Hunderten von Jahren um die 8 Zoll (20,3 cm) pro Jahrhundert – und wir waren ganz eindeutig in der Lage, damit zurecht zu kommen. Um Angst zu erzeugen, mussten die Modellierungen, die weitaus größere Anstiege voraussagen, zu Hilfe gerufen werden. Als eine Tatsache ist es seit Langem bekannt, dass bei den meisten Küstenstationen Veränderungen des Meeresspiegels, wie sie durch Pegelmessgeräte ermittelt wurden, hauptsächlich auf Veränderungen der Festlandshöhe zurückzuführen sind, die sowohl durch die Tektonik als auch durch die Landnutzung hervorgerufen werden.
…Außerdem ist die kleine Veränderung der mittleren globalen Temperatur (eigentlich die Änderung des Temperaturanstiegs) viel geringer als was die Computermodelle, die vom IPCC genutzt werden, vorausgesagt haben. Selbst wenn die gesamte Veränderung vom Menschen verursacht wäre, wäre das am meisten im Einklang stehend mit einer niedrigen Sensitivität (Anm.: das Maß der Temperaturbeeinflussung bei einer Konzentrationsveränderung) durch hinzugefügtes Kohlendioxid – und das IPCC behauptet nur, dass der größte Teil (nicht aber der gesamte Teil) der Erwärmung über die vergangenen 60 Jahre durch die Aktivitäten der Menschen verursacht wäre. Also scheint der Fall eines vom Menschen gemachten Klimawandels kein ernstes Problem zu sein. Allerdings hält das ignorante Politiker nicht davon ab, zu erklären, dass die IPCC-Behauptung über diesen eindeutigen Zusammenhang gleichbedeutend mit einem unzweideutigen Beweis für ein Desaster ist.
…Rosinenpicken ist immer ein Kernpunkt. So gab es vor Kurzem die Behauptung, dass sich der Eisverlust in Grönland verstärkt hat und dass die Erwärmung das noch verschlimmern wird. (L 2). Weggelassen von diesem Bericht wurde der Befund sowohl der NOAA (Anm.: National Oceanic and Atmospheric Administration der USA) als auch des Dänischen Meteorologischen Instituts, dass die Eismasse von Grönland tatsächlich zunimmt (L.3). In der Tat können diese Feststellungen beide wahr sein – und tatsächlich verursacht ein Anwachsen des Eises auf dem Festland auch einen stärkeren Transport der Eismassen von der Küste ins Meer (Anm.: – durch die Gletscher).
…Falsche Darstellungen, Übertreibung, Rosinenpickerei oder glatte Lügen überdecken ziemlich viele der sogenannten Beweise.

Schlussfolgerung

So sieht es aus. Eine unglaubwürdige Mutmaßung, versehen mit falschen Beweisen und unablässig wiederholt, wurde zu „politisch korrektem Wissen“ und wird benutzt, um den Sturz der industrialisierten Zivilisation zu organisieren. Was wir unseren Enkeln überlassen werden, ist nicht ein vom industriellen Fortschritt geschädigter Planet, sondern ein Zeugnis unergründlicher Dummheit sowie eine Landschaft, die durch verrostende Windparks und verfallende Solarmodul-Felder degradiert ist. Falsche Behauptungen über eine Zustimmung  von 97 % werden uns nicht verschonen, aber die Bereitschaft von Wissenschaftlern, den Mund zu halten, wird wahrscheinlich das Vertrauen in die Wissenschaft und ihre Unterstützung verringern. Das wäre aber vielleicht im Grunde keine so schlechte Sache- sofern es die „offizielle“ Wissenschaft betrifft.
…Wenigstens gibt es zumindest eine positiven Seite in der gegenwärtigen Situation. Keine der vorgeschlagenen Politiken wird viel Wirkung auf die Treibhausgase haben. Deshalb werden wir weiterhin von der einen Auswirkung profitieren, die eindeutig zu einem erhöhten Kohlendioxid gehört, nämlich dessen effektive Rolle als Pflanzendünger und als wirksamer Schutz vor der Schädigung der Pflanzen durch Trockenheit. Mittlerweile verlangt das IPCC , dass wir eine weitere Erwärmung von 0,5 oC verhindern müssten, obwohl die 1 oC , die bisher eingetreten sind, von der größten Steigerung des Wohls der Menschheit in der Geschichte begleitet wurden. Wir pflegten in unserer Kindheit in der Bronx dazu zu sagen: „Stell Dir das mal vor“.

Notizen (Quellen) von R. Lindzen

L 1.   Dies ist das erste Mal in der Menschheitsgeschichte, dass wir absichtlich die Aufgabe für uns festlegen, innerhalb eines definierten Zeitraums das Modell der ökonomischen Entwicklung zu ändern, das für mindestens 150 Jahre seit der industriellen Revolution herrschte.
L 2.   KA Graeter et al (2018) Ice core records of West Greenland melt and climate forcing. Geophysical Research Letters45(7), 3164-3172.
L 3.   https://www.climate.gov/news-features/understanding-climate/greenland-ice-sheets-2017-weigh-suggestes-small-increase-ice-mass.

Ergänzungen des Übersetzers

Die zeitliche Begrenzung des Vortrags führte zwangsläufig dazu, dass Prof. Lindzen einige Ergänzungen und Erläuterungen auslassen musste. Dazu gehören zahlreiche weitere von ihm in anderen Veröffentlichungen und Vorträgen vorgestellte Argumente, die man aus den unten angeführten Quellen entnehmen kann.
Hier werden Ergänzungen zu dem obigen Vortrag gebracht, die eine Anzahl von weiteren Beweisen vorstellen. Sie sollen für die Leser dieses Papiers eine zusätzliche Hilfe für das Verständnis der Manipulationen und bewusst falschen – angeblich wissenschaftlich verifizierten – Tatsachenbehauptungen durch das IPCC und dessen Unterstützer in den Medien sein.
Punkt 1: Prof. Lindzen hat im ersten Teil seines Vortrags eingehend die extreme Komplexität der im Klimageschehen ablaufenden Prozesse erläutert. Auf die in großer Anzahl durch wissenschaftliche Veröffentlichungen vorgestellten Versuche, mit Hilfe von mathematischen Beschreibungen (Algorithmen) dieser Prozesse, die dann in Computer „eingefüttert“ werden, Ergebnis-Aussagen für künftige Szenarien zu bekommen (die sog. Klimamodellierungen), gilt das in der Computerbranche bekannte „GIGO-Prinzip“. Es bedeutet „Garbage-in/ Garbage out“. Der eingegebene Müll wird wieder als Ergebnis ausgestoßen. Das gilt insbesondere für die Versuche, das Klima analytisch zu erfassen und mathematisch zu beschreiben – was aber unmöglich ist (s.u.). Es ist GIGO pur.
In der Fachwelt bestens bekannt, in den Medien aber niemals erwähnt, hat sogar das IPCC in zwei seiner Berichte diese Unmöglichkeit ausdrücklich festgestellt. Aber nur in den alle 5 Jahre veröffentlichten über 700 Seiten starken Langfassungen und niemals in den dagegen winzigen „Zusammenfassungen für Politiker“ und Medien.
Das IPCC veröffentlichte:
A) In seinem 3.Bericht (IPCC-TAR) von 2001 auf Seite 774:  Quelle E 1.
„In climate research and modelling, we should recognize that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible.”
Übersetzung:
„In der Klimaforschung und –Modellierung sollten wir zur Kenntnis nehmen, dass wir es mit einem gekoppelten nichtlinearen chaotischen System zu tun haben, und dass deshalb die Langzeit-Vorhersage zukünftiger Klimazustände nicht möglich ist.“

Und auch im 4. IPCC-Bericht vom Nov. 2007 (AR4), Kap. 8, Seite 600 – selbstverständlich nicht in der “Summary for Policymakers – veröffentlichte das IPCC (E 2):
„Models continue to have significant limitations, such as in their representation of clouds, which lead to uncertainties in the magnitude and timing, as well as regional details, of predicted climate change.“
Also:
“Modelle weisen weiterhin ernsthafte Begrenzungen auf, wie in ihrer Darstellung von Wolken, was zu Ungewissheiten im Ausmaß und in der Zeitbestimmung und ebenso bei den regionalen Details des vorausgesagten Klimawechsels führt.”
Wozu anzumerken ist, dass die Bewölkung den entscheidenden Einfluss auf das Klima hat: In ihrer Entstehung, sogar in der Wirkung extraterrestrischer Einflussmechanismen auf den atmosphärischen Wasserdampf zur Kondensation und Tröpfchenbildung; in ihren inneren Wechselwirkungen (- Wärmeflüsse; Strömungen; Aggregatzustand des Wassers und dessen Änderungen; interne Energiebilanz -); der Rückstrahlung in den Weltraum und angesichts der vorherrschenden, unberechenbaren Turbulenzen . Der zitierte Satz aus dem 3. IPCC-Bericht fasst diese Feststellung knapp und klar zusammen.
Es liegt somit am – offenbar für immer – unlösbaren Problem, dafür exakte Algorithmen zu finden. Auch der schnellste Rechner aller Zeiten kann da nicht helfen : GIGO. Und auf Grund der dennoch präsentierten unbrauchbaren Modellierungen und der unwissenschaftlichen Mittelwertbildung ihrer wild streuenden Kurven (s.u.) reagiert die Politik mit Panik und Aktionen anstatt mit Ablehnung.
Punkt 2: In seinem Vortrag hat Prof. Lindzen in dem Kapitel „Der Beweis“ ein besonders typisches Beispiel für die Resultate vorgestellt, die sich aus dem mangelnden Verständnis der Zusammenhänge und den dennoch dafür entworfenen mathematischen Modellen ergeben. Die nicht vom (schuldlosen) Computer erzeugten, sondern von den verschiedenen Annahmen der Modellierungsbetreiber beschlossenen Algorithmen, die die Geschwindigkeit des Meereisverlustes in der Arktis ermitteln sollten, produzierten unvermeidlich
geradezu grotesk streuende Ergebnisse.
Dass die jeweiligen Eisverlustmodellierer auch noch die Namen ihrer Institute nennen ließen, wird hier nicht weiter kommentiert.
Es gibt zu diesem Thema ein weiteres Beispiel, das durch den 5. Bericht des IPCC (AR 5; 2014/2015) eine besonders große Verbreitung und Beachtung erfuhr, weil damit das Ergebnis aller Projektionen und Trend-Voraussagen für die Veränderung der Globaltemperaturen bis zum Jahre 2050 zusammengefasst wurde.
Es handelt sich dabei um die Abbildung 11.25, die in der Technical Summary (TS) als Abbildung TS-14 zu finden ist (E 3 und E 4):

Bildunterschrift: Zeitnahe Projektionen der globalen Durchschnittstemperatur, relativ zum Zeitraum 1986-2005.
 
Erläuterungen des Übersetzers zu Abb. TS-14:
Dicke schwarze Linie: HadCRUT-Datensätze der mtl. Temperaturmessungen als Kombination der Meeresoberflächen-Temp.-Messungsergebnisse , die vom Hadley-Center des brit. Meteorologie Amtes ermittelt werden und der Landoberflächen-Temperaturen, die von der Klimaforschungs-Abteilung der Universität von East Anglia (CRU) zusammengestellt werden. Ende dieses Observationsberichtes in der Abbildung im Jahr 2012.
Die RCP-Linien bezeichnen Gruppen von Modellen, die die gleiche Randbedingung in ihrer Bezeichnung tragen: Z.B. geht RCP 4.5 von einem Strahlungsantrieb von 4.5 Watt/qm aus, was vom IPCC den Treibhausgas-Konzentrationen zugeschrieben wird und durch die Modellierung dann einen prognostizierten Temperaturverlauf darstellen soll – dazu wurden in der RCP 4.5-Gruppe 42 verschiedene Modelle eingesetzt. (So sieht es dann auch aus.) RCP bedeutet „representative concentration pathway“.
Das RPC 8.5 sei das „Weiter so“-Szenario, also ohne wesentliche „Klimaschutz“-Maßnahmen.
Diese Abbildung repräsentiert die Grundlage aller IPCC-Behauptungen und –Forderungen.
Die geradezu wüste, auseinanderlaufende Streuung der Temperaturverläufe, die die Simulationen zeigen, reichen im Jahre 2050 von  +0,5oC bis  + 2,5oC. Bereits im Jahr 2012 (Ende der hier eingezeichneten HadCRUT-Messungen) hat sich die gesamte Modellsammlung von dem wahren, gemessenen Verlauf getrennt. Wie der Unterschied heute, also 10 Jahre später, aussieht, wird das IPCC noch zu weiteren verzweifelten Erklärungsversuchen für seinen 6. Bericht AR 6, der ab 2017 erstellt und 2021 oder 2022 veröffentlicht wird, veranlassen. Das ist bereits heute schwierig, wie es im AR 5 nachzulesen ist (s.u.).
Die Probleme des IPCC mit der als „Pause“ ( engl. Hiatus) bezeichneten  Stagnation des gemessenen realen Temperaturverlaufs.
Bezeichnend ist diese Benennung des eindrucksvollen Stopps einer weiteren Erwärmung seit 1998. Es durfte keinesfalls das Ende des Anstiegs der Globaltemperatur sein, sondern nur eine „Pause“ –eine allerdings wegen des weiteren deutlichen Anstiegs des angeblich schuldigen atmosphärischen CO2  rätselhafte Pause  -nach der es mit der Erwärmungskatastrophe weitergehen sollte.
Dieser Stopp nach 1998 dauert nun mittlerweile 12 Jahre an, was allen IPCC-Modellprojektionen widerspricht.
Zum HadCRUT-Trend im besagten „Pausen“-Zeitraum 1998-2012 wird angegeben: 0,04 oC pro Dekade. Das ist nahezu eine Tendenz „Null pro Dekade“.
Dieser Stopp wird vom IPCC als „Pause“ (Hiatus) bezeichnet, um ihn als kurzzeitige Änderung des stets verkündeten katastrophalen Temperaturanstiegs zu markieren, der selbstverständlich dennoch eintreten werde. Dieses IPCC-Problem wird natürlich mit jedem weiteren „Hiatus“-Jahr größer. Das führte immerhin dazu, dass der in der obigen Abb. TS-14 im Technical Summary (TS) des AR 5 prognostizierte und immer unglaubwürdiger werdende künftige Verlauf der Globaltemperatur mit einem Bündel verschiedener Deutungen kommentiert wurde. Das Ergebnis dieser Verteidigung war klar: Diese (angebliche) Pause weckt zwar einige Zweifel, aber die Prophezeiungen der Modelle sind selbstverständlich zuverlässig. Bitter für die Tatsachen.
Die dazu angeführten möglichen Gründe für den Stopp werden – wie im gesamten Bericht – mit Wahrscheinlichkeits-Bewertungen versehen. Was nur zeigt, dass es in allen diesen Fällen keine wissenschaftlichen Beweise gibt – nur Einschätzungen und Vermutungen. Wissen wird durch Glauben ersetzt. Wobei auch dieser Glaube unglaubwürdig sein kann, wenn die von kritischen Wissenschaftlern vertretenen anderen, extraterrestrischen Einflüsse auf das Erdklima kurz abgewertet und dann ignoriert werden.
Die fast selbstkritisch klingende Kommentierung lautet:
„   Sämtliche historische Simulationen…..zeigen, dass 111 der 114 (!) Modellierungsergebnisse (RCP 4.5) von 2006 bis 2012 einen GSMT-Trend (Global Mean Surface Temp.) zeigen, der höher ist als der Trend im gesamten HadCRUT-Ensemble (Kasten TS.3, Abb.1a)….Diese Differenz zwischen simulierten und gemessenen Trends könnte zustande kommen durch eine Kombination von a) der internen Klima-Variabilität, b) fehlendem oder falschem RF (Strahlungsantrieb) und c) Fehler der Modell-Reaktion.“
Interessant ist jetzt die Erwähnung einer altbekannten, harten Kritik der skeptischen Wissenschaftler bezüglich der Wirkung des Wasserdampfs, für die das IPCC eine unbewiesene positive Rückkopplung (erhöhte Erwärmung) quasi verfügt hat, was laut den Kritikern den Anstieg der gesamten Modellierungsergebnisse bewirkt hat.-
Unter „Model Response Error“ (Fehler der Modellierungsergebnisse) werden im TS diese Möglichkeit genannt:
„Die in letzter Zeit beobachtete Erwärmungspause….kann annähernd in gleichem Maße einem Abkühlungsbeitrag durch interne Variabilität und einem verringerten Trend beim externen Antrieb (Expertenmeinung; mittlere Wahrscheinlichkeit) zugeschrieben werden. Die Verringerung des Antriebs-Trends ist hauptsächlich die Folge eines negativen Antriebs-Trends sowohl von Vulkanausbrüchen als auch von der Abwärts-Phase des Sonnenzyklus.
Allerdings gibt es nur eine niedrige Vertrauenseinschätzung („low confidence“) bei der quantitativen Abschätzung der Rolle des Antriebstrends bei der Verursachung der Pause – wegen der Ungewissheit in Bezug auf die Stärke des vulkanischen Antriebstrends und ebenfalls „low confidence“ in Bezug auf den Aerosol-Antriebstrend.“ (Ende des Zitats).
Diese eingeräumten Fehlermöglichkeiten sind bemerkenswert. Es werden sowohl die Sonnenzyklen (Sonnenflecken-Zahlen) als auch Aerosole genannt; allerdings mit der Bewertung der Ungewissheit bezüglich ihrer Stärke. Schon das ist anzuzweifeln, denn zu beiden Sachthemen gibt es zahlreiche wissenschaftliche Publikationen.
Besonders riskant für eine Begründung des Hiatus ist die Nennung von Vulkanausbrüchen, von denen einige durch extreme Staubemissionen die Sonneneinstrahlung für 1 – 2 Jahre verringern konnten. Das gab es bereits, aber gerade nicht im Zeitraum der „Pause“. Es gab davor zwei Ausbrüche, die eine kurze Absenkung der Globaltemperatur zur Folge hatten: El Chichon  (1984-1986) und Pinatubo (1992-1994). Der Versuch, mit seit 1995 nicht mehr erfolgten klimabeeinflussenden Vulkanausbrüchen die „Pause“ zu begründen, könnte in das Gegenteil umschlagen: In der Literatur-Quelle E 8 (Roy Spencer, UAH Satellitenmessungen) wird vielmehr eine langfristig wirkende ozeanische Temperaturerhöhung durch die zwei o.g. Vulkanausbrüche erläutert. Die Messkurve müsste daher für die Zeit der „Pause“ weiter abgesenkt werden – für 2019 um ca. 0,1 oC.
Wenn also natürliche Vorgänge die Stagnation der Globaltemperatur verursachen, bleibt für die CO2-Hypothese nicht mehr viel übrig.
Die eingeräumte Möglichkeit c), also falsche Modelle, ist in einem IPCC-Bericht schon recht peinlich. Dabei ist die HadCRUT-„Pause“ inzwischen nicht nur bis 2012, sondern bereits mindestens bis 2018 messtechnisch bekannt – beträgt also 20 Jahre. Sechs weitere Jahre „Hiatus“ dürften die Verteidigung der Modellierungen und die verbliebenen Argumente für die dann überdeutlichen Diskrepanzen sehr erschweren.
Nach den bisherigen Erfahrungen mit dem politisch gesteuerten IPCC kann es jedoch keine Änderung seiner Politik geben, selbst wenn es angesichts der angewachsenen Kritik der an den Berichten beteiligten Wissenschaftler für die davon bereinigten ultrakurzen „Zusammenfassungen für politische Entscheidungsträger“ keine Rechtfertigung mehr gibt.
Notizen (Quellen) dieser Ergänzung
E.1:   3. IPCC-Bericht (IPCC-TAR) von 2001, Seite 774
E.2:   4. IPCC-Bericht vom Nov. 2007 (AR4), Kap. 8, Seite 600
E.3:   5. Bericht des IPCC (AR 5; 2014/2015);  Abbildung 11.25, die in der Technical Summary (TS) als Abbildung TS-14 zu finden ist.
E 4:   Paul Matthews: New Climate Models Even More Wrong; GWPF (Global Warming Policy Foundation). https://www.cliscep.com/2019/11/05/new-climate-models-even-more-wrong/    Chris Frey (Übers.) : „Neue Klimamodelle – sogar noch falscher“; EIKE; 19.11.2019.
E 5:    Roger Pielke Sr.: “IPCC Models Close To Being Refuted By New Research” – Climate Science, 23. Jan. 2012
E 6:    Clive Best: “Beweise für eine negative Wasserdampf-Rückkopplung”. 03.06.2012, Übers. Chris Frey, http://www.eike-klima-energie.eu/
E 7:    Klaus–Eckard Puls, Sebastian Lüning: “Alles nur Schall und Rauch? Der Wasserdampf-Verstärker als Achillesferse in der Klimamodellierung“, 17.3.2013, http://www.kaltesonne.de/?p=9091
E 8:    Roy Spencer, UAH, „40% of Ocean Warming Trend Since 1979 is Due to Volcanoes Early in the Record“, http://drroyspencer.com
E 9:    Roy Spencer UAH –University of Alabama Houston, “Latest Global Temps. UAH Satellite-Based Temperature of the Global Lower Atmosphere (Version 6.0)”, 03.2020, https://www.drroyspencer.com/latest-global-temperatures/
E 10:    Tim Blair: “Climate Science is settled, except when it’s not”, 11.02.2016; http://www.thegwpf.com/climate-science-is-settled-except-when-its-not/
E.11:    Benny Peiser, GWPF, “Testimony to the Committee on Environment and Public Works of the U.S. Senate”, Washington, 2. Dez. 2014; http://www.thegwpf.com/content/uploads/2014/12/Peiser-Senate-Testimony-2.pdf
E.12:    Dr. Timothy Ball „Eine einfache Wahrheit: Computer-Klimamodelle können nicht funktionieren“ (Übers. v. C. Frey), 28.10.2014,  https://www..eike-klima-energie.eu/2014/10/28/eine-einfache-wahrheit-computer-klimamodelle-koennen-nicht-funktionieren/
Originaldokument: http://wattsupwiththat.com/2014/10/16/a-simple-truth-computer-climate-models-cannot work/




Frühjahrs­trockenheit mittels CO2-Reduktion bekämpfen. Wenn nicht gehandelt wird, hat die Durst­strecke kein Ende

Wenig Hoffnung

Im Lokalblatt des Autors erschien ein Leserbrief:
[1] 11.05.2020, Leserbrief: „Wenig Hoffnung“
Die gegenwärtige Trockenheit mit großen Problemen für die Landwirtschaft, sterbenden Bäumen in Nürnberg und drohenden Waldbränden im Reichswald wird von den Nürnberger Nachrichten als Durststrecke bezeichnet. Damit wird suggeriert, dass in einiger Zeit diese Probleme wieder vorbei sind. Mit keinem Wort wird in diesem Artikel die Ursache der Trockenheit erwähnt: der menschengemachte Klimawandel, Der Leiter der Forstbehörde äußert die Hoffnung auf einen „normalen“ Sommer.
Woher nimmt er diese Hoffnung, wenn nichts unternommen wird, um die CO2-Emissionen schnell zu reduzieren? Wenn nicht gehandelt wird, hat die Durststrecke kein Ende
Prof. Martin Hundhausen Erlangen
(Anmerkung des Autors: Physiker)
Der Leserbriefschreiber bezieht sich dabei auf einen Zeitungsartikel, den der Autor rezensiert hatte.
EIKE 25. April 2020: [2] Wenn Medien immer nur Personen mit der gleichen Meinung fragen, können sie (und diese Personen) nie gescheiter werden
Normalerweise „ignoriert“ man einen solchen Leserbrief. In diesem Fall ist der Verfasser jedoch nicht ein „einfacher, besorgter Bürger“, sondern neben seiner Professur auch Vorstandsmittglied eines Lobbyvereins:

Bild 1 Sonnenenergie Erlangen e.V. Vereinsinfo (Auszug). Screenshot


Dieser Verein ist wohl recht aktiv und zwar sowohl in seinem Marktsegment Solar, wie auch in der Information, warum es richtig und notwendig ist, dieses zu forcieren:

Bild 2 Sonnenenergie Erlangen e.V. Vereinsinfo auf der Homepage (Auszug). Screenshot


Dieser Leserbrief-schreibende Professor mit seinem Vorstandsposten ist also wohl so etwas wie eine Fachperson, auch fürs Klima. Und sicher hat er Belege für seine Aussagen im Leserbrief.
Anlass, bei ihm nach solchen nachzufragen. Der Autor hat es per Mail getan. Der Herr Professor blieb bisher jedoch eine Antwort schuldig. Parallel wurde auch ein „korrigierender“ Leserbrief an die Lokalredaktion geschrieben. Dieser wurde bisher jedoch nicht veröffentlicht.
Es ermüdet, doch wenn man solche Ergüsse liest, sollte man sich immer neu die Daten aus der wahren Natur ansehen. Nur so erkennt man (immer wieder neu), welche Unverfrorenheit hinter solchen Behauptungen angeblicher Fachpersonen steckt.

Trocken ist es im Frühling nur, wenn man die Vergangenheit weglässt

Nachdem die seit ein paar Jahren vorhandene Frühjahrstrockenheit an allen „Ecken und Enden“ dem Klimawandel in die Schuhe geschoben wird, hat der Autor bereits mehrmals nachgesehen, ob diese ein Klimawandel-Menetekel sein könnte [2] [3] [13], und auch andere Autoren haben es getan [4] [5].
Sofern die Niederschlagsdaten des DWD stimmen, lässt sich zeigen, dass es früher – als es kälter war – über lange Zeit mehr Trockenheit hatte und ausgerechnet seit es wärmer und die Atmosphäre CO2-haltiger ist, im Frühjahr mehr Feuchte gibt.
Und die Langfristtrends sind eindeutig: Der Niederschlag nimmt zu. Das „verlangt“ auch die Theorie, da mit zunehmender Temperatur die Feuchte in der Luft zunehmen soll.
Die Klimasimulationen des DWD sagen deshalb für die Zukunft auch nicht die Spur einer künftigen Frühjahrsaustrocknung vorher, sondern zeigen lediglich, dass ihre Simulationsergebnisse nicht einmal aktuell (wo sie doch sorgfältig kalibriert sind) die gemessene Wirklichkeit auch nur im Ansatz abbilden (können).

Bild 3 Deutschland, Frühjahrs-Niederschlag mit gleitendem Mittelwert und Simulationsläufen bis 2100. Quelle: Grafik des DWD-Viewer (Klimaatlas), Screenshot


Bild 4 Deutschland, Frühjahrs-Niederschlag mit Regressionsgerade als Anomalie. Quelle: Grafik des DWD-Viewer (Zeitreihen und Trends). Screenshot


Allerdings weist die DWD-Grafik der Niederschlagsanomalie viel „Trockenheit“ aus, obwohl man auch bei dieser sofort sieht, dass das Frühjahr die letzten Jahre im Vergleich überhaupt nicht besonders trocken war.
Der Eindruck wird ganz einfach über den durch nichts gerechtfertigten, meteorologischen Zeitraum von 1961 – 1990 (den deshalb auch nicht alle Länder übernommen haben) vermittelt. Setzt man den Mittelwert anders, beispielsweise auf den der letzten „natürlichen“ Klimajahre von 1915 – 1951 (erst Mitte 1950 begann der CO2-Gehalt der Atmosphäre signifikant zu steigen), sieht man, wie natürlich die derzeitige Frühjahrstrockenheit wirklich ist.
Allerdings sind die meisten Personen, welchen sich an diesen langen Zeitraum von Frühjahrstrockenheit noch erinnern könnten, mittlerweile verstorben und können Reportern nicht mehr erzählen, dass es vor dem „schlimmen Klimawandel“ über viele Jahrzehnte die gleiche Frühjahrstrockenheit schon gab.
Somit bleibt das Fazit, dass die letzten sieben – angeblich als Menetekel des Klimawandels besonders trockenen Frühjahre, mit einem Mittelwert von 164 mm immer noch nasser waren, als der Mittelwert der Jahre 1915 – 1959. Frühjahrstrockenheit ist somit in Deutschland ein latentes Wetterproblem und mit Sicherheit nicht das eines „Klimawandels“.

Bild 5 Deutschland, Frühjahrs-Niederschlag mit verschiedenen Mittelwerten. Daten: DWD-Viewer. Grafik vom Autor erstellt


Nun noch die Nachschau, ob der Frühlingsniederschlag in Deutschland eine Korrelation mit der CO2-Konzentration in der Atmosphäre aufweist:

Bild 6 Deutschland Niederschlag Frühling und Verlauf der CO2-Konzentration (gelb) von 1900 – 2015 darüber kopiert. Quelle Niederschlag: DWD. Grafik vom Autor erstellt.


Wer da – wie in dem Leserbrief – behauptet, eine Verringerung der CO2-Konzentration in der Atmosphäre würde den Frühlingsniederschlag bestimmt erhöhen, muss wirklich mehr als einen „Schlag“ – oder eher persönliche Interessen – haben.
Allerdings, auch unsere Umweltministerin hat einen solchen (und persönliche Interessen, in diesem Amt zu bleiben, für das nicht eine Spur von Fachkenntnis gefordert ist. Für ihre Chefin, Frau Merkel, reicht es aus, dass sie sich auf Hörensagen hin, regelmäßig öffentlich ausreichend Sorgen macht und dafür sorgt, die CO2-Steuer hochzutreiben … ):
Westfälische Rundschau 16.04.2019:Umweltministerin Svenja Schulze sorgt sich um das Tempo des Klimawandels. Um gegenzusteuern, setzt sie auf eine Besteuerung von CO2.
Umweltministerin
Svenja Schulze hat alarmiert auf die Dürre schon im Frühjahr reagiert. „Ich mache mir Sorgen, dass sich der Klimawandel in Deutschland gerade beschleunigt“, sagte die SPD-Politikerin unserer Redaktion …

Der Frühjahrniederschlag wird durch Zyklen bestimmt

Die folgenden Grafiken zeigen mehrjährige Summierungen, wie sie als Auswirkung zum Beispiel auf Wald und Grundwasser wichtig sind. Daran erkennt man Hintergründe der Schwankungen, nämlich Zyklen. Und man erkennt noch deutlicher, dass kein CO2-bedingter Trend zu mehr Trockenheit vorliegt, sondern sich der Niederschlag bisher stur innerhalb normaler Schwankungsbreiten bewegt.
Nur war die Natur die letzten Jahrzehnte durch viel Frühjahrsniederschlag „verwöhnt“. Dass dieser trotz Klimawandel vorlag, der Auslöser einer Trockenheit sein soll, wird von den Klimafachpersonen nicht mehr erwähnt.

Bild 7. Deutschland, Niederschlag Frühling, 6- und 4-Jahressummen. Daten: DWD. Grafik vom Autor erstellt


Bild 8 Deutschland, Niederschlag Frühling, 3-Jahressumme. Daten: DWD. Grafik vom Autor erstellt

Niederschlag im Kalenderjahr

Viele weitere Grafiken finden sich in [2] [3]. Anbei einige daraus zur Wiederholung.

Bild 9 Deutschland, Niederschlag Kalenderjahr. Grafik des DWD-Viewer (Klimaatlas), . Screenshot


Detaillierter sieht man den Niederschlagsverlauf als Anomalie:

Bild 10 Deutschland, Kalenderjahr, Niederschlags-Anomalie mit Regressionsgerade. Grafik des DWD-Viewer (Zeitreihen und Trends). Screenshot


Bild 11 Deutschland Sommer Niederschlag. Grafik des DWD-Viewer (Klimaatlas). Screenshot


Zum Sommerniederschlag, der als einzige Jahreszeit wohl eine kleine, negative Tendenz ausweist, Mehrjahressummen. Wieder sieht man, wie alles in der Vergangenheit „schon einmal dagewesen“ war und keine Extreme vorliegen.

Bild 12 Deutschland Sommer Niederschlag, 3-Jahressumme, 6-Jahressumme. Datenquelle: DWD. Grafik vom Autor erstellt


Bild 13 Grafik des DWD-Viewer (Klimaatlas), Herbst Niederschlag. Screenshot


Bild 14 Grafik des DWD-Viewer (Klimaatlas), Winter Niederschlag. Screenshot

USA

Nun könnte es sein, dass Deutschlands Klima etwas „aus der Reihe tanzt“ und es dafür woanders stetig trocken wird. Zum Beispiel in den USA, von denen doch regelmäßig schlimmste Bilder mit verheerenden Buschfeuern gezeigt werden, die regelmäßig viele Villen in Schutt und Asche legen.
Bei der NOAA lassen sich zur USA zu Nässe und Trockenheit Flächendaten laden. Und deren Auswertung zeigt, dass auch in den USA die Feuchte zunimmt, sogar noch stabiler als in Deutschland. Schöner könnten die Grafiken als Beleg gar nicht sein.
Das gilt sowohl für das Gesamtjahr:

Bild 15 USA Gesamtjahr, Flächenanteile Very Wet/Very Dry mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt


Wie auch für alle Jahreszeiten.

USA Frühling

Bild 16 USA Frühling, Flächenanteile Very Wet/Very Dry mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt


In der 6-Jahressumme sieht man am Deutlichsten wieder typische Klimazyklen – und, dass es im Frühjahr auch in den USA nicht zunehmend trockener wird.

Bild 17 USA Frühling, Flächenanteile Very Wet/Very DRY, 3-Jahressumme mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt


Bild 18 USA Frühling, Flächenanteile Very Wet, 6-Jahressumme mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt

USA, restliche Jahreszeiten

Bild 19 USA Winter, Flächenanteile Very Wet/Very Dry mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt


Bild 20 USA Sommer, Flächenanteile Very Wet/Very Dry mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt


Bild 21 USA Herbst, Flächenanteile Very Wet/Very Dry mit Regressionsgeraden. Quelle: NOAA. Grafik vom Autor erstellt


Man wundere sich allerdings nicht. Trotz dieser eindeutigen Daten „gelingt“ es Medien auch in den USA, (wie bei uns) eine Klimawandel-bedingte, zunehmende Austrocknung zu fabulieren:
[4] EIKE 16.05.2020: L.A. Times auf frischer Tat ertappt: hat einen Fake Link konstruiert zwischen Klima, Dürre und Waldbränden
Natürlich wird beim Klima seitens Fachpersonen und Medien nicht „gelogen“. Irgendwelche Daten – ganz kurze Zeitreihen, oder mit sehr, sehr unwahrscheinlich eintretenden Parametern gefütterte Simulationen [11] – geben kurzzeitig immer wieder Zahlen oder Korrelationen für einen Alarm her.
Bei manchen sind es auch ganz einfach Schwierigkeiten bis hin zur mentalen Blockade beim Übersetzen, wenn der Originaltext das erwartete Narrativ partout nicht hergibt:
[10] EIKE 13. April 2020: Wurde schon 1912 vor dem schlimmen Klimawandel gewarnt? Ein Zeitungsartikel, doch zwei Interpretationen
Nie würde der Autor also so etwas behaupten. Das traut sich nur ein Jörg Kachelmann.
Anmerkung: Nachdem hier nur ein Auszug seines Beitrags übertragen ist, der Hinweis, dass Herr Kachelmann den Klimawandel im Beitrag als real bewertet.
Gastbeitrag Wetterexperte Jörg Kachelmann im Bayernkurier:
[9] Bayernkurier 20.11.2019: „Weil es besser knallt“
Lügen, dass sich die Balken biegen
… Zum Bösen gehört, dass zum Klimathema gelogen wird, dass sich die Balken biegen, weil es gerade ins persönliche oder politische Süppchen passt.
… Die gesammelten desinformierenden Unwissenschaftlichkeiten treffen auf eine traurige Mediensituation, in der klickschlampesker Erfolg wichtiger ist als geringste Restwassermengen von Seriosität. Dumm klickt gut. Weshalb wir nur noch wahlweise lesen dürfen, dass der Winter rekordwarm oder rekordkalt würde und beide Varianten werden natürlich dem Klimawandel zugeschrieben, was genauso völliger Blödsinn ist wie die Aussage selbst. Aber das ist dem „Focus“, dem „Merkur“ oder der „Süddeutschen“ völlig wurscht. Geschrieben wird’s trotzdem, weil’s gut läuft mit dem Schwachsinn ..
.

Fazit

Das was dieser Professor als angebliche Tatsache behauptet und darauf fußend fordert, hat keinerlei Beleg in den Messwerten der wahren Natur.
Leider ist er damit ja nicht alleine, sondern hat eine von jeglicher Klima-Sachkenntnis „befreite“ Umweltministerin, eine bedingungslos jedem GRÜNEN Zeitgeist nachrennende Kanzlerin ohne Opposition im Bundestag und eine in jeder Position überforderte Präsidentin der Europäischen Kommission als „Rückhalt“.
Und damit ist nicht mehr aufzuhalten, dass CO2-Emission mit immer gewaltigeren Kosten per Gesetz verringert wird (um die immer dringender benötigten, enormen, zusätzlichen Staates-Einnahmen durch CO2-Besteuerung vor allem aus Deutschland zu generieren) – ohne belegbaren Grund und ohne am Wetter wirklich etwas zu verändern (Deutschland erzielt mit seiner CO2-Politik maximal 0,002 … 0,05 Grad Temperatur-„Verringerung“ bis zum Jahr 2100).
Diesen Personen reicht es vollkommen, dass ihrer Ideologie gemäß verfahren wird.

Mit dem Wetter kämen wir noch zurecht, aber nicht mehr mit unserer GRÜNEN Politik

Die USA haben „ihre“ Villen mitten in den seit Urzeiten ausgewiesenen Brandgebieten Kaliforniens, deren ziemlich regelmäßig – mal mehr, mal weniger – erfolgendes Abbrennen bei uns regelmäßig als Klima-Menetekel publiziert werden.
Bei uns sind es eher die Bauern. Zwar haben es diese in der öffentlichen Meinung allgemein „verschissen“. Doch wenn der Klimawandel wütet und man dafür Belege benötigt, finden sie ab und zu – sofern sie darüber jammern – doch Gehör.
Allerdings tanzt dann mancher auch vor Journalisten aus der Reihe:
[6] Nordbayerische Nachrichten, Lokalausgabe: Die Wintergerste ist mickrig wie noch nie
Zuerst zu nass, dann zu trocken: Die Witterungsverhältnisse seit Februar … nehmen vorweg … was in Zukunft wegen zusätzlicher Auflagen der DÜNGEVERORDNUNG zur Regel wird. Er sorgt sich um die Zukunft des Ackerbaus.
… zuerst haben die Nährstoffe gefehlt, dann das Wasser. Normalerweise bildet ein Samenkorn drei Haupttriebe, doch die Gerste hat ihr Wachstum auf einen konzentriert … sieht in der fürs Pflanzenwachstum ungünstigen Witterung dieses Jahres eine Situation vorweggenommen, die ab nächstem Jahr die Regel sein wird.
Dann gilt die Ende April vom Bundesrat verabschiedete Verschärfung der Düngeverordnung. Auf solche extreme Wetterlagen wie heuer können wir dann nicht mehr reagieren …
In der weiteren Ausführung erzählt dann der Bauern-Verbandsvertreter, was die von der EU erzwungene Düngeverordnung für Konsequenzen hat:
… Die Herbstdüngung ist weitgehend verboten. Damit bleibt für die Nachfolge-Aussaat kein Stickstoff. Als Folge kommt die Wintergerste „hungrig“ aus der Winterruhe. Das gilt auch für nach der Ernte gesäte Zwischenfrüchte. Kommentar des Fachmanns: „das ist pflanzenbautechnischer Blödsinn“.
Ergänzend darf auf über Nacht gefrorenem Boden nicht mehr gedüngt werden. Somit verbietet sich eine Zwischendüngung im Winter, wenn der Acker befahrbar ist. Damit entfällt zwangsweise das bisher übliche, frühzeitige „Andüngen“. In als „rotes Gebiet“ ausgewiesenen Gegenden muss die Stickstoffgabe auf 20 % unter dem pflanzlichen Bedarf gesenkt werden mit der Konsequenz: „Damit bewegen wir uns in einer Spirale abwärts, die Böden werden ausgelaugt, die Erträge sinken“ … „Was Wintergerste angeht, ist für ihn bereits klar, dass er sie nicht mehr anbaut. Statt im Schnitt 70 Doppelzentner auf dem Hektar rechnet er vielleicht noch mit 30 … “… „ich bekomme jetzt schon Anrufe von Kollegen, die nicht mehr wissen, wie sie ihre Futtergrundlage für ihre Tiere herbringen sollen, geschweige, wie sie noch wirtschaftlich arbeiten können“…

Mit ziemlicher Sicherheit wird bald eine Studie kommen, die aufzeigt, dass es am Klimawandel lag …
Professor H. Lesch und GRÜNE Fachpersonen haben schon gezeigt, wie man so etwas fabuliert:
[7] EIKE 11. September 2018: Hopfenertrag 2018
[8] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
Und Getreide „entwickeln“, um trockenresistentere Sorten zu generieren, darf man in Deutschland auch nicht mehr, denn dazu benötigt man die verbotene Gentechnik. Zudem könnte man so angepasste Produkte dann gar nicht kaufen, da viele Discounter mit „ … sicher ohne Gentechnik“ werben.
Was daraus passieren kann, hat bei „Corona“ die für unsere Politiker anscheinend völlig neue Erkenntnis gezeigt. Wegen dem Gentechnikverbot wurde einst die ebenfalls darauf angewiesene Medizinforschung konsequent ins Ausland „hinausgeekelt“ und anstelle von Pharmaforschung im gleichen Umfang Gendertechnik „entwickelt“. Nun muss man dort entwickeln lassen und dann versuchen, zu importieren.
Ist in unserer hohen Politik auch nur irgend ein Anflug von (Er-)Kenntnis erahnbar?
WELT: [12]Auch Bundesumweltministerin Svenja Schulze (SPD) plant ein Konjunkturprogramm und will ihre Vorschläge bereits am Montag vorstellen. Gemeinsam mit mehreren Wirtschaftsforschern lädt sie zu einer Pressekonferenz mit dem Thema „Sozial-ökologische Impulse für die Konjunkturpolitik“. „Konjunkturhilfen brauchen einen klaren Kompass“ sagte Schulze dazu dem „Spiegel“, es gehe um Beschäftigung, Innovation und Klimaschutz. Gerade Investitionen in den Klimaschutz gehörten Ökonomen zufolge „zu den wirksamsten Konjunkturimpulsen überhaupt“.
Quellen
[1] Nordbayerische Nachrichten, Lokalausgabe vom 11.05.2020: Leserbrief „Wenig Hoffnung“
[2] EIKE 25. April 2020: Wenn Medien immer nur Personen mit der gleichen Meinung fragen, können sie (und diese Personen) nie gescheiter werden
[3] EIKE 03. Mai 2020: Wie der Bund Naturschutz Bayern vor der schlimmen Frühjahrstrockenheit rettet
[4] EIKE 16.05.2020: L.A. Times auf frischer Tat ertappt: hat einen Fake Link konstruiert zwischen Klima, Dürre und Waldbränden
[5] EIKE 15.05.2020: 2020 zum wiederholten Mal sehr ungünstiger Frühling in Teilen Deutschlands – häuft sich Extrem­wetter? Teil 2
[6] Nordbayerische Nachrichten, Lokalausgabe vom 18.05.2020: Die Wintergerste ist mickrig wie noch nie
[7] EIKE 11. September 2018: Hopfenertrag 2018
[8] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
[9] Bayernkurier 20.11.2019: „Weil es besser knallt“
[10] EIKE 13. April 2020: Wurde schon 1912 vor dem schlimmen Klimawandel gewarnt? Ein Zeitungsartikel, doch zwei Interpretationen
[11] EIKE 19. Mai 2020: Das Ende der Menschheit ist in 30 Jahren
[12] WELT, 22. Mai 2020: Lachet: Familien sollen pro Kind 600-Euro-Bonus erhalten
[13] EIKE 03. Mai 2020: Wie der Bund Naturschutz Bayern vor der schlimmen Frühjahrstrockenheit rettet