Sind die langen Flitterwochen der Erneuerbaren vorüber?

In einem fundamental lebensfähigen Bereich der Energieerzeugung könnten derartige Meldungen als Störung untergeordneter Art betrachtet werden, aber in einem Bereich, der seit Jahrzehnten von Subventionen und anderer Unterstützung abseits von Märkten abhängig ist, zeigt sich dadurch eine tief sitzende strukturelle und physikalische Schwäche.

Der deutsche Windturbinen-Hersteller Senvion S.A., der zuvor unter dem Firmennamen RePower gehandelt hatte, steckt derzeit in finanziellen Schwierigkeiten. Diese in Hamburg ansässige Firma, welche allein in UK über 1000 Windturbinen errichtet hatte, hat Mitte April in diesem Jahr Insolvenz angemeldet. Sie wird gegenwärtig erhalten durch einen 100-Millionen-Euro-Deal mit Kreditgebern und Anteilseignern (hier). Senvion ist in Verzug sowohl mit seiner Jahreshauptversammlung, welche für den 23. Mai geplant ist, und auch mit der Veröffentlichung seiner jüngsten Finanzen. Zum Zeitpunkt des Erstellens dieses Beitrags hat die Firma noch nicht einmal einen Zeitplan bekannt gegeben.

Etwa 8 Jahre lang, nämlich von 2007 bis 2015, gehörte Senvion dem indischen Windturbinen-Hersteller Suzlon und ist jetzt Eigentum einer privaten Kapitalgesellschaft, Centerbridge Partners. In der Presse gibt es derzeit Gerüchte, dass Centerbridge jetzt davon überzeugt ist, seine Verluste zu begrenzen mittels eines verzweifelten Verkaufs an asiatische, vermutlich chinesische Unternehmen. Diese trachten nämlich danach, eine Fuß in den europäischen Markt bzgl. Windenergie zu setzen. Man glaubt, dass westliche Unternehmen einem solchen Kauf abgeneigt sind, was vollkommen verständlich ist: Ed Hoskyns belegt in einem Beitrag für die GWPF mittels Daten von EurObservER, dass sich die jährlichen Raten der Installation von Wind und Solar in den EU28 seit 2010 halbiert haben (hier). Senvion könnte das erste große Unternehmen sein, das die Auswirkungen dieser Kehrtwende zu spüren bekommt, und es ist mit Sicherheit ausreichend groß, dass dessen Schwierigkeiten verbreitete Auswirkungen haben wird, wobei zwei seiner zuarbeitenden Firmen, nämlich FrancEole, die Masten herstellt, und das die Rotorblätter herstellende US-Unternehmen TPI Composites, beide durch zurückgehende Erlöse geschädigt werden. Tatsächlich befand sich FrancEole schon zuvor in schwierigem Fahrwasser und soll jetzt dem Vernehmen nach an der Schwelle zur Liquidierung stehen.

Auch von Senvion unterstützte Projekte sind betroffen, wobei die Errichtung eines der Windparks, nämlich Borkum West 2.2 mit 200 MW, mitten in der Konstruktion unterbrochen wurde, weil Komponenten von Senvion nicht rechtzeitig geliefert werden konnten. Diese Verzögerung, welche es auf die Titelseiten bestimmter Nachrichten-Medien schaffte, muss beim Entwickler von Borkum West, der Trianel GmbH, massive Kopfschmerzen ausgelöst haben. Man versucht jetzt, direkte Verbindungen mit Senvion zu knüpfen, so dass das Projekt vollendet werden kann.

Anderswo im Universum von Offshore-Wind befinden sich zwei große und relativ neue Projekte mitten in kostspieligen Reparaturen, was außerdem zu bedeutenden Ausfallzeiten führt. Nach der Genehmigung seitens der Behörden ist der dänische Mega-Entwickler Orsted dabei, alle 234 Rotorblätter des 108 Turbinen umfassenden Windparks Duddon Sands im UK-Gewässer der Irischen See zu entfernen und zu renovieren – ein Jahr, nachdem die ersten Probleme aufgetaucht waren. Die Maschinen vom Typ Siemens 3.6-120 waren Gegenstand massiver Korrosion – ein Problem, von dem vielleicht rund 500 Turbinen in Europa betroffen sind (siehe hier) und welches das Aufbringen eines die Korrosion verhindernden Materials auf jedes Rotorblatt erfordert.

Man liest kaum etwas über die Reparaturen am gigantischen, von der EU finanzierten Windpark Bard Offshore 1. Eigentümer ist die Ocean Breeze Energy GmbH & Co. KG. Das Projekt, umgesetzt im Jahre 2013, verfügt über 5 MW-Windturbinen mit einer Gesamt-Kapazität von 400 MW. Bard hat bereits unter einer bekannten Reihe von Kabelbrüchen gelitten, und es stellte sich heraus, dass sowohl die Motorgehäuse als auch die Rotorblätter seit zwei Jahren Stück für Stück ausgewechselt werden – obwohl sich Ocean Breeze weigert zu sagen, wie viele Turbinen betroffen sind. Auf der Website des Unternehmens konnte ich weder auf Deutsch noch auf Englisch irgendwelche Angaben dazu finden.

Es scheint also viel Arbeit zu geben hinsichtlich der Wartung von Offshore-Wind-Intallationen, aber das war nicht genug, um zu verhindern, dass die Firme Offshore Marine Management Ltd (OMM), ein in UK ansässiges Offshore-Wind-Unternehmen, nach Jahren mit Verlusten Insolvenz anmeldete (hier). Interessanterweise führte OMM, ein relativ kleines, wenn auch prominentes Unternehmen in UK, die „Natur des Wettbewerbs“ in dem Bereich an als einen das Scheitern unterstreichenden Faktor, und es ist wahrscheinlich, dass das Unternehmen nicht in der Lage war, die Bemühungen der Entwickler zu überleben, um sowohl Kapital- als auch Betriebs- und Wartungskosten zu reduzieren. Die geringen Erlöse können teure lokale Anbieter einfach aus dem Markt gedrängt haben, unabhängig von ihren anderen Leistungen. Damit in Beziehung stehende weitere Beweise für dieses Phänomen, das eindeutig globaler Natur ist, bedeutet die Tatsache, dass der dänische Mega-Entwickler Orsted jetzt darüber jammert, dass die taiwanesische Regierung auf einer hohen lokalen Beteiligung besteht an seinen projizierten Offshore-Windparks Changua 1 & 2 (900 MW), was die Kapitalkosten von etwa 1,6 Millionen Pfund pro MW auf etwa 3 Millionen Pfund pro MW steigern wird.

Man fragt sich, ob diese zugrunde liegende Realität auf der jüngsten und offenbar tief gehenden Konferenz zwischen der schottischen Regierung und der Offshore-Windindustrie zur Sprache gekommen ist. Dieses Treffen war einberufen worden, weil die schottische Stahl-Firma BiFab nicht beauftragt worden ist, die Ausrüstung für den 950 MW-Windpark Moray East zu liefern. Dieser Windpark besitzt einen der so hoch gejubelten Contracts for Difference zu 57,50 Pfund pro MWh. Dieser Auftrag ging stattdessen an das in den Vereinigten Arabischen Emiraten ansässige Unternehmen Lamprell (hier). Der schottische Energieminister Paul Wheelhouse brachte auf dem Treffen seine „tiefe Frustration“ zum Ausdruck, dass lokale Firmen bislang in nur so geringem Ausmaß beteiligt sind, trotz gegenteiliger Versprechungen. Hat Benji Sykes vom Offshore Wind Industry Council, der an dem Treffen teilgenommen hatte, den Fall Taiwan zur Sprache gebracht und Mr. Wheelhouse erklärt, dass sehr Ähnliches auch für Schottland gelten würde, und dass falls man auf dem lokalen Anteil bestehen würde die Konstruktionskosten substantiell steigen würden und die Subventionen ebenfalls? Hat er erklärt, dass es massive Zweifel gibt, ob Moray East überhaupt lebensfähig ist bei Kosten von 57,50 Pfund pro MWh, selbst unter Beteiligung billigerer internationaler Anbieter und dass die Beteiligung lokaler Firmen die Lage sicher nicht verbessern wird? Anscheinend nicht. Allerdings versprach er, „eng“ mit der schottischen Regierung zusammenzuarbeiten um „sicherzustellen, dass Gemeinden im ganzen Land die ökonomischen Vorteile einheimst, welche die Offshore-Winderzeugung bietet“. Wahrscheinlich hat Mr. Wheelhouse das früher schon einmal gehört. Wie lange noch wird er das glauben?

Soviel zu den Vorgängen im Vordergrund. Im Hintergrund sieht es genauso traurig aus. Crown Estate, welche praktisch die Entwicklung von Offshore-Wind in den Territorialgewässern von UK kontrolliert, hat die Genehmigung für Round 4-Projekte bis zum Herbst 2019 verschoben (hier), und das deutsche Bundesamt für Seeschifffahrt und Hydrographie BSH (hier) hat die Entwickler enttäuscht, indem die BSH keine neuen geforderten Errichtungszonen ausgewiesen hat. In der Verzögerung liegt Gefahr, und die Offshore-Windindustrie allgemein dürfte sich massiv Sorgen machen hinsichtlich dieses Verlustes an Dynamik, welcher sich aufgrund dieser Entscheidungen abzeichnet.

Der Windenergie auf dem Festland geht es nicht besser. Die jüngste Auktion für Wind-Verträge in Deutschland fand im Februar statt und war radikal unterbewertet [undersubscribed] mit nur 476 MW von möglichen 700 MW (hier). Gründe dafür waren dem Vernehmen nach weniger günstige Planungs-Vorschriften und weniger großzügige Preisnachlässe. Senvion selbst wird in einigen Berichten beschrieben als eines der Opfer in der Versorgungskette, zusammen mit dem deutschen Hersteller von Masten und Fundamenten Ambau GmbH, welcher bereits Bankrott angemeldet hat (hier).

Man fragt sich, warum diese Unternehmen nicht besser vorbereitet waren. Reduktionen der Subventionen in Deutschland waren unvermeidlich, und die Straffung von Planungsvorschriften ist schon lange überfällig und kommt keineswegs überraschend. Tatsächlich ist bemerkenswert, dass die deutsche Öffentlichkeit so lange die intensive Installation in unmittelbarer Nähe ihrer Wohnungen toleriert hat. Allerdings überlegen sich einige deutsche Bundesländer einen Mindestabstand von 1 km von Häusern, was immer noch extrem nahe ist für über 100 m hohe Gebilde ist. Inzwischen strebt man Ungetüme mit einer Höhe über 200 m an. Die deutsche Bevölkerung war geduldig, aber die Stimmung kippt eindeutig. Tatsächlich ist der primäre Hersteller und Entwickler Enercon kürzlich gerichtlich verurteilt worden, die Errichtung des 30 Turbinen umfassenden Windparks Wülfershausen auszusetzen, weil offensichtlich die Vorschriften lokaler Behörden verletzt worden waren, die Entfernung von zehnmal die Höhe zu unterschreiten (hier).

Diese wenig begünstigende Atmosphäre trägt zu dem allgemeinen Gefühl bei, dass bestehende Festlands-Windparks am Ende ihrer Lebensdauer nicht in großer Zahl erneuert [repowered] werden. Etwa 15 GW von Festlands-Windkraft in Deutschland sind jetzt über 15 Jahre lang in Betrieb (hier), und das Ende der ökonomischen Lebensdauer zeichnet sich ab. Aber Quellen aus der Industrie zufolge wird weniger als ein Drittel hiervon tatsächlich erneuert, also viel weniger als noch vor ein paar Jahren erwartet. Zu den Gründen für diese plötzliche Verschlechterung der Aussichten gehören schwindende öffentliche Akzeptanz, welche sich in strafferen Planungs-Vorschriften spiegelt, und rückläufige Subventionen.

Inzwischen hat die in Schweden ansässige Firma Statkraft, der größte Erzeuger erneuerbarer Energie in Europa, in Norwegen und seinem Heimatland die Errichtung weiterer Festlands-Windparks ausgesetzt (hier), weil es eine „sehr große Herausforderung“ sei, profitable Projekte in diesen Gebieten zu errichten. Man konzentriert sich auf andere, weniger widerstandsfähige Märkte wie etwa in UK, wo ein 250 MW-Portfolio an Projekten von Element Power beantragt worden ist (hier).

Aber wie das so geht, in UK scheint sich alles als genauso wenig versprechend herauszustellen. Es dämmert der Windindustrie gerade, dass die Regierung tatsächlich an der Eckpunkte-Rede von Amber Rudd im November 2015 – damals war er Minister für Energie & Klimawandel – zur Energie-Zurückstellung arbeitet (hier). In jener Rede sagte Rudd u. A.: „we also want intermittent generators to be responsible for the pressures they add to the system“*. Das war natürlich nur zu richtig, aber vielleicht hoffte die Industrie, dass sich die Absicht niemals materialisieren würde. Falls das wirklich die Erwartung war, haben sie einen gravierenden Fehler gemacht. Aurora Energy Research hat jetzt eine Analyse des Gesetzgebers veröffentlicht (hier). Man glaubt, dass die vorgeschlagenen Änderungen „subventionsfreie Erneuerbare um bis zu fünf Jahre zurückwerfen könnten“ (hier). Dies bedeutet tatsächlich, dass falls der Gesetzgeber die versteckten Subventionen verhinderter Systemkosten entfernt, die wahren Kosten von Erneuerbaren auf dem Markt öffentlich werden, was die Bereitschaft noch so grün gewaschener Organisationen verringert dürfte, langfristige extravagante Verträge mit einem Wind- oder Solar-Park abzuschließen. Damit enthüllt sich, dass die Reformen von Ofgem die Behauptungen bzgl. Subventionsfreiheit entlarven und zeigen, dass es sich dabei niemals um mehr als leere PR gehandelt hat.

[*Für diese Phrase lässt sich keine sinnvolle Übersetzung finden. Oder es ist ein Druckfehler im Original. Anm. d. Übers.]

Trotz all dem ist es aber zweifellos noch zu früh, um zu sagen, dass das Spiel bzgl. Erneuerbarer aus ist. Die betroffenen Industrien werden zurückschlagen und um weitere direkte und indirekte öffentliche Assistenz buhlen, während sie gleichzeitig Politikern und Beamten die Verfehlung der Klimaziele vorhalten, falls jene Unterstützung nicht kommt. Aller Voraussicht nach werden sie damit bis zu einem gewissen Grad Erfolg haben. Aber das wird das Unvermeidliche lediglich hinauszögern. Wie die deprimierenden Nachrichten insgesamt zeigen, gibt es nach Jahrzehnten öffentlicher Unterstützung immer noch fundamentale Schwächen in der Erneuerbaren-Industrie, die weit über beißende Schwierigkeiten und Scheitern des lokalen Managements hinausgehen. Eine Erklärung, und meiner Ansicht nach die einzige notwendige Erklärung lautet, dass die Physik gegen diese Industrie steht und dass die Physik langsam die Oberhand gewinnt.

Link: https://www.thegwpf.com/is-the-long-renewables-honeymoon-over/

Übersetzt von Chris Frey EIKE




Klimawissen­schaft verletzt die Grund­lagen der Wissen­schaft

Es gibt zwei große Eckpfeiler der Wissenschaft. Erstens, es spielt keinerlei Rolle, wie viele „Wissenschaftler“ an irgendetwas glauben. Sie alle können widerlegt werden allein durch eine neue wissenschaftliche Theorie oder ein Experiment. Wissenschaft wird immer vorläufig bewiesen, und es ist die Pflicht von jedem, der sich selbst als Wissenschaftler bezeichnet, Fragen zu stellen hinsichtlich von Themen, die „settled“ sind. Der große Physiker Richard Feynman sagte völlig zu recht: „Wissenschaft ist der Glaube an die Ignoranz der Experten“. Wissenschaftler müssen fortwährend alles und jeden in Frage stellen.

Zweitens, Wissenschaft muss notwendigerweise genaue Prognosen abgeben. Das GPS in unseren Handys funktioniert nur, weil Einsteins Relativitätstheorien bis auf die letzte Dezimalstelle genau sind. Wissenschaft muss nicht nur die Zukunft prognostizieren, sondern auch in die Vergangenheit. Unser wissenschaftliches Verständnis kosmischer Mikrowellen-Hintergrundstrahlung gestattet es uns buchstäblich, das Universum so zu sehen, wie es ein paar tausend Jahre nach dem Urknall ausgesehen hat.

Wenn es um Klimawandel geht, ist alles dramatisch unklar und alles andere als settled. Nicht einmal die Konversion der zugrunde liegenden Logik des Treibhauseffektes in aktuelle Schätzungen für den Planeten Erde ist settled. Im 3. IPCC-Zustandsbericht heißt es: „falls der Kohlendioxid-Gehalt augenblicklich verdoppelt werden würde … würde die Temperatur um 1,2 Grad steigen ohne Einwirkung anderer Änderungen“. Allerdings kommen einige Wissenschaftler bei dieser Berechnung zu viel niedrigeren Ergebnissen.

Selbst wenn wir diese Zahl von 1,2 Grad akzeptieren, dreht sich alles um die Schlüsselfrage nach den „anderen Änderungen“ oder Rückkopplungen. Das IPCC sagt uns, dass positive Rückkopplung (z. B.durch Wasserdampf) bei einer CO2-Verdoppelung die negativen Rückkopplungen weit überkompensieren werden (z. B. durch Wolken), so dass sich in 100 Jahren eine insgesamt höhere Temperatur ergibt. Aber die vom IPCC anerkannten Modelle weisen viel zu viel Varianz auf, und die tatsächlichen, während der letzten 40 Jahre gemessenen Temperaturen lagen viel niedriger als das prophezeite Mittel der IPCC-Klimamodelle. Tatsächlich würde die Liste gescheiterter Prophezeiungen der Klima-„Wissenschaftler“ für die letzten 100 Jahre Bände füllen.

Klimawissenschaft gleicht mehr einer „Diät-Wissenschaft“, in welcher jede zweite Arzt seine eigenen Ansichten darüber hat, was eine gute Diät ist. Es ist im besten Falle eine sehr unausgereifte Wissenschaft, und die meisten jüngsten Schlussfolgerungen derselben werden von der Zeit total widerlegt werden.

Was ist überhaupt globale Temperatur? Wie wird sie gemessen? Warum betrachten wir nur die letzten 50 Jahre und nicht die letzten 50 Millionen Jahre? Selbst so einfache Dinge wie Messungen der Temperatur sind Gegenstand gewaltiger Unstimmigkeiten wegen Komplexitäten wie z. B. dem städtischen Wärmeinseleffekt UHI. Und Tatsache ist, dass es auf der Welt in der Vergangenheit schon viel höhere Niveaus des CO2-Gehaltes gegeben hat, selbst während Eiszeiten. Solange die Klimawissenschaft keine genauen Angaben hinsichtlich Eiszeiten und Temperaturen in der Vergangenheit abgeben kann, sollte man sie nicht ,Wissenschaft‘ nennen. …

Die Tatsache, dass es Versuche seitens einiger Individuen gibt, andere zum „Glauben“ an deren Standpunkte zu drängen, bestätigt aus sich selbst heraus, dass es sich nicht um eine Wissenschaft handelt. Außerdem gibt es gute Gründe anzunehmen, dass dieser Bereich vollständig von kommerziellen Interessen vereinnahmt worden ist. Der große Ökonom George Stitler hat das Thema der bürokratischen Übernahme in den siebziger Jahren herangezogen, um die Lage zu beschreiben, wenn ein Gesetzgeber nicht mehr unabhängig und unbeeinflusst in irgendeine Richtung ist, wenn er vor Interessenkonflikten steht. Marl Lynas drückte es so aus: „Die Erneuerbaren-Industrie ist der Haupt-Nutznießer jedweder Änderung einer Politik, welche die Schlussfolgerungen der IPCC-Berichte zur Grundlage hat“.

Ich glaube, dass ein sogar noch größerer Interessenkonflikt aus politisch inspiriertem Gruppendenken innerhalb der Regierung resultiert, was bedeutet, dass jene „Wissenschaftler“, die erfolgreich noch mehr Panik erzeugen können, noch mehr Geld erhalten, um ihr Imperium auszuweiten. Wahren Wissenschaftler, die Fragen nachgehen wollen, welche die „Ergebnisse“ der Klimawissenschaft widerlegen, wird jede Forschungsförderung verweigert, wenn diese Wissenschaftler nicht gleich von den Universitäten geschasst werden.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/sanjeev-sabhlok-climate-science-violates-the-basic-precepts-of-science/

Übersetzt von Chris Frey EIKE




Klima-Alarmisten fürchten nichts mehr als die Diskussion über faden­scheinige Wissen­schafts-Behaup­tungen

Ich möchte diesbezüglich kurz drei repräsentative Beispiele beleuchten:

Überarbeitung übertriebener Klimamodell-Prophezeiungen:

Das IPCC hatte zumindest in Einem recht auf Seite 774 im AR 3 aus dem Jahr 2001: „Hinsichtlich Forschung und Modellierung des Klimas sollten wir uns des Umstandes bewusst sein, dass wir es mit einem chaotischen, nicht linearen und gekoppeltem System zu tun haben, so dass langfristige Prognosen zukünftiger Klima-Zustände nicht möglich sind“.

Das IPCC bestätigte die Ungenauigkeit seiner Klimamodelle im AR 5 (2014), wo es einräumt, dass: „… 111 der 114 Ergebnisse von 1998 bis 2012 einen Trend der globalen mittleren Temperatur zeigen, der höher ist als der Trend der gemessenen Temperaturen, selbst nach Berücksichtigung statistischer Unsicherheiten im beobachteten Trend“.

Mit anderen Worten, das IPCC teilt uns mit, dass obwohl 97% seiner Computermodelle die Erwärmung übertreiben, wir dem IPCC nichtsdestotrotz vertrauen sollen als Grundlage für die Verschwendung von Billionen Dollar für energiepolitische Beschlüsse.

Hockeyschläger-Debakel: Das Spiel ist aus:

Eine der lautesten und schrillsten Stimmen gegen wissenschaftliche Sorgfalt stammt von dem Klimagate-Star Dr. Michael Mann, dem Autor der zusammen gestümperten und vielfach widerlegten „Hockeyschläger“-Graphik, welcher zum ersten Mal vom IPCC und Al Gore ins Spiel gebracht worden war, um Armageddon-Alarm zu schreien.

Die Mann’schen alarmistischen Projektionen sind inzwischen in den trüben, pseudowissenschaftlichen Gewässern versunken. Bevor wir alles vergessen, sollten wir noch einmal die Spuren von Big Foot [eine legendäre US-Figur] betrachten, um der Frage nachzugehen, warum kompetente Wissenschaftler, die es besser wussten – einschließlich informierten Mitgliedern seines eigenen Hockeyschläger-Teams – still geblieben sind.

In einem Artikel vom 20.März im Guardian, unter dessen Autoren auch Mann und Bob Ward waren, verglichen beide ein vom Weißen Haus ins Leben gerufenes Gremium zur Untersuchung derartiger Dinge mit stalinistischer Unterdrückung.

Nichtsdestotrotz schrieb sogar der Mitautor des Mann’schen Hockeyschläger-Beitrags Raymond Bradley in einer E-Mail, dass er eine solche Inkompetenz nicht länger mittragen konnte.

Unter Verweis auf eine andere, von Mann und seinem Kollegen Phil Jones von der University of East Anglia gemeinsam veröffentlichte Studie schrieb Bradley: „Ich bin sicher, ihr werdet zustimmen – die Studie von Mann/Jones war wahrhaft pathetisch und hätte nie veröffentlicht werden dürfen. Ich möchte nicht mit jener 2000-Jahre-Rekonstruktion in Verbindung gebracht werden!“

In einem Schreiben an Jones mahnte Peter Thorne vom UK Met.-Office Vorsicht an und schrieb: „Beobachtungen belegen nicht steigende Temperaturen in der tropischen Troposphäre, es sei denn, man akzeptiert eine einzige Studie, ein einziges Verfahren und verwirft eine Unmenge von anderen Studien. Das ist ausgesprochen gefährlich“.

Auch Phil Jones äußerte sich in E-Mails: „Das grundlegende Problem ist, dass alle Modelle falsch sind – nicht genug tiefe und mittelhohe Wolken simuliert haben. … Was er (Zwiers) gemacht hat, ergab etwas Anderes als von Caspar und Gene! Ich denke aber, dass man das durch sorgfältige Wortwahl umgehen kann“.

Jonathan Overpeck, ein koordinierender IPCC-Leitautor schlug vor: „Der Trick kann darin bestehen, die Haupt-Botschaft zu formulieren und diese dann dazu benutzen zu entscheiden, was man erfasst und was man außen vor lässt“.

Die Zerschlagung des Konsens‘ bzgl. betrügerischer, Angst erzeugender Behauptungen der settled Wissenschaft:

Alle vermeintlich kompetenten „Klimawissenschaftler“ und/oder deren professionelle Organisationen, die so tun, als ob sie jedwede legitime Umfrage ihrer Peers bzgl. eines düsteren Klimakrisen-Konsens‘ begrüßen, sollten verpflichtet werden, derartige Beweise vorzulegen.

Beginnen wir beispielsweise mit den Ursprüngen und dem Wert einer erheblich irreführenden Behauptung, über welche endlos berichtet und die als politische Waffe eingesetzt wird, dass „98% aller Wissenschaftler an die globale Erwärmung glauben“. Der Trick der Irreführung basierte ausschließlich auf Antworten von 77 willkürlich herausgesuchten Personen aus 3000. Diese 77 beantworteten zwei alles andere als wissenschaftliche Fragen einer Online-Umfrage der American Geophysical Union.

Die erste Frage lautete: „Im Vergleich mit dem Niveau vor dem 19. Jahrhundert – glauben Sie, dass die mittlere globale Temperatur gestiegen, gesunken oder gleich geblieben ist?“

Man hatte kaum erwartet, dass dies irgendwie umstritten ist … Mitte des 19. Jahrhunderts begann der Planet aus der Kleinen Eiszeit aufzutauchen, welche der Industriellen Revolution vorausgegangen war. (Das war die kälteste Periode seit der letzten großen Eiszeit vor etwa 12.000 Jahren).

Die zweite Frage lautete: „Glauben Sie, dass menschliche Aktivitäten ein signifikanter Faktor bzgl. der Änderung der mittleren globalen Temperatur ist?“

82% aller Antwortenden bejahten die zweite Frage, wobei die meisten Menschen, die ich kenne, ebenso die erste Frage bejahen – was ich auch tue. Es ist unmöglich sich vorzustellen, dass menschliche Aktivitäten – einschließlich Landverbrauch und globale Ergrünung aufgrund von CO2-Emissionen – nicht ein zumindest geringes Potential für Erwärmung (oder Abkühlung) haben.

Gewissenhafte Fachleute und Repräsentanten der Öffentlichkeit haben nichts zu befürchten hinsichtlich der vollen Darlegung von Fakten und Umständen, welche den gewaltig kostenintensiven und sozial verhängnisvollen Entscheidungen der Klima- und Energiepolitik zugrunde liegen.

Jeder Konsens unter wirklichen Wissenschaftlern sollte die Pläne des Weißen Hauses offen begrüßen, ein Gremium ins Leben zu rufen, welches unter der Leitung von Prof. Dr. William Happer sich genau dies zu untersuchen vornimmt.

Über den Autor:

CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2019/05/10/climate-alarmists-fear-debating-flimsy-science-claims/

Übersetzt von Chris Frey EIKE




Deep Solar Minimum kommt rasch: Kosmische Strahlen nehmen weiter zu

Abbildung 1: Tägliche Beobachtungen der Sonnenfleckenzahl seit dem 1. Januar 1900 am Solar Influences Data Analysis Center (SIDC). Die dünne blaue Linie zeigt die tägliche Sonnenfleckenzahl, während die dunkelblaue Linie das gleitende jährliche Mittel zeigt. Die jüngste geringe Sonnenflecken-Aktivität tritt eindeutig in den niedrigen Werten der gesamt-solaren Einstrahlung aus jüngster Zeit zutage. Datenquelle: WDC-SILSO, Royal Observatory of Belgium, Brussels. Letzter gezeigter Tag: 31. März 2019. Letzte Aktualisierung des Diagramms: 3. April 2019.

Überblick

Die Sonne ist weiterhin sehr ruhig und war bereits in über der Hälfte aller Tage in diesem Jahr frei von Flecken, was ein Beleg dafür ist, dass wir uns einem deep solar minimum nähern. Tatsächlich deutet alles darauf hin, dass das bevorstehende solare Minimum, dessen Beginn später in diesem Jahr erwartet wird, sogar noch ruhiger sein könnte als das vorige, welches schon das ruhigste Minimum über fast ein Jahrhundert war. Der Sonnenzyklus Nr. 24 war der schwächste Sonnenzyklus mit den wenigsten Sonnenflecken seit dem Maximum des Zyklus‘ 14 im Februar 1906. Der Sonnenzyklus 24 setzt den jüngsten Trend sich abschwächender solarer Zyklen fort, welcher um das Jahr 1980 sein Maximum erreichte. Das letzte Mal, in dem die Sonne in einem gegebenen Jahr auf prozentualer Basis fleckenfrei war, war das Jahr 2009 während des letzten solaren Minimums, als 71% der Tage fleckenfrei waren. Jenes letzte solare Minimum erreichte im Jahre 2008 tatsächlich einen Tiefpunkt, als sich die Sonne über erstaunliche 73% des Jahres fleckenfrei zeigte – die höchste Zahl fleckenloser Tage in einem gegebenen Jahr seit 1913. Eine der natürlichen Auswirkungen abnehmender Sonnenaktivität ist die Abschwächung des Sonnenwindes sowie deren Magnetfeldes, was es wiederum kosmischen Strahlen gestattet, in das Sonnensystem einzudringen. Die Verstärkung kosmischer Strahlen kann bedeutende Folgen haben hinsichtlich Wolkenbedeckung und Klima auf der Erde, aber auch hinsichtlich der Sicherheit von Flugreisenden und einem möglichen Auslöser für Blitze.

Kosmische Strahlen

Galaktische kosmische Strahlen sind energiereiche Partikel von außerhalb des Sonnensystems, welche die Erdatmosphäre beeinflussen können. Die erste Verteidigungslinie gegen diese Strahlen wird von der Sonne gestellt, und zwar mittels deren Magnetfeld und des Sonnenwindes, die in Kombination einen ,Schild‘ erzeugen, der kosmische Strahlen am Eindringen in das Sonnensystem hindert. Dieser Schild ist während solarer Maxima am stärksten und während solarer Minima am schwächsten. Die Intensität kosmischer Strahlung variiert global um etwa 15% während eines Zyklus‘ wegen der Änderungen der Stärke des Sonnenwindes.

Abbildung 2: Spaceweather.com hat seit dem Jahr 2015 das Auflassen von Weltraum-Wetterballonen gesponsert, die fast wöchentlich bis in die Stratosphäre aufsteigen. Sensoren an diesen Ballonen zeigen eine Zunahme der Strahlung (Röntgen- und Gamma-Strahlen), welche in die Atmosphäre unseres Planeten eindringen. Oben: Vier Jahre sich überlappender Daten von Neutronen-Monitoren und Ballonen zur Messung kosmischer Strahlen.

Beweise für eine Zunahme stratosphärischer Strahlung

Eine Möglichkeit, das Eindringen kosmischer Strahlung in die Erdatmosphäre zu erfassen besteht darin, die stratosphärische Strahlung über einen längeren Zeitraum zu messen. Spaceweather.com war führend bei derartigen Bemühungen, und zwar über Kalifornien mit häufigen Helium-Ballonaufstiegen bis in große Höhen. Diese Ballone trugen Sensoren, welche Röntgen- und Gammastrahlen im Energiebereich zwischen 10 keV und 20 keV erfassen. Diese Strahlung entsteht durch den Zusammenprall primärer kosmischer Strahlen in der Erdatmosphäre. Diese Energien überspannen die Bandbreite medizinischer Röntgen-Apparate und Scanner der Sicherheit an Flughäfen. Die Ergebnisse bestätigen, dass kosmische Strahlung über Kalifornien tatsächlich stetig zugenommen hat, während der Sonnenzyklus 24 dem nächsten solaren Minimum entgegen geht.

Während des letzten solaren Minimums im Jahre 2009 erreichte die Strahlung aus den Tiefen des Weltalls ein 50-Jahre-Hoch auf einem Niveau, wie es während der Satelliten-Ära noch nie beobachtet worden war. Jetzt sind wir auf gutem Weg zum gleichen Niveau, und ein neuer Rekord scheint unmittelbar bevorzustehen. Neutronen-Zähler am Boden und Strahlung messende Ballone in großer Höhe registrieren eine erneute Zunahme kosmischer Strahlen. Der Neutronen-Monitor in Oulu, Finnland, welcher seit dem Jahr 1964 Messungen durchführt, zeigt, dass das im April 2019 gemessene Niveau nur noch wenige Prozentpunkte unter dem Maximum der Satelliten-Ära 2009 liegt.

Abbildung 3. Quelle: das Sodankyla Geophysical Observatory in Oulu, Finnland

Konsequenzen der Verstärkung kosmischer Strahlung: Wolkenbedeckung/Klima

Die Korrelation zwischen kosmischer Strahlung und der Wolkenbedeckung über einen Sonnenzyklus wurde erstmals von Svensmark and Friis-Christensen im Jahre 1997 erkannt. Eine neuere, im August 2016 veröffentlichte Studie von Svensmark ergab: Die Weltraum-Physik stützt den Gedanken einer bedeutsamen Verbindung zwischen kosmischen Strahlen und Wolken.

Die Autoren kamen in dieser Veröffentlichung zu dem Ergebnis, dass „die beobachtete Variation von 3% bis 4% der globalen Wolkenbedeckung während des jüngsten solaren Zyklus‘ stark korreliert ist mit dem Fluss kosmischer Strahlen. Dieser wiederum ist umgekehrt korreliert mit der Sonnenaktivität. Der Effekt ist in höheren Breiten stärker, was übereinstimmt mit dem Abschirmungseffekt des irdischen Magnetfeldes bzgl. hoch energetischer Partikel. Die oben beschriebene Korrelation zwischen dem Fluss kosmischer Strahlen und der Wolkenbedeckung sollte auch bedeutsam sein bei einer Erklärung der erkannten Korrelation zwischen der Länge eines Sonnenzyklus‘ und der globalen Temperatur“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/deep-solar-minimum-fast-approaching-cosmic-rays-continue-to-rise/

Übersetzt von Chris Frey EIKE




Krankheiten: Fürchtet die Kälte, nicht die Wärme

Zusätzlich zu der Angsterzeugung um untergehende Küstenstädte, Hungersnöte durch Dürren und Überschwemmungen, stärkeren tropischen Stürmen, Missernten und Wasserknappheit konzentriert sich die Angsterzeugung bzgl. Gesundheit auf Befürchtungen zunehmender Krankheiten und Todesfälle durch Hitzewellen und Luftverschmutzung. Diese Befürchtungen entbehren jedoch nicht nur jeder Grundlage, sie vergewaltigen auch den gesunden Menschenverstand.

Der Gedanke, dass ein sich erwärmender Planet mehr Krankheit und Tod bringen würde, wird mit Sicherheit nicht gestützt durch die Erfahrungen der Menschheit oder wissenschaftliche Studien. Werden wir in der Winterkälte eher krank als in der Sommerwärme? Die meisten Menschen würden sofort sagen: im Winter.

Dem US Center for Disease Control zufolge erstreckt sich die Grippesaison in den USA von November bis April, also über die Wintermonate. Die Weltgesundheitsorganisation WHO definiert die Erkältungssaison auf der Südhalbkugel von Mai bis Oktober, also über die dortigen Wintermonate. Schon immer sind die Menschen bei kaltem Wetter viel eher krank geworden als bei warmem Wetter. Der Physiologie-Professor Dr. William Keating war Leiter eines Teams, welches im Jahre 2000 temperaturbezogene Todesfälle von Menschen im Alter zwischen 65 und 74 Jahren in England, Deutschland, Griechenland, Italien und den Niederlanden untersuchte. Ergebnis: Todesfälle mit Bezug zu kaltem Wetter lagen um das Neunfache über Todesfällen mit Bezug zu Wärme in jenen Ländern. Herz- und Schlaganfälle sowie Lungenkrankheiten waren die Hauptursachen für Todesfälle bzgl. Kälte.

Eine ähnliche Studie wurde durchgeführt von Dr. Matthew Falagas vom Alpha Institute of Medical Science in Athen. Er untersuchte die jahreszeitliche Sterberate von Australien, Kanada, Zypern, Frankreich, Griechenland, Italien, Japan, Spanien Neuseeland, Schweden und die USA. Es zeigte sich, dass die mittlere Anzahl von Todesfällen pro Monat im Sommer am niedrigsten lag und im Winter ein Maximum erreichte, und zwar in allen Nationen.

Dr. Björn Lomborg von der Copenhagen Business School weist darauf hin, dass jedwede globale Erwärmung die Sterberate der Menschen sehr wahrscheinlich reduzieren wird. Er berechnet, dass allein in UK 25.000 bis 50.000 Menschen jedes Jahr durch außergewöhnliche Kälte sterben.

Viele älteren Menschen aus unseren Breiten wandern nicht nach Alaska, Kanada oder North Dakota aus, sondern nach Florida, Texas und Arizona, wo das Wetter der Gesundheit viel zuträglicher ist.

Die meisten wissenschaftlichen Studien belegen, dass die Temperatur hinsichtlich der Ausbreitung von Krankheiten nur eine untergeordnete Rolle spielt. Dr. Paul Reiter, Experte für durch Insekten übertragene Krankheiten, weist darauf hin, dass Malaria in England während des kälteren Klimas der Kleinen Eiszeit im 18. und 19. Jahrhundert weit verbreitet war. Außerdem berichtete er von 16 Millionen Malaria-Fällen von 1923 bis 1925 in der Sowjetunion, davon 30.000 Fälle in Archangelsk nahe dem Polarkreis.

Neben dem Temperaturanstieg im 20. Jahrhundert zum Ende der Kleinen Eiszeit wurden Infektionskrankheiten wie Ruhr, Typhus, Tuberkulose und Malaria in den entwickelten Ländern allesamt eliminiert. Die tieferen Gründe dahinter waren bessere sanitäre Einrichtungen, Wasseraufbereitung, Impfstoffe, Mückenkontrolle und andere Gesundheitsprogramme. Die Temperatur war nur ein unbedeutender Faktor.

Das Fehlen von Belegen für irgendwelche realen Beeinträchtigungen der Gesundheit durch höhere Temperaturen ist zentral für die Bemühungen der Globale-Erwärmung-Alarmisten, die Öffentlichkeit zu ängstigen. Jüngsten Umfragen zufolge rangiert globale Erwärmung an letzter Stelle der Dinge, welche die Öffentlichkeit beschäftigen, aber man erwarte nicht, dass die Angstmache demnächst zu Ende geht.

Link: https://www.cfact.org/2019/05/10/fear-cold-not-heat/

Übersetzt von Chris Frey EIKE