PIK-Forscher wollen Antarktis beschneien!

Von  

Mit einer bahnbrechenden Idee wollen Klimaforscher vom Potsdam-Institut für Klimafolgenforschung (PIK) die Antarktis und insbesondere die Westantarktis vor dem Abtauen retten.

Eine durch künstliche Beschneiung gewonnene riesige Menge an Schnee könne den Eisschild zurück in Richtung Stabilität drücken, berichtete das Potsdam-Institut für Klimafolgenforschung. Dafür müssten aber mehrere hundert Milliarden Tonnen Wasser pro Jahr über einige Jahrzehnte hinweg auf das Eis geschneit werden.

Nach Einschätzung der Klimaforscher droht der westantarktische Eisschild auf lange Sicht ins Meer zu rutschen. Das würde den Meeresspiegel weltweit um mehr als drei Meter ansteigen lassen. Damit würden Metropolen von New York über Shanghai bis nach Hamburg langfristig unterhalb des Meeresspiegels liegen, erklärte Anders Levermann, Physiker am Potsdam-Institut. Kürzlich erst hatte Levermann bei einer Anhörung vor dem Bundestag zum Klimawandel behauptet, dass das CO2-Molekül gewinkelt sei und nicht linaer. Zudem hatte er die vorindustrielle Temperatur mit 15°C angeben, sie liegt heute aber bei 14,7°C.

Mit Billionen Tonnen an zusätzlichem Schnee könnten die Gletscher nach Einschätzung der Forscher vom PIK gerettet werden. Das Vorhaben skizzieren die Forscher um Anders Levermann vom Potsdam-Institut für Klimafolgenforschung (PIK) im Fachblatt „Science Advances“.

Levermann erklärt, im Kern gehe es „um die Abwägung, ob wir als Menschheit die Antarktis opfern wollen, um die heute bewohnten Küstenregionen und das dort entstandene und entstehende Kulturerbe zu retten“. Der westantarktische Eisschild sei das erste Kippelement im Klimasystem, das die Menschheit gerade kippen sehe. Man könnte ihn mit entsalztem Meerwasser künstlich beschneien und damit beschweren – auf einer Fläche größer als Costa Rica.

Die nach einer Computersimulation mögliche Rettung durch die massive Beschneiung sei allerdings ein beispielloser Eingriff in die Natur. Das Hochpumpen, das Entsalzen und die Erwärmung des Meerwassers sowie das Betreiben der Schneekanonen würden eine Strommenge in der Größenordnung von mehreren zehntausend Highend-Windturbinen erfordern, erklärte Johannes Feldmann, Ko-Autor der Studie.

„Einen solchen Windpark inklusive der dafür nötigen Infrastruktur in der Amundsensee zu errichten und derartige enorme Mengen an Meerwasser zu entnehmen, würde im Wesentlichen den Verlust eines einzigartigen Naturreservates bedeuten.“

In der deutschen Fachwelt stößt die Veröffentlichung auf Vorbehalte: Experten verschiedener deutscher Forschungseinrichtungen wollen sie nicht kommentieren.

Die Kanzlerin hatte erst kürzlich das PIK besucht und sich dort über die Notwendigkeit einer CO2-Steuer zur Rettung des Klimas beraten lassen. Ex-Klimaberater von Merkel war HJ Schellnhuber, der bis zum letzten Jahr Chef des PIK war und heute in der Kohlekomission der Bundesregierung sitzt.

VIDEO von Michael Krüger; Tagesschau: „Es klingt wahnwitzig, was dieser Klimaforscher aus Potsdam errechnet hat, läßt nicht nur die Fachwelt aufhorchen.“

 

 

 




»Das E-Auto nützt nur der Automobilindustrie, aber nicht den Kunden!«

Jörg Wellnitz ist Professor an der Technischen Hochschule Ingolstadt und Inhaber einer Professur in Melbourne. Er fährt selbst ein Elektro-Auto. Wellnitz hat sich akribisch mit allen Aspekten der E-Mobilität auseinandergesetzt. Sein Fazit: Sie werde nie so kommen, wie von Industrie und Politik prognostiziert. Für ihn ist das Ganze ein Alibikrieg, nichts anderes. Der Kunde ist dabei Nebensache.

Manchmal ist es durchaus der Mühe wert, stundenlang das Netz zu durchstöbern. Dann stößt man auf einen schon einige Monate alten Beitrag von Prof. Jörg Wellnitz, über den das Portal ›Ingoldstadt-Today.de‹ berichtete, ein weithin unbekannter Digitalableger des ›Donaukuriers‹. Es ist ein hochinteressanter Artikel, der im Diskurs um das E-Auto bisher untergegangen ist.

»In der Volksmeinung ist die E-Mobilität eine tolle Sache«, sagt der eloquente Professor, »aber sie macht überhaupt keinen Sinn, wenn man sich alle Aspekte des Themas einmal vor Augen führt.«

In der Tat gibt es nicht einen Aspekt, für den Wellnitz nicht ernüchternde Zahlenwerke parat hätte, erstaunliche Untersuchungen zitieren kann oder schlicht mit gesundem Menschenverstand eins und eins zusammenzählt.

Autoverkehr nur für 16 Prozent der CO2-Emissionen verantwortlich

Im Zentrum der Betrachtung steht selbstredend der von den E-Auto-Enthusiasten behauptete umweltpolitische Nutzen. Professor Wellnitz macht eine ernüchternde Rechnung auf:

Für gerade einmal 16 Prozent des angeblich klimaschädlichen Kohlendioxidausstoßes ist der Autoverkehr verantwortlich. »Belastender ist da ja schon die Massentierhaltung und die landwirtschaftliche Monostruktur« – von den großen Containerschiffen, den Kreuzfahrtlinern auf den Weltmeeren und dem Flugverkehr ganz zu schweigen.

Für eine Batterie kann man acht Jahre mit Verbrennungsmotor fahren

Aber selbst ohne Berücksichtigung dieser CO2-Schleudern wäre das E-Auto für die Verbesserung der Umweltbilanz nach Meinung von Wellnitz vollkommen wertlos. »Bis die Batterie für Tesla beispielsweise gebaut ist, könnte man acht Jahre lang mit einem Verbrennungsmotor fahren, um die gleiche Umweltbelastung zu erzielen«, so Wellnitz. Er führt das Narrativ von der Zero-Emission des E-Autos ad absurdum und macht in einem Atemzug dem Märchen vom billigen Fahren mit Strom den Garaus.

E-Auto hat nach acht Jahren nur noch Schrottwert

Denn laut Wellnitz ist es eine Frage der Zeit, bis der Strom zum Aufladen der Batterien – der zudem in der Hauptsache alles andere als sauber produziert wird – ebenso besteuert wird wie Benzin oder Diesel. Und dann lägen die Kosten für einen E-Flitzer bei rund 800 Euro pro Monat. Und der hat ob der möglichen Ladezyklen eines Akkus in acht Jahren nur noch Schrottwert.

Und das alles weiß die Autoindustrie nicht?

»Alle wissen es«, sagt Jörg Wellnitz, »aber es geht weder um die Umwelt noch um die Kunden.« Der Grund, warum Hersteller wie Audi, BMW, VW und andere derzeit Milliarden in die neue Technologie investieren, liege ganz woanders.

Wellnitz: »Zum einen lassen sich Milliarden an EU-Fördergeldern kassieren. Daneben bewahren E-Autos die großen Hersteller vor Strafzahlungen wegen Nichterreichens der europäischen Klimavorgaben, da sie mit angeblichen Zero-Emissionsmodellen den Flottenmix nach unten drücken. Es geht selbstredend auch um das Markenimage, um ein grünes Mäntelchen und um Technologiekontrolle.« Man baue die E-Autos im Wissen, dass sie alles andere als die automobile Zukunft seien. »Es zu machen ist billiger, als es nicht zu machen«, habe ihm ein Automanager gesagt, »es ist sinnlos, aber es kostet weniger.«

Den Herstellern geht es nur um mehr Absatz

Und – so ganz nebenbei – es geht natürlich darum, noch mehr Autos zu verkaufen. 1,6 Milliarden Fahrzeuge gibt es heute bereits weltweit. 80 Millionen werden pro Jahr produziert. Das seien ebenso viele, wie Kinder auf dieser Welt neu geboren werden. E-Autos sind für die Hersteller kein Ersatz für Verbrenner, sondern ein Zusatzgeschäft, um als Zweit- oder Drittfahrzeug noch mehr Autos an den Mann zu bringen.

Die Kinder Afrikas lassen grüßen

Doch dieses Zusatzgeschäft, so Wellnitz, stoße an seine Grenzen, wenn es um die benötigten Rohstoffe für den Bau von Akkus gehe, deren Abbau in Chile (Lithium) und Zentralafrika (Kobalt) nicht nur extrem umweltunverträglich ist und in weiten Teilen mit unvertretbarer Kinderarbeit einhergeht. Wellnitz: »Würde Audi den A4 in großer Serie rein elektrisch bauen, müssten sie den halben Weltmarkt an Kobalt leerkaufen.«

Bei VW habe man so eine Rechnung schon einmal vorsorglich aufgemacht und sei zu dem Ergebnis gekommen, dass der Konzern für seine Produktion von E-Autos rund 130.000 Tonnen Kobalt benötigen würde. Die Weltproduktion indes liegt derzeit bei 123.000 Tonnen. Die Kinder Afrikas grüßen die VW-Kunden an dieser Stelle auf das Allerherzlichste!

7,5 Kilo weniger Gesamtgewicht, besseres Klima

Für Wellnitz ist der Dieselmotor nach wie vor der sauberste und umweltfreundlichste Antrieb. Der Ingolstädter Professor macht noch eine andere bemerkenswerte Rechnung auf. Abgesehen davon, dass ein Auto-Akku rund 100 Wattstunden Leistung pro Kilogramm Gewicht liefert (Benzin 12.000 Wattstunden und Wasserstoff, für Wellnitz der Treibstoff der Zukunft, 33.000 Wattstunden), ließen sich die Klimaziele heute schon ganz leicht erreichen. Und zwar so:

Würde jeder Autofahrer auf unnötig mitgeführten Ballast von durchschnittlich 7,5 Kilogramm verzichten, dann »hätten wir die europäischen Klimaziele schon in Sichtweite«.

Die Zukunft heißt Wasserstoff

Und würde man eine aufrichtige Ökobilanz aufmachen, basierend auf Preis, Bauraum und Leistung, dann »kommt hinten der Ottomotor heraus oder ein kleiner Diesel«, sagt Jörg Wellnitz, der im Übrigen auf eine ganz andere Zukunftstechnologie setzt, die zu verschlafen die deutschen Autobauer aufgrund der politischen E-Vorgaben gerade dabei sind: »Das Wasserstoffauto wird ganz sicher kommen.« (hh)

Der Beitrag erschien zuerst beim Deutschland-Kurier hier




Der nächste Klima-Mythos fällt: Es gibt keinen 97%-Konsens zum menschengemachten Klimawandel

„Oft wird behauptet, es gäbe große Uneinigkeit darüber, ob der Klimawandel stattfindet und ob er auch menschengemacht ist. Das ist falsch. Das Team des Kognitionspsychologen John Cook wertete knapp 12.000 Studien zum Thema globale Erwärmung aus: 97 Prozent derjenigen, die sich zum Klimawandel positionierten, waren sich einig, dass der Klimawandel auch menschengemacht ist (Environmental Research Letters: Cook et al., 2013). Es sind Lobbygruppen der fossilen Industrie, die seit Jahrzehnten bewusst Zweifel an diesem wissenschaftlichen Konsens streuen.“

Das Zitat stammt aus „10 Fakten zum Klimawandel, die man sich merken kann“, ein Text, den Michael Lindner und Antonia Schuster zum „Wissen“ der ZEIT zusammengeschustert haben.

Wo die ZEIT voranprescht, kann der Spiegel nicht am Wegrand stehen:

„Und sie betonen andererseits, dass sich die Wissenschaft auf gewisse Kernaussagen geeinigt hat: Zum Beispiel, dass es den Klimawandel gibt. Dass der Klimawandel eine Bedrohung ist, aber durch entschiedenes Handeln zumindest abgemildert werden könnte. Darüber, dass der Mensch einen entscheidenden Einfluss hat, gibt es sogar einen 97-prozentigen Konsens der Forscher.“

Das schreibt Christopher Schrader in seiner Klima-Dystopie für den Spiegel.

Um das Dreigestirn der linken Systempresse mit ihrem englischen Counterpart zu vervollständigen: Auch für den Guardian ist der Konsens der Klimaforscher eine ausgemachte Sache:

“There is actually a 97% expert consensus among climate scientists that humans are responsible for global warming…”

 

Das Problem: Es gibt keinen 97%-Konsens unter Wissenschaftlern darüber, dass der Klimawandel von Menschen zu verantworten ist.

Wir haben schon vor einiger Zeit über die seltsame Idee geschrieben, auf die ohnehin nur Ideologen kommen können, man würde Wissenschaft per Konsens entscheiden: Wenn die Mehrheit der Ansicht ist, die Erde dreht sich ab sofort nicht mehr Richtung Osten sondern, sagen wir, Richtung Süden, dann ist das eben Konsens, ungeachtet der Fakten.

Nein, so funktioniert Wissenschaft nicht. Eine Idee, die gegen das gebürstet ist, was die Mehrheit der Forscher für richtig hält, eine Idee, die in empirischer Prüfung bestätigt wird und durch diese Bestätigung alles beseitigt, was die Mehrheit der Wissenschaftler bislang geglaubt hat, reicht, um wissenschaftlichen Fortschritt zu erzielen.

Konsens, im Gegenteil, ist eher hinderlich. Konsens macht larmoyant, träge und führt dazu, dass man sich in der Gegenwart einrichtet. Konsens, die Behauptung, es gebe einen Konsens, sie hilft in der Regel nur den Ideologen, die einen angeblichen Konsens benutzen wollen, um ihre Ziele zu befördern, wie dies die Klimaalarmisten, die immer mehr zur Klima-Mafia werden, derzeit tun.

Die Geschichte der 97%-Konsens-Behauptung beginnt im Jahre 2004 mit einem Beitrag von Oreskes, der so unterirdisch schlecht ist, dass wir ihn hier nicht berücksichtigen wollen und auch nicht müssen, denn zwischenzeitlich haben John Cook und unterschiedliche Co-Autoren versucht, in mehreren Studien die Existenz eines Konsenses darüber, dass Klimawandel menschengemacht ist, nachzuweisen. Offenkundig kann man eine Forschungsfrage, die nach „Konsens“ sucht, nicht mit der Methode der Wissenschaft in Einklang bringen. Wir bewegen uns hier im Feld der Forscher, die vom öffentlichen Förderungskuchen auch ein paar Euros oder Australische Dollars abhaben wollen und als Gegenleistung ideologisch Verwertbares liefern.

Cook et al. haben in ihrer letzten „Studie“ aus dem Jahre 2013 besonders gut Verwertbares geliefert, Verwertbares, das über die Zahlen wirken soll. 12.465 wissenschaftliche Beiträge in Zeitschriften haben die Autoren gesammelt, vielleicht auch 12.876 oder 13.458. So genau wissen das die Autoren offensichtlich nicht. Und weil sie es nicht genau wissen, verbreiten sie in ihren „supplementary materials“ andere Daten als in ihrem Artikel. Wie dem auch sei, irgendwie sind 11.944 Abstracts zu wissenschaftlichen Texten übriggeblieben, die die Autoren dann in einem „citizen science project“, das leider nur die Unterstützung von 24 Bürgern gefunden hat, durch eben diese Bürger haben klassifizieren lassen. Den 24 anonymen Freiwilligen wurden Kategorien vorgegeben, nach denen sie die Abstracts von wissenschaftlichen Texten klassifizieren sollten, in der Hoffnung, dass Autoren in ihrem Abstract beschreiben, was sie tatsächlich auch manchen und in der Hoffnung, dass die Bürgerforscher auch verstehen, was beschrieben wird.

Das kann man tun, wenn man Sorge trägt, dass die Bürger, die sich melden, keine Selbstselektion überzeugter Klimawandel-Jünger darstellen, die überall menschengemachten Klimawandel sehen und hineinlesen und wenn man sicherstellt, dass die Kriterien, nach denen Texte klassifiziert werden, eindeutig sind und in mindestens zwei Kontrollgängen auf ihre Reliabilität geprüft werden. Ob Cook et al. das getan haben? Wer weiß? Sie machen dazu keinerlei Angabe, was den Verdacht nahelegt, die angesprochene methodische Problematik sei ihnen gar nicht bewusst. Dafür, dass die Ergebnisse von Cook et al. nicht wirklich das sind, was man als Speerspitze der methodischen Akkuratheit beschreiben würde, spricht auch die Tatsache, dass 12 einsame Gestalten, sorry: Bürger, anonyme Bürger, für die Klassifizierung von 23.061 Abstracts verantwortlich sind, während es weitere 12 Bürger auf gerade einmal 607 Abstracts gebracht haben. Die Zahl der Abstracts ergibt sich aus der Doppelklassifizierung, jedes Abstract wurde zwei freiwilligen Bewertern vorgelegt. Addiert man die beiden Zahlen und dividiert durch 2, dann ergeben sich 11.835 Abstracts, abermals eine andere Zahl und abermals ein Grund, daran zu zweifeln, dass die Studie von Cook et al. auch nur annähern den Kriterien von Validität und Reliabilität gerecht wird.

Man kann also weder ausschließen, dass die 24 Freiwilligen, die die 11.835 Abstracts, die die aktuelle Grundlage des Beitrags bilden, eine Gruppe von Klimawandeljüngern darstellen, die alles andere als objektiv bei der Einordnung der Beiträge vorgehen, noch kann man ausschließen, dass die vorgegebenen Kategorien von den 24 freiwilligen Beurteilern unterschiedlich verwendet werden.

Dafür, dass Klimawandeljünger an der Auswertung beteiligt waren, spricht die Tatsache, dass sich einige Autoren, die überprüft haben, wie ihre Texte eingeordnet wurden, über eine Fehlklassifikation ihrer Arbeiten geärgert haben. Dafür, dass die freiwilligen Beurteiler die Kriterien, die ihnen vorgegeben wurden, al Gusto und nicht einheitlich angewendet haben, spricht die sehr hohe Zahl von konfligierenden Einordnungen. So gab es bei der Frage, ob ein Abstract eine Befürwortung eines menschengemachten Klimawandels enthält ein Drittel widerstreitender Bewertungen. Man sollte denken, die entsprechende Frage ist einfach zu beantworten. War sie aber offensichtlich nicht, was ein weiterer Hinweis auf Klimawandeljünger ist.

Schließlich haben sich eine Reihe von Wissenschaftlern, deren Arbeiten von Cook et al. berücksichtigt wurden, über die Nichtnachvollziehbarkeit der Auswahlkriterien irritiert gezeigt. Dr. Richard Tol und Dr. Craig Idso zum Beispiel. Tol findet es nicht nachvollziehbar, dass von 122 Beiträgen, die er im von Cook et al. untersuchten Zeitraum veröffentlicht hat, 10 ausgewählt wurden und ärgerlich, dass 5 der 10 ausgewählten Arbeiten falsch klassifiziert wurden, natürlich als Beiträge, die den menschengemachten Klimawandel stützen, nicht als solche, die ihn in Frage stellen, was die Beiträge von Tol tatsächlich tun.



Die bisherige Aufarbeitung der Studie von Cook et al. gleicht einer Auflistung der methodischen Fehler, die man vermeiden sollte, wenn man valide und reliable Ergebnisse produzieren will:

Die Auswahl der Arbeiten, die von Cook et al. berücksichtigt wurden, ist nicht nachvollziehbar und scheint mehr oder weniger willkürlich.

Für die freiwilligen Bewerter wurde nicht sichergestellt, dass keine Selbstrekrutierung von Personen erfolgt, die ein Interesse an der Verbreitung des Mythos vom menschengemachten Klimawandel haben.

Den freiwilligen Bewertern der Abstracts wurden keine Kriterien vorgegeben, die die Wahrscheinlichkeit abweichender Einordnung desselben Abstracts minimieren.

Die Einschätzungen der freiwilligen Bewerter wurden nur in Fällen, in denen zwischen den zwei Bewertern, die dasselbe Abstract einordnen sollten, Differenzen aufgetreten sind, geprüft, in allen anderen Fällen nicht.

Mit anderen Worten: Die Wahrscheinlichkeit einer Fehlklassifizierung wurde maximiert.

Und weil alles noch nicht ausreicht, wenden Cook et al. in ihrer Auswertung der verzerrten Ergebnisse noch einen Taschenspielertrick an. Die nunmehr 11.944 Arbeiten, die von 1991 bis 2011 veröffentlicht wurden und sich mit Klimawandel befassen, werden aufgrund ihrer Abstracts wie folgt klassifiziert:

64 Beiträge werden als Beiträge eingeordnet, die von ihren Autoren als klarer Beleg eines menschengemachten Klimawandels bewertet werden. Eine nachträgliche Prüfung durch Craig Idso hat 23 der 64 Beiträge als Fehlklassifizierung ausgewiesen.

In 922 Beiträgen haben die Autoren von einem menschlichen Beitrag zum Klimawandel geschrieben, den Beitrag aber nicht quantifiziert.

In 2.910 Beiträgen findet sich eine „implizite“ Bestätigung für den menschengemachten Klimawandel, wobei die Bestätigung zuweilen so implizit ist, dass man sich fragt, ob den Autoren, die in diese Kategorie fallen, nicht reihenweise Gewalt angetan wird.

In 7.930 Beiträgen findet sich keinerlei Referenz zum menschengemachten Klimawandel

In 40 Beiträgen bringt der Autor seine Zweifel am menschengemachten Klimawandel zum Ausdruck.

In 54 Beiträgen wird die Idee eines menschengemachten Klimawandels implizit zurückgewiesen, in 24 explizit.

Um die 97% Zustimmung errechnen zu können, schließen Cook et al. die 7.930 Beiträge, in denen keinerlei Referenz zum Einfluss von Menschen auf den Klimawandel vorkommt, komplett aus. 66,4% der Beiträge sind somit belanglos. Die verbleibenden 4.014 Beiträge werden in zwei Gruppen zusammengefasst: 3.896 Beiträge sind für die Autoren pro-menschengemachter Klimawandel, 118 contra. 3.896/40,14 = 97,06%. Tatsächlich sind 32,6% aller bewerteten Abstracts als pro-menschengemachter Klimawandel eingeordnet und nicht 97,06%.

Hinzu kommt, dass man die Einordnung, die Cook et al. vornehmen, nicht unterschreiben muss. Tatsächlich fallen 64, nach Korrektur 41 Arbeiten in die Klasse von Arbeiten, die einen menschengemachten Klimawandel explizit bejahen und quantifizieren, alle anderen Arbeiten fallen nicht in diese Klasse. Ergo ist der wissenschaftliche Konsens, der für die Klimaalarmisten so wichtig ist, gerade auf 1,6 bzw. 0,5% eingeschrumpft. David Henderson hat dieses Argument gemacht. Alex Epstein macht auf seinem Blog ein ähnliches Argument und zeigt zudem, wie die falschen Zahlen, die Cook et al. liefern von Politikern sofort genutzt werden, um ihre Agenda zu befördern.

Institutionalisierte Akademiker und Politiker arbeiten hier, wie es scheint, Hand in Hand.

Zwei sehr gute Kritiken am Beitrag von Cook et al. hat Robert S. J. Tol verfasst: „Comment on Quantifying the Consensus on Anthropogenic Global Warming in the Scientific Literature“ (Environmental Research Letters, 11, 2016) und Quantifying the Consensus on Anthropogenic Global Warming in the Literature: a Re-Analysis. Energy Policy 73(2014): 701-705.

Die Behauptung, 97% der Wissenschaftler, die sich zum Klimawandel äußern, würden die Idee eines menschengemachten Klimawandels unterstützen, ist somit eine Falschbehauptung, die einmal mehr der internen Qualitätskontrolle der Qualitätsmedien entschlüpft ist – oder sollte man annehmen müssen, ZEIT, Spiegel, Guardian, werden dafür bezahlt, den Mythos vom menschengemachten Klimawandel zu transportieren und warm zu halten?

Der Beitrag erschien zuerst bei ScienceFiles hier




Fakten beweisen: keine Erd-Erwärmung infolge CO2–Emissionen

Die offizielle Klimapolitik hat das Ziel ,unsere’ CO2-Emissionen zu begrenzen, um da­durch eine weitere Erderwärmung zu vermeiden, denn CO2soll angeblich den Treibhaus­effekt weiter ver­stär­ken. Das Modell vom anthropogen verursachten Klimawandel beruht auf Kli­masimulatio­nen. Be­weise fehlen, die Fakten widerlegen das Modell.

Das IPPC hat schon früh betont, dass Voraussagen zum Klima nicht möglich sind, denn es ist ein chaotisches nichtlineares System mit sehr vielen Einflussfaktoren. Inzwi­schen hat die re­ale Ent-wick­lung die Richtigkeit dieser IPCC-Beurteilung bestätigt: die Vor­aussagen ha­ben sich nicht er­füllt – ein unbezweifelbarer Be­weis wurde nicht erbracht. Das Gegenteil hat statt gefunden: Er­wärmungen vor CO2-Emissionen, Abkühlungen trotz CO2-Emissionen. Trotzdem wird  die Klimapolitik nicht geändert, denn: Unsere CO2-Emissionen verursa­chen die Erderwärmung!  Aus Kühltürmen aufsteigende kondensierte Wasserdampfwolken gelten als Beweis  – falsch:  COist unsicht­bar.!  Die wesentlichen Fakten und Folgerungen wer­den hier noch mal zu­sammengefasst und in den Anlagen 1 EW VHS Bever CO2 Anl 1 2019 B und 2 EW VHS Bever CO2 Anl 2 2019 B illustriert.

Zusammenfassung der Fakten und Folgerungen

  • Während das regierungsamtlich verordnete Modell vom anthropogen verursachten Kli­mawan­del all­gemein geglaubtwird und als Richtlinie für Regierungsbeschlüsse gilt, be­weisen dieFakten das Ge­genteil. Die periodischen Strahlungszyklen und Änderun­gen der Bahnparame­ter verursa­chen als Gegebenheiten der Natur zwangsläufig Klimawandel,  auch  in der Zukunft.
  • Änderungen von einigen  Zehntel Grad sind übliche Temperaturschwankungen aber noch kein Klimawandel
  • Die Messungen zeigen,
    • dass es Warmphasen vor ‚unseren’ CO2-Emissionen gab und Kalt-phasen trotz dieser Emissionen, die sogar länger andauerten als die Warmpha­sen.
    • Die Temperaturganglinien zeigen schnellere und stärkere Änderungen in vorindustriel­ler Zeit, also vor ‚unseren’ CO2-Emissionen.
    • Während des Mittelalterlichen Klimaoptimums gab es noch kein industrielles CO2, aber Acker­bau in Grönland, Weinanbau in England, Veilchen zu Weihnachten und Kirschen im März. “Das schöne Allgäu“nennt in Heft  4 (2007) als Beispiele für besonders warme Jahre 1185, 1186, 1229 und 1241.
  • Auch das Gegenteil ist bekannt: Abkühlungen bis zum Frost. Auch diese  Wechsel bestätigen,  dass Klimawandel Naturerscheinungen sind. Im 16.Jahrhundert war der Bodensee  6-mal gefroren, in der Kleinen Eiszeit auch die Themse und die holländischen Grachten.
  • Die Ursache kommt vor der Wirkung: In allen Hochgebirgen begann die Gletscher­schmelze mit der Rückerwärmung nach der Klei­nen Eiszeit um 1860, also 80 Jahre vor Beginn der indus­triellen CO2-Emissionen. Die Temperaturganglinien zeigen schnellere und stärkere Änderun-gen in vorindustriel­ler Zeit, also vor ‚unseren’ CO2-Emissionen.
  • Kürzlich gefällte Bäume zeigen für die letzten beiden Jahrzehnte engere Jahresringe, also kühle­res Klima. Dies entspricht der letzten der  insgesamt 7 Phasen zwischen 1880 und 2010, wie in Anlage 1 dargestellt: vier Kaltphasen und drei Warmphasen haben sich  abgewechselt.
  • Für die Analyse von mittel- und langfristigen Änderungen sind Langzeit-Messwerte erfor­der­lich. Sie werden im Internet  an­geboten, z.B. in  Wetterzentrale.de. Ihre Daten von 82 Stationen wurden ausgewertet und deren Ganglinien hergestellt. Anlage 1 EW VHS Bever CO2 Anl 1 2019 B zeigt auf Seite 2 exemplarisch die Gangli­nien der sieben ältesten Datensätze. Man erkennt kurzfristige und örtlich begrenzte Temperaturänderungen. Wirkliche Klimawandel, die in mehreren Ganglinien an gleichzeitigen Erwärmungen oder Abkühlungen zu erken­nen wären, wur­den nicht registriert.
  • Wie in Anlage 2 EW VHS Bever CO2 Anl 2 2019 B aus 4)zitiert, betrug der CO2-Anteil vor dem Beginn unserer industrie-beding­ten CO2-Emissionen ca. 0,028%. Gegenwärtig beträgt er – emissionsbe­dingt – ca. 0,04%, ist also um 0,012% gestiegen. Dieser Anstieg hat die Temperatur tatsächlich nur um 0,2°C er­höht, was praktisch bedeutungslos ist. Weiterhin gilt die Feststellung aus Frankes Lexikon der Physik von 1959: „CO2ist als Klimagas bedeutungslos“  
  • Der von den Menschen erzeugte Anteil am Naturkreislauf des COist mini­mal. Er ist klei­ner als die Menge der Entgasungen aus Vulkanen und Förderschloten am Meeres­boden, die zeitlich und örtlich wechseln­. Auch diese Wechsel sind eine irdi­sche Nor­malität, die es schon immer gab und die nicht durch den Menschen beeinflussbar ist. Beispiel: der Ätna liefert z.Zt. täglich 35.000 t. Ob das schon lange geschieht und wie lange noch andauert  ist unbekannt.
  • Diese Wechsel wirken sich auch auf das Klima aus. Genaue Berechnun­gen der Auswir­kungen sind wegen der ständigen Veränderungen nicht möglich.
  • CO2ist mittels Photosynthese der Grundbaustein der Nahrungsmittel – ohne CO2kein Le­ben! Steigender CO2-Gehalt sollte begrüßt werden, denn er ergibt reichere Ernten, die für die wach­sende Erdbevölkerung sehr willkommen sind.  Mit einem gegenwärtigen CO2-Anteil an der Atmosphäre von ca. 0,04% ist die Erde nicht mehr allzu weit entfernt von dem für das Weiter-leben unserer Biosphäre benötigten Wachstumsminimum von ca. 0,015%  Wir nähern uns also der Existenzgrenze. Sie wurde in der Erdgeschichte schon einmal folgenschwer unterschritten. Um die jetzige Biosphäre zu erhalten, ist es falsch, CO2zu sparen 

Zum Schluss:

Warum sollte die Biosphäre leiden wenn – diesmal –  wirden CO2-Gehalt der At­mosphäre vergrößern?  Beispiele aus der Erdge­schichte zeigen, dass trotz sehr viel größerer CO2-Gehalte die Biosphäre nicht gefährdet war sondern davon profitierte. Wie Anlage 2 zeigt, be­trug der CO2-Gehalt vor 500 Mill. Jahren 18% und vor 100 Mill. noch 4%. Trotzdem  setzte sich die Evolution der Pflanzen- und Tierwelt fort, auch weil das Klima lebensfreundlich geblieben war, un­abhängig vom CO2-Gehalt. Mehr CO2verstärkt die Photosynthese und fördert die Biosphäre. Zu wenig CO2, also weniger als 0,015%, lässt sie absterben – und damit das Leben. Eiszeiten wurden durch hohe CO2-Gehalte nicht verhindert, denn es blieb trotzdem kalt. In frühe­ren Eiszeiten reich- ten die Gletscher der Arktis bis in den heutigen Mittelmeer-Raum. Klima­wandel  werden vor allem durch Änderungen der Bahnpa­rameter und der Strahlungszyklen verursacht und beide agieren unabhängig von den Beschlüssen der Politik – wie Vulkane und Erdbe­ben.

 

5)J. F. Eichner,E. Koscielny-Bunde,A. Bunde,S. Havlinand H.-J. Schellnhuber:                                                                Power-law persistence and trends in the atmosphere: A detailed study of long temperature records

PHYSICAL REVIEW E 68, 046133 ~2003!

=============================

A n l a g e n  von Karl Ewert zum Beitrag :

EW VHS Bever CO2 Anl 1 2019 C

EW VHS Bever CO2 Anl 2 2019 C




ZDF mal wieder – Mit Rechentricks zur Klimalypse oder: Was wird mit Klimamodellen wie berechnet?

Letzteres zielt auf junge Leser, ist in der Regel suggestiv und dient fast ausschließlich dazu, vorhandene politisch korrekte Inhalte zu verbreiten. Journalisten, die hinterfragen, kritisch hinterfragen, die sich überlegen, warum angeblich ein Konsens zwischen Wissenschaftlern über etwas bestehen soll, das von mathematischen Modellen für die Zukunft vorhergesagt wird und das mit einer entsprechenden Unsicherheit verbunden ist, gibt es – offenkundig – nicht. Würde man Klimatologen fragen, wann der Vesuv zum nächsten Mal ausbricht, sie würden passen, denn kein mathematisches Modell kann dies mit Sicherheit vorhersagen. Alles, was wir sagen können, ist, dass der Vesuv, gemessen an historischen Daten, überfällig ist.

Indes haben dieselben Klimatologen kein Problem damit, die Zukunft für den Planeten als Ganzes und auf die Kommastelle genau vorherzusagen. Im Jahr 2050 wird die Temperatur der Erde um im Durchschnitt 2,5 Grad Celsius wärmer sein. Das sagt RCP 4.5, eines der Klimamodelle des IPCC voraus. RCP – Representative Concentration Pathways – ist ein Klimamodell aus einer Reihe von Klimamodellen. RCP 2.6, RCP 6 und RCP 8.5, sind die anderen drei Klimamodelle. Je nachdem, wie sehr man seine Leser erschrecken will, trifft man eine Wahl zwischen den Modellen, die z.B. für 2050 Temperatursteigerungen von 1,7 Grad Celsius (RCP 2.6), 2,5 Grad Celsius (RCP 6) bzw. 3 Grad Celsius (RCP 8.5) vorhersagen (siehe Abbildung).

Quelle

Egal, welches Modell man wählt, es ist immer mit der Annahme verbunden, dass die Temperatur des Planeten vornehmlich durch die Konzentration von CO2 neben anderen Treibhausgasen in der Atmosphäre bestimmt wird, eine Annahme, die bekanntlich viele Wissenschaftler nicht teilen. Dessen ungeachtet wird mit RCPs herummodelliert, wobei sich die Annahmen, die im Hinblick auf die zukünftigen CO2-Konzentrationen gemacht werden, zwischen den Modellen unterscheiden, wie in der folgenden Abbildung zu sehen.

Quelle

Dass sich die Annahmen unterscheiden, das liegt an weiteren Annahmen, die gemacht werden, im Hinblick auf die Entwicklung des Bevölkerungswachstums (und den damit verbundenen Ausstoß von u.a. CO2), die Entwicklung des wirtschaftlichen Wachstums (und den damit verbundenen Ausstoß von u.a. CO2), die Entwicklung des Energieverbrauch (und den damit verbundenen Ausstoß von u.a.. CO2) sowie die Entwicklung des Ressourcenverbrauchs und der Flächenversiegelung (und den damit verbundenen Effekt auf den Ausstoß von u.a. CO2).

Alle vier RCP-Modelle machen unterschiedliche Annahmen darüber, wie sich die genannten Variablen in Zukunft entwickeln und kommen entsprechend zu einer anderen CO2-Konzentration in der Atmosphäre und – davon ausgehend – zu jeweils einem anderen Temperaturanstieg. Dass es in den RCP-Modellen zu einem Anstieg der durchschnittlichen Erdtemperatur kommt, ist gesetzt, sie unterscheiden sich lediglich im Ausmaß des Anstiegs, der vorhergesagt wird und zwischen 1,7 Grad Celsius und 3 Grad Celsius global für das Jahr 2050 liegen.

Es gilt festzuhalten, dass man, durch die Verwendung eines RCPs die Prämisse übernimmt, dass es überhaupt einen menschengemachten Klimawandel, der im Wesentlichen durch CO2 herbeigeführt wird, gibt. Wissenschaftler sollten eigentlich keine Prämissen unhinterfragt übernehmen. Es sollte zu ihrem Ethos gehören und ist eigentlich das, was Wissenschaft ausmacht, derartige Prämissen zu hinterfragen, zu prüfen. Insbesondere dann, wenn sich in der Vergangenheit gezeigt hat, dass die Vorhersagen der Klimamodelle nicht nur falsch, sondern granatenmäßig falsch waren. Dann gäbe es viel Grund, sich um die Akkuratheit, die Validität, die Reliabilität der Modelle zu sorgen, die Prämisse zu hinterfragen, sie nicht einfach zu übernehmen.

Und damit kommen wir zum neuerlichen Versuch des ZDF, vornehmlich jüngere Leser zu indoktrinieren und auf die offenkundig beim Sender vorhandene Agenda einzuschwören:

Die Studie, die hier als Studie der ETH-Zürich verkauft wird, findet sich unter dem Titel „Understanding climate change from a global analysis of city analogues“ auf Plos One. Erstellt wurde die Studie von dem Autorenrudel, das sich aus Jean-Francois Bastin, Emily Clark, Thomas Elliott, Simon Hart, Johan van den Hoogen, Iris Hordijk, Hazohi Ma, Sabiha Majumber, Gabriele Manoli, Julia Maschler, Lidong Mo, Devin Routh, Kailiang Yu, Constantin M. Zohner und Thomas W. Crowther zusammensetzt.
Es hat uns immer fasziniert, wie man einen knapp acht Textseiten langen Text mit 15 Autoren zuwege bringt. Vielleicht muss man sich die Erstellung als eine Art kollektives Brainstorming vorstellen. Es würde die Ergebnisse erklären.

Die 15 aus dem Autorenrudel sind keine Wissenschaftler im Sinne des Wortes, sie sind Missionare, sie haben eine Mission, eine Mission, die sie gleich im ersten Satz in Worte fassen:

„Combating climate change requires unified action across all sectors of society. […] The gap between the scientific and public understanding of climate change, referred to as the ‚Consensus Gap‘, is largely attributed to failures in climate change communication”.

Ob die Autoren verschweigen, dass das „scientific understanding“ keineswegs einheitlich ist, sondern im Gegenteil, die Anzahl der Kritiker an der absurden Idee eines menschengemachten Klimawandels stetig wächst, oder ob diese Kritik in ihrem Echozimmer bislang nicht angekommen ist, ist insofern belanglos, als angebliche Forschung, die damit beginnt, ein Dogma zu verkünden und auf dessen Grundlage das Ziel zu verfolgen, Ungläubige in der Bevölkerung zum richtigen Glauben zu bekehren, nicht einmal mit sehr viel gutem Willen und viel Phantasie noch in die Nähe von Wissenschaft gerückt werden kann.
Was das Autorenrudel seinen Lesern ganz offen und gleich zu Beginn des eigenen Werkes mitteilt, ist vielmehr, dass es nach einer Möglichkeit gesucht hat, den „Menschen“, also uns ungläubigen Deppen, die schwer vorstellbare Erwärmung von 2 Grad zu visualisieren und dass sie diese Möglichkeit in Städten gefunden haben.

Fassen wir kurz zusammen, was die 15 Klimaalarmisten in ihrem Werk veranstalten: Sie wählen ein Klimamodell des IPCC, nämlich RPC 4.5, bezeichnen dieses Model als „moderates Modell“, weil es bis 2050 nur eine Erwärmung um rund 2,5 Grad Celsius ANNIMMT, werfen eine ganze Reihe weiterer Variablen, die sie für 520 Städte zusammengesammelt haben, in eine Faktorenanalyse, lassen den Computer rechnen und freuen sich dann, dass hinten herauskommt, was sie vorne mit ihren Annahmen sichergestellt haben, dass es herauskommt: EINE ERWÄRMUNG.Heureka!

Es ist immer schön, wenn man es als vermeintlicher Wissenschaftler schafft, eine Gleichung, die eine Erhöhung der Temperatur zum Ergebnis hat, so aufzulösen, dass sie eine Erhöhung der Temperatur zum Ergebnis hat.

Die Langversion dessen, was die Helden aus Zürich hier als Forschung verkaufen wollen, geht wie folgt. Für 520 Städte, die entweder Hauptstadt sind oder mehr als eine Million Einwohner haben, derzeit, nicht in Zukunft, haben die 15 Autoren eine Reihe weiterer Variablen zusammengetragen, 19 an der Zahl. Warum gerade 19? Niemand weiß es. Wofür die 19 stehen, in welcher Weise die 19 Variablen das „Stadtklima“ abzubilden vermögen, niemand weiß es. Was man als Leser weiß, ist, dass sich unter den 19 Variablen u.a. die folgenden finden: Die höchste Temperatur im wärmsten Monat, die durchschnittliche Jahrestemperatur, der durchschnittliche Niederschlag pro Jahr, die geringste Temperatur im kältesten Monat, der durchschnittliche Niederschlag im trockensten Monat, der durchschnittliche Niederschlag im feuchtesten Monat usw. Welche Relevanz diese Variablen für das Klima einer Stadt, für das Klima der 520 Städte, die im Sample vorhanden sind, haben, wir wissen es nicht, und die 15 des Autorenrudels scheinen es auch nicht zu wissen, sonst hätten sie es sicher irgendwo auf den wenigen Textseiten vermerkt.

Die 19 Variablen für die 520 Städte sind zuviele, als dass sie von den Autoren einzeln zu handhaben wären, also werden sie von den Autoren in eine Faktorenanalyse geworfen, das mehrfaktorielle Ergebnis reduzieren die 15 hoffentlich Fachkundigen und hoffentlich für Faktoren mit einem Eigenwert von mehr als 1 auf vier Faktoren, die sie mit Sinn füllen können. 85% der Gesamtvarianz sind nun noch übrig.

Diese 85% Varianz sind insofern wichtig, als sie die Grundlage für die Unterschiede zwischen heutigem London und morgigem London oder heutigem Seattle und morgigem Seattle darstellen. Die Faktorenanalyse ist wichtig, weil die vier Faktoren die Grundlage bilden, auf der mit Hilfe euklidischer Distanzen Städte nach Ähnlichkeit gruppiert werden.

Wir haben somit Städte, die nach Ähnlichkeit und in Abhängigkeit von 19 Variablen, die Ergebnisse des Klimas (Niederschlag, Temperatur usw.) enthalten, angeordnet sind. Und jetzt kommt das, was unter Insidern als „Computer speak to me“ bekannt ist: Das Modell. Im vorliegenden Fall kommt RCP 4.5, das eine durchschnittliche Temperatursteigerung von 2,5 Grad Celsius für den gesamten Planeten bis 2050 vorhersagt, zum Einsatz (wie hoch der mit dieser Prognose verbundene Vorhersagefehler ist, das ist eine Information, die wie gewöhnlich nicht gegeben wird, die fast unterschlagen wird). Mit den 19 Variablen für Klimaereignisse die auf vier Faktoren gruppiert wurden, ist sichergestellt, dass sich die 520 Städte im Hinblick auf das RCP-Modell unterscheiden, es wäre blöd, wenn man berichten müsste, dass alle 520 Städte sich um 2,5 Grad Celsius erwärmen, ergo wird eine Feedback-Schleife in das Modell eingebaut, die unter der Annahme einer globalen Erwärmung um 2,5 Grad Celsius berechnet, wie sich die 19 Variablen über die vier berechneten Faktoren auf die jeweilige Konstellation in den einzelnen Städten auswirken. Und siehe da: Sie wirken sich unterschiedlich aus, Temperatursteigerungen von 3,5 Grad Celsius und 4,7 Grad Celsius können die Modell-Hexer damit für die europäischen Städte im Modell (welche und wie viele das sind, verraten sie freilich nicht) vorweisen.

Die Temperatursteigerungen werden dann als durchschnittliche Temperatursteigerung für Europa verkauft, und die Ergebnisse, die auf gerade einmal 520 Städten basieren, werden kurzerhand zu Ergebnisse „aller Metropolen“ ernannt, und weil alle Städte, das war die Annahme, sich bis 2050 erwärmen und sich die Erwärmung auf Niederschlag und Temperatur auswirkt, das ist eine Zwangsläufigkeit, deshalb kommen die Autoren zu dem Ergebnis, dass die betrachteten Städte wärmer und zuweilen nässer, zuweilen auch trockener werden.

Ein Triumph entweder der Fähigkeit, sich selbst vorzumachen, man habe ein Ergebnis gefunden, das man nicht durch seine Annahmen bereits determiniert hätte ,oder ein Triumph der Fähigkeit, anderen, vor allem den Allesgläubigen, soweit es die eigene Agenda stützt, im ZDF, einen Instantkaffee verkauft zu haben, der sich dann nach Anrühren als Instantkaffee entpuppt.
Wenn das die neue Art der Kommunikation ist, mit der Klimaalarmisten der wachsenden Zahl derer, die den Klima-Hokuspokus bezweifeln, dessen Korrektheit vermitteln will, dann können wir nur feststellen, dass diese Kommunikation gescheitert ist, sich bestenfalls dazu eignet, diejenigen, die jeden Stuss glauben, wenn er ideologisch passt und man ihnen erzählt, er sei „wissenschaftlich belegt“, in ihrem Wahn zu bestärken.

Der Beitrag erschien zuerst bei Science Files hier


Sich durch den Informationswald, den u.a. das IPCC angelegt hat, zu fressen, relevante Informationen zu sammeln, diese aufzubereiten und zur Verfügung zu stellen und dabei gegen den politisch-korrekten Mainstream zu schwimmen, kostet Zeit, Nerven und Geld.
Wenn Sie uns dazu mit einer Spende den Rücken stärken, dann freuen wir uns, über diese Anerkennung unserer Arbeit.