Selber denken nicht erwünscht: der Niedergang der FAZ

Grundsätzlich ist v. Rauchhaupt bei seiner Diskreditierung von wissenschaftlich qualifizierten Skeptikern der folgende zentrale Punkt komplett unbekannt: ORDENTLICHE Wissenschaft (nicht nur Klimawissenschaft) wird prinzipiell und immer NUR von SKEPTIKERN betrieben. Ohne Skepsis kann es gar keinen wissenschaftlichen Fortschritt geben, lediglich Stillstand und Bestätigungen eines jeweils herrschenden Konsens. Musterbeispiel dafür bietet uns die Wissenschaft des europäischen Mittelalters unter dem Diktat von Aristoteles und katholischer Kirche (Scholastik). Echte Wissenschaft sucht dagegen die Wahrheit und muss infolgedessen alle bisher bekannten wissenschaftlichen Ergebnisse inklusive der eigenen permanent immer wieder in Frage stellen.

Man wird bei der naiven Katalogisierung v. Rauchhaupts in „Berge von Konsens“ auf der einen und „Skeptiker“ auf der anderen Seite an eine Aussage Albert Einsteins erinnert, der im beginnenden dritten Reich auf den persönlichen Anwurf, Hunderte deutscher Physiker hätten seine Relativitätstheorie widerlegt, antwortete: „Wieso Hunderte, einer genügt“. Immerhin gibt Rauchhaupt vor, in der Klimaliteratur geschnuppert und zahlreiche skeptische Fachautoren entdeckt zu haben, vermutlich hat er sie sich aber doch nur von einem Fachmann benennen lassen. Es sind Fachautoren, deren Forschungsergebnisse nicht mit dem von ihm beschworenen AGW-Konsens zusammenpassen. Dabei vermeidet er wenigstens den in den Medien so beliebten 97%-Konsensquatsch. Leider bleibt es bei diesem kleinen Pluspunkt, der Rest seines Artikels ist in seiner intellektuellen Qualität erbärmlich.

Um den von ihm selbst bemerkten Fehler der Nennung von ernst zu nehmenden Skeptikern an der reinen AGW-Lehre (AGW = anthropogenic global warming) wieder gutzumachen, ist der Folgefehler wohl unvermeidbar, die fachliche Kompetenz der aufgeführten Skeptiker anzuzweifeln. V. Rauchhaupt schreibt nämlich: „Auffällig ist allerdings, dass viele von ihnen gar nicht aus der Klima- oder Atmosphärenforschung kommen“. Seltsam, denn schließlich kommt ja selbst der bekannteste deutsche Klima-Alarmist Stephan Rahmstorf in seiner universitären Ausbildung nicht unmittelbar vom Klimafach sondern der Relativitätstheorie (hier).

Vielleicht ist aber hier eine erheiternde Diskussion des Autors mit einem Fachkollegen aus der Volkswirtschaft hilfreich. Dieser tat eine begutachtete Klimaveröffentlichung als wertlos ab, weil der Verfasser Physiker und daher kein Klimaforscher sei. Der Autor ist sich auch heute noch nicht sicher, ob es ihm gelang seinem Kollegen – immerhin Professor für Volkswirtschaft, also zwangsweise mit Abitur und Studium geschmückt – verständlich zu machen, dass Klimaforschung zur Physik gehört, auf dem sich (sic) Physiker, Meteorologen, Chemiker, Mathematiker etc. ohne jedwede fachlichen Abstriche tummeln, jeder ohnehin wieder auf einem Spezialgebiet innerhalb von „Klima“. Der Oberbegriff all dieser Fachleute ist nun einmal deswegen „Klimaforscher“, weil sie ihre Forschungsergebnisse in begutachteten Klimafachjournalen publizieren. Ein universitäres Studienfach „Klima“ gibt es nicht.

Extreme fachliche Nähe, die von den Medien bei umstrittenen wissenschaftlichen Erkenntnissen oft mit der unabdingbaren Forderung nach „Fachexperten von der Pike auf“ verbunden wird (so wie bei unserem lustigen Volkswirt-Kollegen), hat vielleicht für das manuelle Handwerk seine Berechtigung, nicht aber für die wissenschaftliche Forschung. Zahlreiche naturwissenschaftliche Nobelpreise sind an Forscher gegangen, die keinesfalls von der Pike auf das Gebiet bearbeiteten, auf dem sie später ausgezeichnet wurden. Forscher, die ihr früheres Spezialgebiet verließen und dabei natürlich bei ihrem Fachgebiet blieben, produzierten oft besonders interessante und gute Arbeiten. Verständlich, denn nur das Abweichen von ausgetretenen Pfaden führt auf neue Wege.

Ob diese Zusammenhänge auch Zeitungsredakteuren ohne naturwissenschaftlichen Hintergrund geläufig sind? Heute geraten diese einfachen Zusammenhänge tatsächlich zunehmend in Vergessenheit, denn die Jagd nach Drittmitteln erlaubt es guten universitären Forschern immer seltener, wissenschaftlich einmal etwas völlig Neues zu beginnen. Wer mehrere Jahre nicht publiziert, weil er sich in Neues einarbeitet, ist aus dem Geschäft, seine Forschungsmittel trocknen aus. Auf diese Weise kann auch „Konsens“ entstehen. Einstein oder Heisenberg hätten heute keine guten Karten im Wissenschaftsbetrieb.

Die von v. Rauchhaupt wegen ihrer nicht unmittelbaren Zuständigkeit diskreditierten Forscher publizieren in begutachteten Fachzeitschriften, was bedeutet, dass die eingereichten Arbeiten von anonymen Klima-Fachkollegen (Peer Review) auf Korrektheit und ausreichendes Niveau überprüft werden. Der persönliche Fachhintergrund der Verfasser spielt dabei keine Rolle. Ordentliche wissenschaftliche Publikationen beschränken sich auf das bearbeitete Thema, ziehen im Allgemeinen keine über das Fachliche hinausgehenden Schlüsse und dürfen nicht voreingenommen sein. Sind sie diese Bedingungen nicht erfüllt, insbesondere die letztgenannte, werden sie abgelehnt, wie es dem Klima-Alarmisten Stephan Rahmstorf mit einer eingereichten Arbeit geschah (hier), (hier).

Verlassen wir nun die v. Rauchhaupt’sche Erbsenzählerei von begutachteten Fachpublikationen mit Ergebnissen, die von unkundigen Journalisten einer politisch unkorrekten, weil skeptischen Sicht zugeordnet werden. In einer vom Autor verfassten EIKE-News wurde dieses Thema schon weit gründlicher behandelt (hier), v. Rauchhaupt hätte sich zuvor besser bei EIKE informieren sollen. Wenden wir uns jetzt lieber dem „selber denken unerwünscht“ zu! Dazu ist es zweckmäßig, die einschlägigen wissenschaftlichen Klimapublikationen in MESSUNGEN und THEORIE/Modelle zu unterscheiden. Dies ist tatsächlich der zentrale Punkt! Nur Theorie(Modell)-Publikationen kennen eine maßgebende anthropogene Klimabeeinflussung. Publikationen, die sich mit dem Gewinnen/Analyse von Klimamessdaten befassen, kennen sie praktisch nicht. Können wir daraus etwas lernen? Durchaus! Hören wir uns dazu einfach den nach Einstein vielleicht berühmtesten Physiker des 20. Jahrhunderts, Richard Feynman, an, der sinngemäß folgendes, insbesondere zur heutigen Klimaforschung passendes,  sagte:

Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt,

egal, wie elegant sie ist,

egal wie plausibel sie klingt,

egal wer sie unterstützt,

……

wenn sie nicht durch Messungen (Beobachtungen) bestätigt wird, dann ist sie falsch.

Tatsächlich ist bis heute kein maßgebender anthropogener Einfluss auf Klimaänderungen auf der Basis von Messungen und/oder Beobachtungen nachweisbar. Alle seit Beginn der Industrialisierung – man wählt hierzu im allg. das Jahr 1850 – gemessenen Klimaänderungen bewegen sich im bekannten Schwankungsbereich der früheren Vergangenheit und erreichen selbst in ihren Maximalausschlägen nach oben oder unten nicht die Extrema, die im Zeitraum ab Ende der letzten Eiszeit (grob 10 000 Jahre) bis 1850 mehrfach aufzufinden sind. Und noch mehr: Es sind ab 1850 keine, über den klimahistorisch bekannten Bereich hinaus gehenden Extremwetterveränderungen, Eisschmelzen oder Meeresspiegelveränderungen bekannt [1] und (hier), (hier).

Mit dem Maßstab von Feynman, dessen Gültigkeit bis heute nicht in Zweifel gezogen wird und der DAS Paradigma der modernen Naturwissenschaft überhaupt darstellt, ist die AGW-Hypothese schlicht FALSCH.

Um nicht missverstanden zu werden: aus physikalischen Gründen muss es einen anthropogenen Klimaeinfluss geben, er ist aber so schwach, dass er bis heute messtechnisch aus dem natürlichen Klimarauschen nicht herausfilterbar ist, was (sehr frei) nach Wittgenstein bedeutet: „Über etwas, was man nicht messen kann, sollte man sich nicht den Kopf zerbrechen und schon gar keine politischen Agenden konstruieren“.

Richard Feynman muss eigentlich ausreichen, um ideologisch angetriebenen Klima-Alarmismus ins Reich der Science Fiction oder Scholastik zu verbannen. Aber leider ist dies nicht so, insbesondere die westliche Politik ist vom Klima-Alarmismus so fasziniert wie Fliegen von dem berühmten Misthaufen. Die Welt teilt sich hier in zwei Lager: wenig beeindruckt von dem gemäß Feynman-Maßstab fiktiven AGW ist weit überwiegend die dritte Welt (nur Länder mit Profithoffnungen, wie die Malediven, machen da eine Ausnahme) und sind es China, Indien, Brasilien, Russland, inzwischen sogar Australien. Dagegen verharren in unbeirrbarer Befolgung des sakrosankten Erwärmungskanons die EU, die Schweiz und die USA. Beeindruckend ist, wie deren politischen Verantwortlichen jedwede Diskussion über Sachgrundlage, Sinn und Unsinn dieser AGW-Aktion schon im Grundsatz ablehnen, vermeiden, ja undemokratisch abwürgen und sich ungeprüft auf die Seite des IPCC schlagen. Es soll aus Platzgründen hier nicht entschieden werden, ob dieser Mangel an Einsicht auf intellektuelle Defizite, ideologischen Glauben, politische Korrektheit (undemokratischer Fraktionszwang in deutschen Parlamenten), politisches Erfolgsstreben oder schlicht auf profane Profitgier zurückzuführen ist.

Weiter wollen wir uns jetzt anhören, was ein ebenso bedeutender und bekannter Physiker wie Albert Einstein und Richard Feynman, nämlich Werner Heisenberg, zum Problem der zu lauten Verkündigung von angeblich gesicherten wissenschaftlichen Wahrheiten seitens Fachkollegen, Medien und Laien anmerkte:

Will man den Wahrheitsgehalt einer Aussage beurteilen, sollte man sich zuerst die Methoden des Aussagenden ansehen“.

Für jeden ehrlichen, nicht auf den Kopf gefallenen Zeitgenossen ist dieses Vorgehen gut nachvollziehbar. Man braucht sich hierzu nur den sachlichen Mega-Unsinn von prominenten Exponenten des PIK wie „2 Grad-Ziel“, „große Transformation“ oder „Umverteilung des Weltvermögens“ vor Augen zu halten. Zweifellos geht es diesen Alarmisten allein um politische Ideologie, nicht um die Sorge vor einer globalen Erwärmung. Man schüttelt bei diesen Aussagen aus dem PIK nur noch den Kopf und fragt sich, warum insbesondere wir Deutsche so schwer aus unserer bisherigen Geschichte lernen und undemokratische Propagandisten nicht einfach aus ihren Ämtern entfernen.

Ebenso „heisenbergfündig“ wird man beim IPCC, einem ökoideologischen Verein, von Regierungen installiert und beherrscht (4), der mit Wissenschaft absolut nichts gemein hat und von dem – aktuell des polizeirelevanten Vorwurfs sexueller Übergriffe wegen zum Rücktritt gezwungen – Vorsitzenden Pachauri geleitet wurde. Dieser ehrenvolle Herr Pachauri hat die dem IPCC stets gebannt lauschende Weltöffentlichkeit schamlos belogen (z.B. Himalaya-Gletscherschmelze), wobei ein Irrtum immer einmal vorkommen kann, nicht aber das Beharren auf ihm, wenn die Fakten bereits bekannt sind.

Die durchgesickerten E-Mail von dem IPCC zuarbeitenden Forschern scheinen ebenfalls für die Anwendung der Heisenberg-Regel gut geeignet (hierzu gibt es zu viele Links, daher einfach im EIKE-Suchfunktionsfenster climategate einsetzen und selber auswählen). Welche Lehre können wir aus all dem ziehen? Diese muss jeder Leser für sich selber auswählen. Zumindest die folgende Lehre ist aber definitiv allgemeingültig:

Ehrliche Wissenschaft ist ausschließlich der Wahrheit verpflichtet, muss sich stets in Frage stellen und darf sich grundsätzlich niemals an industrielle, politische oder ideologische Interessen verkaufen. Die dabei zugrunde liegenden Motive der Wissenschaftler sind irrelevant. Sie lassen sich immer als für die menschliche Gemeinschaft nützlich oder gar unverzichtbar begründen. Die Wirklichkeit sieht sehr oft anders aus. In einem heute kaum noch vorstellbaren Extremfall wurde schon einmal hierzulande aus unvollständig gesicherten wissenschaftlichen Erkenntnissen eine Kampagne geschmiedet, die Millionen Menschenleben gekostet hat. Es war die Eugenik des dritten Reichs. Das damals durchaus als ehrenwert geltende Motiv der beteiligten Forscher war die Reinhaltung der arischen Rasse. Mit diesem Extrembeispiel soll keine Verbindung zwischen der heutigen CO2-Kampagne und einem der dunkelsten Punkte der deutschen Wissenschaft hergestellt werden. Es zeigt nur, wie gefährlich es ist, wenn sich Forscher außerwissenschaftlichen Institutionen, wie hier dem IPCC, zur Verfügung stellen, welches dann ihre Forschungsergebnisse für seine fragwürdige Ideologie und Politik vereinnahmt.

Noch ein Wort zum Niedergang der deutschen Qualitäts-Printmedien. Zumindest die FAZ war früher einmal kritisch (hier), (hier), (hier) und [2], man mag es kaum noch glauben. Diese Zeiten gehören der Vergangenheit an. Heute hat sich politische Korrektheit wie Mehltau über das ehemals hochwertige Blatt gelegt. Nicht zuletzt aus diesem Grunde verliert die FAZ kontinuierlich Leser. So übernimmt v. Rauchhaupt ungeprüft die inzwischen unzählige Male wiederholte und noch niemals nachgewiesene Verleumdung, Klimarealisten – im vorliegenden Fall der Klimaforscher Wei-Hock Soon – würden von der Erdölindustrie finanziert. Die Assoziation, dass damit ihre Forschungsergebnisse den Wünschen der Geldgeber folgen, ergibt sich dann, wohl beabsichtigt, von selber. V. Rauchhaupt schreibt nämlich (Hervorhebung vom Autor):

Am selben Tag berichtete die New York Times über Dokumente, die nahelegen, dass der Klimaforscher Wei-Hock „Willie“ Soon vom Harvard-Smithsonian Center for Astrophysics (CfA) mehr als 1,2 Millionen Dollar von Unternehmen bekam, die von der Nutzung fossiler Energieträger leben – und diese Einnahmequelle verheimlicht hat. Soons Forschungsarbeiten, sogar seine Aussagen vor dem amerikanischen Kongress waren in seinen Vereinbarungen mit den Geldgebern aus der Kohle- und Erdölbranche als „lieferbare Resultate“ (deliverables) bezeichnet worden.

Der Autor möchte hierzu zweierlei anmerken: das bereits genannte PIK führt auf seiner Webseite alle Geldgeber auf [3], darunter erstaunlicherweise sogar die katholische Kirche, somit also Geld aus Spenden von Gläubigen, von denen man annehmen darf, dass sie von dieser Verwendung nichts wussten und mehr an „Brot für die Welt“ dachten. Die katholische Kirche ist wohl ebenso „klimazuständig“ wie die Erdölindustrie. Zum zweiten zahlt die Kohle- und Erdölindustrie ihre Steuern und ist für Auto-, Luftverkehr und chemische Industrie unverzichtbar. Wenn grün-rote Ideologie diese Industrien im Reich des Bösen verortet, sollte sie einmal darüber nachdenken, wie sich das Leben in der Steinzeit ohne Medikamente, Zahnärzte und maschinelle Fortbewegung anfühlte.

Ob irgend etwas Substantielles an den Vorwürfen gegen Wei-Hock Soon vorliegt, kann hier natürlich nicht entschieden werden. Die Replik Soons ist dieser EIKE-News angefügt (in Englisch), vor Beweis des Gegenteils ist ihr Glauben zu schenken. Man darf freilich mit Sicherheit davon ausgehen, dass bei einem Beleg der Richtigkeit von Soons Replik keinerlei Berichtigung des Redakteurs v. Rauchhaupt in der FAZ erfolgen wird – das wäre dann wieder eine Bestätigung der Heisenberg-Regel oder vielleicht dogar Bestätigung der Bezeichnung (Lügenpresse), mit dem Dresdner Demonstranten die deutschen Medien abkanzelten.

Wir bedauern zwar den Abstieg der FAZ, lesen an Stelle der FAZ lieber GEOLITICO und informieren uns ferner fast nur noch im Internet über die Fakten. Für Zeitgenossen, die mitdenken und nicht jeden Medien-Mist, angefangen von den öffentlich-rechtlichen Radio- und TV-Sendern bis hin zu den schon erwähnten rot-grünen Kampfblättern, schlucken, ist dies die bessere Option. Ganz wertlos ist das Studium von FAZ, der Alpen-Prawda (Süddeutsche Zeitung) und dem ersten ideologischen Kampfblatt „Frankfurter Rundschau“ dennoch nicht. Man lernt dabei, wie weit Deutschland bereits von objektiven Medienberichten und -Analysen grüngesäubert ist. Wer noch tiefer blickt, lernt außerdem, in welche Richtung der Leser manipuliert wird, vermag also einzuschätzen, was die jeweiligen Machtelite, die steuert, was in den Printmedien stehen muss, mit uns vorhat.

Anhang Statement of Dr. Willie Soon

In recent weeks I have been the target of attacks in the press by various radical environmental and politically motivated groups. This effort should be seen for what it is: a shameless attempt to silence my scientific research and writings, and to make an example out of me as a warning to any other researcher who may dare question in the slightest their fervently held orthodoxy of anthropogenic global warming.

I am saddened and appalled by this effort, not only because of the personal hurt it causes me and my family and friends, but also because of the damage it does to the integrity of the scientific process. I am willing to debate the substance of my research and competing views of climate change with anyone, anytime, anywhere. It is a shame that those who disagree with me resolutely decline all public debate and stoop instead to underhanded and unscientific ad hominem tactics.

Let me be clear. I have never been motivated by financial gain to write any scientific paper, nor have I ever hidden grants or any other alleged conflict of interest. I have been a solar and stellar physicist at the Harvard-Smithsonian Center for Astrophysics for a quarter of a century, during which time I have published numerous peer-reviewed, scholarly articles. The fact that my research has been supported in part by donations to the Smithsonian Institution from many sources, including some energy producers, has long been a matter of public record. In submitting my academic writings I have always complied with what I understood to be disclosure practices in my field generally, consistent with the level of disclosure made by many of my Smithsonian colleagues.

If the standards for disclosure are to change, then let them change evenly. If a journal that has peer-reviewed and published my work concludes that additional disclosures are appropriate, I am happy to comply. I would ask only that other authors—on all sides of the debate—are also required to make similar disclosures. And I call on the media outlets that have so quickly repeated my attackers’ accusations to similarly look into the motivations of and disclosures that may or may not have been made by their preferred, IPCC-linked scientists.

I regret deeply that the attacks on me now appear to have spilled over onto other scientists who have dared to question the degree to which human activities might be causing dangerous global warming, a topic that ought rightly be the subject of rigorous open debate, not personal attack. I similarly regret the terrible message this pillorying sends young researchers about the costs of questioning widely accepted “truths.”

Finally, I thank all my many colleagues and friends who have bravely objected to this smear campaign on my behalf and I challenge all parties involved to focus on real scientific issues for the betterment of humanity.

Quellen:

[1] IPCC Climate Change 2001, the sientific basis, Chapter 02, Abschnitt 2.7, S. 155 (hier) sowie IPCC Extremwetterbericht (2012) 

[2] [3] Sachbericht 2013 – Potsdam Institute for Climate Impact, aus dem Internet frei herunterladbar. Bericht von EIKE dazu hier

[4] Der scheidende Vorsitzende des IPCC Rachendra Pachauri sagte am 3. September 2010 in Beantwortung der Frage “Stifling politics out of science, does that make it devoid of its real social purpose?” Pachauri sagte der Times of India, (Hervorhebungen hinzugefügt) Let’s face it, we are an intergovernmental body and our strength and acceptability of what we produce is largely because we are owned by governments. If that was not the case, then we would be like any other scientific body that maybe producing first-rate reports but don’t see the light of the day because they don’t matter in policy-making. Now clearly, if it’s an inter-governmental body and we want governments’ ownership of what we produce, obviously they will give us guidance of what direction to follow, what are the questions they want answered. Unfortunately, people have completely missed the original resolution by which IPCC was set up. It clearly says that our assessment should include realistic response strategies. If that is not an assessment of policies, then what does it represent?




Münchner Stadtwerke mal wieder – Burn, burn, Bürgergeld

Der Chef der Münchner Stadtwerke Florian Bieberbach bereitete Stadtverordnete und Öffentlichkeit vor ein paar Tagen schon einmal auf schlechte Zeiten vor. „Es ist nicht so, dass wir insolvenzgefährdet sind“, so Bieberbach im Münchner Merkur, „aber wir stehen vor einer längerfristigen Verschuldung, mit der wir uns nicht wohlfühlen.“ Derzeit liege die Verschuldung des Unternehmens bei zwei Milliarden Euro. Deshalb, so Bieberbachs Vorschlag, solle Münchens Stadtkasse für eine unbestimmte Zeit auf eine Gewinnabführung der Stadtwerke in Höhe von 100 Millionen Euro jährlich verzichten. Denn das Unternehmen brauche dringend Geld, wie die „Süddeutsche Zeitung“ am 5. März 2015 schreibt, „für Milliardeninvestitionen in erneuerbare Energien“, vor allem in Offshore-Windfelder hoch im Norden.

Bisher hatten die Stadtwerke eher Kleckerbeträge in Ökoenergien gesteckt, beispielsweise 64 Millionen Euro in das spanische Solarthermiekraftwerk Andrasol. (EIKE berichtete darüber hier) Weil die spanische Regierung die Privilegien für Solarstrom dann kappte, mussten die Münchner 2014 die gesamte Investitionssumme abschreiben. Mit klassischer Stromproduktion verdienen kommunalen E-Werke auch kaum noch etwas, weil das erratisch schwankende Überangebot an Grünstrom den Börsenpreis in den Keller drückt.

Da fällt es naturgemäß schwer, überhaupt Kapital aufzubringen, das in neue Windräder fließen soll. Aber andere Stadtwerke zeigen, dass der Kraftakt sehr wohl zu meistern ist: Sie pumpen ihr Geld beziehungsweise das der Bürger trotz schwierigster Marktlage in Windkraft, weil die Anteilseigner – kraft Parteienmehrheit in der Ratsversammlung – dies so wünschen. In Erlangen führte das zur Totalabschreibung der Investition, weil die Winderträge weit unter den Erwartungen blieben. Über die Investition der Stadtwerke Mainz sagte Vorstandschef Detlev Höhne der FAZ:

„Die Anlagen – die … 2005 bis 2010 in Betrieb gegangen sind – bringen kein Ergebnis, bis zum heutigen Tage nicht.“ Schlimmer noch: Es gebe sogar leichte Verluste. Dies gehe allen Anlagen in Rheinland-Pfalz so: „Ich sehe keine einzige, die im Geld ist.“

Selbstverständlich wollen die politischen Mehrheiten an der Energiewende nicht rütteln. Sie sprechen von schlechten Windjahren, ungünstigen Rahmenbedingungen und davon, dass am weiteren Ausbau der Grünenergie nichts vorbeiführt. Wenn es irgendwann nichts mehr hilft, dass Stadtwerke wie München dafür ihre Überweisungen an die kommunale Kasse zusammenstreichen, könnten sie zu Spendenaktionen übergehen: Gerade in der bayerischen Hauptstadt besitzen die Bürger daheim noch das eine oder andere an Gold, das sie garantiert gern für Offshorewind-Plattformen aus Eisen geben.

Dieser Text erschien zuerst auf dem Energie-und Politik-Blog www.alexander-wendt.com




Sind Klimamodellierer Wissenschaftler?

Die Analyse überträgt den Fehler der Klimamodelle durch globale Projektionen der Lufttemperatur, mit einer formalisierten Version des "passive Erwärmung Modell" (PWM) GCM-Nachbildungen, wie hier von mir berichtet. Die Ausbreitung der Fehler durch eine GCM Temperaturprojektion zeigt seine Vorhersage-Zuverlässigkeit.

Interessenten können meine Übersicht (2,9 MB pdf) konsultieren, die ich beim 2013 AGU Herbsttreffen in San Francisco präsentierte. Darin geht es um die sog. Fehlerfortpflanzung. Fehlerfortpflanzung ist ein Standardverfahren, um die Zuverlässigkeit eines experimentellen Ergebnisses, oder einer Modellvorhersage zu beurteilen. Allerdings wurden Klimamodelle noch nie so beurteilt.

Hier folgt ein Beispiel: Die folgende Abbldung zeigt, was passiert, wenn sich der mittlere, aus dem Antrieb durch Wolken resultierende Langwellen-Fehler von ± 4 W/m² in den CMIP5-Klimamodellen fortpflanzt in einem Paar von Community Climate System Model 4 (CCSM4), die die globale Lufttemperatur projizieren.

CCSM4 ist ein CMIP5-Level-Klimamodell von NCAR, mit dem Kevin Trenberth arbeitet, und wurde für den IPCC AR5 2013 verwendet, Judy Curry schrieb hier darüber.

In Feld a zeigen die Punkte die Anomalie Projektionen des CCSM4 der repräsentativen Konzentrationspfade (RCP) 6.0 (grün) und 8,5 (blau)im AR 5. Die Linien sind die PWM-Emulationen der CCSM4 Projektionen unter Verwendung der Standard-RCP Antriebe von Meinshausen. [2] Die CCSM4 RCP Antriebe dürften nicht identisch mit den Meinhausen RCP-Antrieben sein. Die schattierten Bereiche sind die Bandbreite der Projektionen in allen AR5-Modellen (siehe Abbildung TS.15 AR5). Die CCSM4 Projektionen sind im oberen Bereich.

In Feld b sind die Linien die gleichen zwei CCSM4 RCP Projektionen. Aber jetzt sind die schattierten Bereiche die Bereiche der Unsicherheit, die sich ergibt, wenn der langwellige Antriebsfehler durch Wolken von ± 4 W/m² durch die Projektionen in jährlichen Schritten propagiert werden.

Die Unsicherheit ist so groß, weil mit ± 4 W/m² der jährliche Antriebsfehler ± 114 mal größer ist als der Jahresdurchschnitt von 0.035 W/m² durch den Anstieg der Treibhausgasemissionen seit 1979. Typische Fehlerbalken für CMIP5 Klimamodellprojektionen sind ±14°C nach 100 Jahren und ± 18°C nach 150 Jahren.

Es ist damit sofort klar, dass Klimamodelle keine thermische Wirkung der Treibhausgasemissionen berechnen und uns nichts über zukünftige Lufttemperaturen sagen können. Es ist unmöglich, dass Klimamodelle jemals ein anthropogenes Treibhaussignal berechnen können; weder jetzt noch zu irgendeinem Zeitpunkt in der Vergangenheit.

Die Fehlerfortpflanzung durch eine Berechnung ist eine einfache Idee. Sie ist offensichtlich logisch. Und ist von entscheidender Bedeutung. Das wird jedem Studenten von Physik, Chemie und Ingenieurswesen eingehämmert.

Aber das entging dem Überblick jedes Einzelnen der promovierten Klima-Modellierer, die mir begegnet sind, im Gespräch oder in der Begutachtung.

Damit komme ich zum Grund, warum ich hier schreibe. Mein Manuskript wurde viermal abgelehnt; zweimal von zwei hochrangigen Klima Zeitschriften. Ich habe mich mit insgesamt zehn Bewertungen auseinander gesetzt.

Neun der zehn Bewertungen wurden eindeutig durch Klimamodellierer geschrieben, waren einheitlich negativ und verlangten Ablehnungen. Ein Kritiker war eindeutig kein Klima-Modellierer. Dieser eine empfiehlt die Veröffentlichung.

Ich hatte meinen Anteil an wissenschaftlichen Debatten. Ein paar von ihnen nicht ganz liebenswürdig. Meine Forschung (mit Kollegen) hat vier "herrschende Paradigmen" verworfen und so bin ich damit vertraut, wie Wissenschaftler sich verhalten, wenn sie herausgefordert werden. Nichts davon bereitete mich auf die Standards im Spiel in der Klimaforschung vor.

Ich starte mit der Schlussfolgerung und folge mit den entsprechenden Nachweisen: Nie, in all meinen Erfahrungen mit begutachteten Veröffentlichungen, die ich je erlebt habe, traf ich auf so viel Inkompetenz in einem Gutachter. Sehr viel Unfähigkeit ist offenbar einer bestimmten Klasse von Gutachtern gemeinsam

Dem schockierenden Mangel an Kompetenz begegnete ich mit öffentlicher Bloßstellung als ein staatsbürgerliches Gut.

Physikalische Fehleranalyse ist entscheidend für alle Wissenschaften, vor allem der experimentellen Physik. Es ist nicht übertrieben, es zentral zu nennen.

Das Ergebnis Wert ± Fehler erzählt, was einer weiß. Ist der Fehler größer als das der Wert, weiß jemand nichts. Zum Beispiel war Geoff Sherrington eloquent (wortgewandt) über die Gefahren und Verzwicktheit der Versuchsfehler.

Alle Naturwissenschaften befolgen diese Standards. Naturwissenschaftler sind an sie gebunden. Klimamodellierer machen dies nicht und begründen das auch nicht.

• Weder respektieren noch verstehen sie den Unterschied zwischen Genauigkeit und Präzision.

• Sie verstehen nichts von der Bedeutung oder des Verfahrens, Fehlerbereiche durchzurechnen.

• Sie glauben, physische Fehlerbalken bedeuten, dass das Modell selbst zwischen den extremen Unsicherheiten oszilliert. (Ich mache keine Witze.)

• Sie verstehen die Bedeutung physikalischer Fehler nicht.

• Sie verstehen die Wichtigkeit eines eindeutigen Ergebnisses nicht.

Unterm Strich? Klima-Modellierer sind keine Wissenschaftler. Klimamodellierung ist kein Zweig der Naturwissenschaft. Klima-Modellierer sind nicht in der Lage, die physikalische Zuverlässigkeit der eigenen Modelle zu bewerten.

Die folgenden Unglaublichkeiten sind eine wörtliche Gutachter-Niederschrift; kursiv zitiert. Jeder Gedanke wird so geschrieben, wie der Begutachter es im Ernst meinte. Keine Anführungszeichen sind ihres Kontextes beraubt, und es ist auch nichts abgeschnitten zu etwas anderem als es der Begutachter meinte.

Und denken Sie daran, dieses sind Argumente, die gewisse Redakteure von bestimmten hochrangigen Klima-Zeitschriften überzeugend gefunden haben.

1. Genauigkeit und Präzision

Die Unterscheidung zwischen Genauigkeit und Präzision steht im Mittelpunkt der Argumentation in diesem Manuskript und wird in der Einleitung definiert.

Die Genauigkeit des Modells ist die Differenz zwischen seinen Vorhersagen und den entsprechenden Beobachtungen.

Die Präzision des Modells ist die Varianz der Voraussagen, ohne Bezug auf Beobachtungen.

Physikalische Bewertung eines Modells erfordert ein genaues Maßsystem.

Es gibt nichts Grundlegenderes für die Wissenschaft selbst als die kritische Unterscheidung der Genauigkeit von Präzision.

Hier Beispiele was Klimamodellierer über meine Arbeiten geschrieben haben:

"Zu viel dieser Arbeit besteht aus philosophischen Tiraden (z. B. Genauigkeit vs. Präzision) …"

"Der Autor glaubt, dass eine Wahrscheinlichkeitsverteilungsfunktion (pdf) nur Informationen über Präzision liefert und es keine Informationen über die Genauigkeit geben kann. Das ist falsch und wenn das wahr wäre, könnten die Statistiker zurücktreten."

"Der beste Weg, um die Fehler der GCMs zu prüfen ist es, numerische Experimente laufen zu lassen, um die vorhergesagten Auswirkungen verschiedener Parameter zu sammeln…"

"Der Autor behauptet schlicht, dass die Unsicherheiten in den veröffentlichten Schätzungen [dh. Modellgenauigkeit – P] nicht "physikalisch gültig“ sind [dh. nicht Präzise – P] -. Eine Meinung, die nicht allgemein geteilt wird "

Zwar wird obiges wohl nicht allgemein geteilt unter den Klimamodellierern, aber immerhin

Der erste Gutachter verachtet eigentlich den Unterschied zwischen Genauigkeit und Präzision. Und dies von einem vermeintlichen Wissenschaftler.

Der Rest sind alternative Erklärungen, die Modellvarianz, dh, Präzision, = physikalische Genauigkeit.

Der Genauigkeits-Präzisions Unterschied wurde im Manuskript ausgiebig dokumentiert und anhand der einschlägigen Literatur belegt, beispielsweise [3, 4].

Die Gutachter ignorierten diese Literatur. Der letzte Gutachter tat es als bloße Behauptung ab.

Jeder Gutachter der Klimamodelle, der die Genauigkeit-Präzision-Frage ansprach, konnte es genauso nicht begreifen. Ich bin noch keinem begegnet, der es versteht.

2. Kein Verständnis der sich fortpflanzenden Fehler

„Die Behauptung des Autors, dass die veröffentlichten Projektionen keine „Fortpfanzungsfehler enthalten " ist grundlegend falsch. Es ist eindeutig so, dass das Modell-Ensemble strukturelle Fehler haben kann, die die Projektionen verzerren. "

D. h. der Prüfer nimmt an: Modell-Genauigkeit = weiter gereichter Fehler.

"Die wiederholte Aussage, dass keines der vorherigen Papers Fortpflanzungsfehler in GCM Projektionen diskutiert, ist einfach falsch (Rogelj (2013), Murphy (2007), Rowlands (2012))."

Nehmen wir uns die Beispiele der Gutachter der Reihe nach vor:

Rogelj (2013) bezieht sich auf die wirtschaftlichen Kosten der Eingrenzung. Ihre Abbildung 1b umfasst globale Temperaturprojektion und Unsicherheitsbereiche. Die Unsicherheiten, "basieren auf einem 600-köpfigen Ensemble von Temperaturprojektionen für jedes Szenario …" [5]

D. h. der Prüfer nimmt an: Modell-Genauigkeit = fort gepflanzter Fehler.

Murphy (2007) schreibt: "Um die Auswirkungen der Modellfehler zu testen, ist es notwendig, Ensembles zu konstruieren, die plausible alternative Darstellungen der Systemprozesse der Erde testen." [6]

D. h. der Prüfer nimmt an: Modell Genauigkeit = fort gepflanzter Fehler.

Rowlands (2012) schreibt: "Hier präsentieren wir die Ergebnisse eines physikalischen Ensembles mit mehreren tausend Mitgliedern vorübergehend gekoppelter Atmosphäre-Ozean-Zirkulationsmodell-Simulationen“. Und weiter stellen wir fest, dass „physikalische Ensembles einen systematischen Ansatz bieten zur Quantifizierung der Unsicherheit in Modellen des Klimasystems als Reaktion auf äußere Antriebe, wenn auch in einer bestimmten Modellstruktur "[7]

D. h. der Prüfer nimmt an: Modell Genauigkeit = fort gepflanzter Fehler.

In keinem der Beispiele der Gutachter werden fort gepflanzte Fehler überhaupt erwähnt.

Doch nicht nur das, sondern auch, dass nicht eines der Beispiele physikalische Fehler überhaupt diskutiert wird. Es ist alles Modell-Präzision.

Dieser Gutachter weiß offensichtlich nicht, was  ein Fortpflanzungsfehler überhaupt ist, was er bedeutet, oder wie er zu identifizieren ist. Dieser Begutachter weiß offenbar auch nicht, wie man physikalische Fehler als solche erkennt.

Ein anderer Gutachter:

"Beispiele für Fortpflanzung der Unsicherheit: Stainforth, D. et al, 2005:. Die Unsicherheit bei der Vorhersage der Reaktion des Klimas auf die steigende Konzentration von Treibhausgasen. Nature 433, 403-406.

"M. Collins, RE Chandler, PM Cox, JM Huthnance, J. Rougier und DB Stephenson, 2012: Quantifizierung des künftigen Klimawandel. Nature Climate Change, 2, 403-409.

Schauen wir mal nach:

Stainforth (2005) stellt drei Grafiken vor; jede einzelne von ihnen zeigt Fehler als Projektions-Variante. [8]

Hier ist Grafik 1

Ursprüngliche Legende der Abbildung: "Grafik 1: Häufigkeitsverteilungen von T g (Farben zeigen Dichte von Trajektorien pro 0,1 K Intervall) durch die drei Phasen der Simulation. a) Häufigkeitsverteilung der 2017 verschiedene unabhängige Simulationen. b) Häufigkeitsverteilung der 414 Modellvarianten. In B wird T g im Verhältnis zum Wert am Ende der Kalibrierungsphase gezeigt, und wenn den Anfangszustand zeigende Ensemble-Mitglieder vorhanden sind, wurde ihr Mittelwert für jeden Zeitpunkt entnommen. "

Hier ist, was sie über die Unsicherheit sagen: "Wir haben ein großes Ensemble (ein Ensemble von Ensembles) durchgeführt, um die Unsicherheit in einem hypermodernen Modell zu erkunden. Die Unsicherheit in der Modellantwort wird mit einem physikalischen Ensemble untersucht, in dem Modellparameter um alternative Werte gesetzt werden, letztere werden von Experten in der relevanten Parametrierung der Systeme als plausibel betrachtet. "

Da ist es: Unsicherheit wird direkt als Modell Variabilität vertreten (Dichte von Trajektorien; physikalisches Ensemble).

Die übrigen Grafiken in Stainforth (2005) leiten sich von dieser ab. Fortpflanzungsfehler werden nirgends angezeigt und werden nirgends erwähnt.

Vermutung des Begutachters: Modellgenauigkeit = sich fortpflanzender Fehler

Collins (2012) stellt fest, dass Anpassung von Modellparametern, bis die Projektionen sich den Beobachtungen nähern, ausreichen, um zu hoffen, dass ein Modell physikalische Gültigkeit hat. Fehlerfortpflanzung wird nie erwähnt. Collins‘ Abbildung 3 zeigt physikalische Unsicherheit als Modell-Variabilität bzgl. eines Ensemble-Mittelwertes. [9] Hier ist es:

Abbildung 3

Original-Legende: "Grafik 3: Globale Temperaturanomalien; a) Globale mittlere Temperaturanomalien, berechnet mittels eines EBM, getrieben durch historische Veränderungen in gut durchmischten Treibhausgasen und zukünftige Steigerungen nach dem A1B-Szenario aus dem IPCC-Sonderbericht zu Emissionsszenarien.

Die verschiedenen Kurven werden durch Variation der Rückkopplungsparameter (Klimasensitivität) in dem EBM erzeugt. b, Änderungen der globalen Durchschnittstemperatur in 2050 gegenüber globaler Durchschnittstemperatur im Jahr 2000, … Das Histogramm auf der x-Achse stellt eine Schätzung der Erwärmung des zwanzigsten Jahrhunderts dar, die den Treibhausgasen zuzurechnenden sind. Das Histogramm auf der y-Achse zeigt die Beziehung zwischen der Vergangenheit und der Zukunft, um eine Projektion von zukünftigen Änderungen zu erhalten. "

Collins 2012, Teil A: Modell Variabilität selbst; Teil b: Modellvariabilität (Präzision), als physikalische Unsicherheit (Genauigkeit) dargestellt. Fortpflanzungsfehler? Nirgends zu finden.

Also, noch einmal, nicht einer diese von den Begutachtern gebrachten Beispiele von Fortpflanzungsfehlern schließt tatsächlich irgendeinen Fortpflanzungsfehler ein, noch wird ein solcher erwähnt.

Es ist sicher anzunehmen, dass diese Klima-Modellierer überhaupt kein Konzept haben zu Fehlerfortpflanzung. Sie haben anscheinend kein Konzept von physikalischen Fehlern überhaupt.

Jedes Mal, wenn Begutachter einen Fortpflanzungsfehler ansprechen, zeigen sie eine völlige Unkenntnis davon.

3. Fehlerbalken bedeuten Modell Oszillation – wobei Klimamodellierer die Unwissenheit von Neulingen offenbaren.

„Zu sagen, dass dieser Fehler darauf hinweist, dass die Temperaturen als Reaktion auf CO2 enorm abkühlen könnten, zeigt, dass ihr Modell unphysikalisch ist. "

„Diese Analyse würde voraussagen, dass die Modelle zwischen Schneeball und Runaway-Treibhauseffekt wild hin und her schwingen.“

"In der Tat, falls wir über Jahrtausende eine solche Fehlerfortpflanzung finden, wird die Unsicherheit schließlich größer sein als die absolute Temperatur auf der Erde, eine klare Absurdität."

"Ein völlig gleichwertiges Argument [zu den Fehlerbalken] wäre es zu sagen, dass es (genau) einen 2K Bereich von vorindustriellen absoluten Temperaturen in GCMs gibt und deshalb die globale Mitteltemperatur jederzeit um 2K springen kann – das ist eindeutig Unsinn … "

Verstehen Sie das? Diese Klima-Modellierer denken, dass die "±" Fehlerbalken implizieren, dass das Modell selbst schwingt (und fähig ist zu springen) zwischen den Extremen der Fehlerbalken.

Oder das die Balken der propagierten Fehler selbst die physikalische Temperatur anzeigen.

Kein Student im zweiten Jahr der Physik, Chemie oder Technik würde solche ignoranten Fehler machen.

Aber die promovierten Klima-Modellierer machen diese Fehler ausnahmslos. Ein Zuschauer (Klima-Modellierer) tat es mündlich, während Fragen & Antworten nach meinem Seminar zu dieser Analyse.

Das Schlimmste ist, dass sowohl das Manuskript als auch das unterstützende Dokument erklärt, dass Fehlerbalken eine Ignoranz der Bandbreite darstellen. Nicht einer dieser promovierten Rezensenten gab Hinweise darauf, irgendetwas davon gelesen zu haben.

[4. im Original nicht vorhanden]

5. Einzigartiges Ergebnis – ein unter Klimamodellierern unbekanntes Konzept

Verstehen Klimamodellierer die Bedeutung und Wichtigkeit eines einzigartigen Ergebnisses?

Auf der Suche nach dem letzten glazialen Maximum, produzieren die gleichen Modelle einen globalen Wechsel zwischen 4 und 6 Grad kälter als der vorindustrielle Wert. Wären die Schlussfolgerungen dieser Studie richtig, würde diese Spanne (weil sie so viel kleiner als die geschätzten Fehler von +/- 15 ° C sind), fast ein Wunder sein. "

In Wirklichkeit sind Klimamodelle viele Jahrhunderte lange Zeitskalen, die gegen die Paläoklima-Daten getestet werden (siehe die letzten PMIP Vergleichsprüfungen). Sie simulieren recht gut kleine Klimaschwankungen des Holozäns und sogar die Glazial-Interglazial-Übergänge. Doch dies ist mit den behaupteten Ergebnissen völlig unvereinbar.

"Das offensichtlichste Zeichen dafür, dass die in diesem Manuskript vorgestellten Fehlerrahmen und Emulationsrahmen falsch sind ist, dass die verschiedenen GCMs mit bekannten unterschiedlichen Bewölkungsvorgaben (IPCC) sehr ähnliche Ergebnisse produzieren, wenn auch mittels einer Spreizung der Klimasensitivität."

Schauen wir uns an, woher diese Begutachter ein solches Vertrauen bekommen. Hier ist ein Beispiel von Rowlands (2012) dessen, was die Modelle erzeugen. [7]

Original-Legende: ". Grafik 1 | Evolution von Unsicherheiten in rekonstruierten globalen Mitteltemperatur-Projektionen unter SRES A1B im HadCM3L Ensemble" [7]

Die variable schwarze Linie in der Mitte der Gruppe repräsentiert die beobachtete Lufttemperatur. Ich fügte die horizontalen schwarzen Linien mit 1 K und K 3 hinzu sowie die vertikale rote Linie am Jahresende 2055. Ein Teil der roten Linie ist in der ursprünglichen Gestalt, genauso wie der Präzisions-Unsicherheitsbalken.

Diese Abbildung zeigt Tausende von gestörten [perturbed] Physik-Simulationen der globalen Lufttemperaturen. „Gestörte Physik" bedeutet, dass Modellparameter über ihren Bereich der physikalischen Unsicherheit variiert werden. Jedes Glied des Ensembles hat das gleiche Gewicht. Keines davon ist physikalisch korrekter als irgendeins der anderen.

Der physikalische Energie-Zustand des simulierten Klimas variiert systematisch über die Jahre hinweg. Die horizontalen schwarzen Linien zeigen, dass mehrere physikalische Energiezustände die gleiche simulierte 1 K oder 3 K Temperatur-Anomalie herstellen.

Die vertikale rote Linie zum Jahresende 2055 zeigt, dass der gleiche physikalische Energie-Zustand (Jahr 2055 Zustand) mehrere simulierte Lufttemperaturen erzeugt.

Diese wandernden Projektionen stellen keine natürliche Variabilität dar. Sie zeigen, wie Parametergrößen über ihre Unsicherheitsbereiche die Temperatur-Simulationen des HadCM3L Modell selbst variieren.

Die Abbildung belegt vollständig, dass Klimamodelle unfähig sind, eine einzige Lösung für jeden Klima-Energie-Zustand zu produzieren.

Das bedeutet, dass den Beobachtungen ähnliche Simulationen nicht als akkurat bekannt sind, den wahren physikalischen Energie-Zustand des Klimas genau darzustellen. Sie haben zufällige, opportunistisch wunderbare off-setting Fehler.

Das bedeutet wiederum, die Projektionen sind nicht aussagekräftig. Sie sagen uns nichts über mögliche zukünftige Lufttemperaturen.

Es gibt keine Möglichkeit zu wissen, welche der Simulationen wirklich die korrekte zugrunde liegende Physik darstellt. Oder ob überhaupt eine von ihnen das tut. Und selbst wenn zufälligerweise eine von ihnen mit dem zukünftigen Verhalten des Klimas übereinstimmt, gibt es keine Möglichkeit festzustellen und damit zu wissen, dass es kein regelloser Zufall war.

Modelle mit großen Parameterunsicherheiten können keine einzigartige Vorhersage produzieren. Die selbstbewussten Erklärungen der Gutachter weisen nach, dass sie kein Verständnis dafür haben oder warum es wichtig ist.

Nehmen wir nun an, dass Rowlands, et al. die Parameter des HADCM3L Modell so zurecht gebogen haben, dass es die beobachtete Lufttemperatur präzise reproduziert.

Würde es bedeuten, dass HADCM3L plötzlich die Möglichkeit erreicht, eine eindeutige Lösung für den Klima-Energiezustand zu produzieren?

Würde es bedeuten, das HADCM3L plötzlich in der Lage ist, die korrekte zugrunde liegende Physik zu reproduzieren?

Offensichtlich nicht.

Optimierte Parameter verschleiern lediglich die Unsicherheit. Sie verstecken die Unzuverlässigkeit des Modells. Es ist kein Maß für die Genauigkeit, dass getunte Modelle zu ähnlichen Projektionen kommen. Oder das ihre Projektionen nah an Beobachtungen sind. Frisieren der Parameter setzt nur die Off-Sets-Fehler [?] und erzeugt eine falsche und tendenziöse Präzision.

Jede einzelne der jüngsten Holozän- oder Glazial-Ära Temperatur-Nachhersagen ist ebenfalls nicht eindeutig. Keine von ihnen bestätigt die Genauigkeit eines Klimamodells. Keine von ihnen sagt uns irgendetwas über irgendeinen physikalisch realen globalen Klimazustand. Nicht ein einziger der Begutachter der Klima-Modellierer lässt ein Verständnis dieser Grundnorm der Wissenschaft erkennen.

Jeder physikalischer Wissenschaftler würde (sollte) das wissen. Die Klima-Modellierer -Begutachter wissen es durchweg nicht.

6. Eine besonders unerhörtes Beispiel in dem die Selbstgefälligen mit ihren eigenen Waffen geschlagen werden.

Abschließend möchte ich ein letztes Beispiel erzählen. Das Essay ist bereits sehr lang und ein weiteres Beispiel mag des Guten zu viel sein.

Aber ich habe beschlossen, dass es besser ist die Ermüdung des Lesers zu riskieren, als dass etwas unter Klimamodellierern als analytisches Denken durchgeht, und dies nicht öffentlich zu machen. Entschuldigt bitte, wenn es langweilig wird.

Diese Letzte zeigt wirklich das miserable Verständnis der Fehleranalyse insgesamt in den Reihen der Klima-Modellierer. Los geht’s:

Ich werde (wieder) ein einfaches Beispiel dafür geben, warum diese ganze Übung eine Verschwendung von Zeit ist. Nehmen Sie ein einfaches Energiebilanzmodell, Solar in, Langwelle raus, einschichtige Atmosphäre, Albedo und Treibhauseffekt. dh sigma Ts ^ 4 = S (1-a) / (1 -lambda / 2), dabei ist Lambda die atmosphärische Emissivität, a die Albedo (0,7), S der einfallende Sonnenfluss (340 W / m ^ 2), sigma ist der SB Koeffizienten und Ts die Oberflächentemperatur (288K).

Die Empfindlichkeit des Modells zu einer Zunahme des Lambda von 0,02 (gibt 4 W / m2 Antrieb) beträgt 1,19 ° C (keine Rückwirkungen auf Lambda oder a angenommen). Die Empfindlichkeit eines fehlerhaften Modells mit einem Fehler in der Albedo von 0,012 (gibt 4 W / m ^ 2 SW TOA Flussfehler) zu exakt dem gleichen Antrieb gibt 1,18 ° C.

Dies ist der Unterschied, dass ein systematischer Fehler die Empfindlichkeit um zwei Größenordnungen kleiner macht, als die Wirkung der Störung. Das der Autor den Antwortfehler auf die mittlere Abweichung auch in einem solchen einfachen Modell gleich setzt, ist um Größenordnungen falsch. Es ist genau das gleiche mit dem GCM Emulator“.

Die „Differenz", von der der Begutachter spricht, beträgt 1,19 C – 1,18 C = 0,01 C. Der Begutachter setzt voraus, dass diese 0,01 C die gesamte Unsicherheit ist, die das Modell aufgrund eines 4 W/m2 Offset-Fehlers in Albedo oder Emission erzeugt.

Aber so ist es nicht.

Der erste Fehler des Begutachters: Wenn 1,19C oder 1,18C durch einen W/m2 Offset-Antriebsfehler produziert werden, dann sind die 1,19C oder 1,18C Offset Temperaturfehler

Zweiter Fehler: der Begutachter kennt die Differenz zwischen einem Offset Fehler (Statistik) und der Temperatur (eine thermodynamische Größe) nicht. Des Begutachters „Sensitivität“ ist tatsächlich „Fehler“.

Dritter Fehler: Der Begutachter setzt eine 4 W/m2 energetische Störung mit einer ± 4 W / m2 physikalischen Fehlerstatistik gleich.

Dieser Fehler zeigt übrigens erneut, dass der Begutachter nicht den Unterschied kennt zwischen einer physikalischen Größe und eine Fehlerstatistik.

Vierter Fehler: Der Begutachter vergleicht die einstufige "Empfindlichkeits"-Berechnung mit einem mehrstufigen Fortpflanzungsfehler.

Fünfter Fehler: Dem Begutachter ist die Allgemeingültigkeit offenbar unbekannt, dass physikalische Unbestimmtheiten Ausdruck eines Unsicherheitsbereiches sind; das heißt, "±" über einen gewissen Wert. Unsicherheiten sind nie konstante Offsets.

Hilfssatz zu fünf: der Begutachter weiß anscheinend auch nicht, dass der richtige Weg die Unsicherheiten auszudrücken ± Lambda oder ± Albedo ist.

Aber dann, ungünstig für den Gutachter, wenn die Unsicherheiten korrekt benannt sind, ist die vorgeschriebene Unsicherheit ± 4 W / m2 im Antrieb. Die Unsicherheit ist dann offensichtlich eine Fehlerstatistik und nicht eine energetische Verballhornung.

Für diejenigen, die von diesem Unterschied verwirrt sind: keine energetische Störung kann gleichzeitig positiv und negativ sein. Erde an Modellierer, over. . .

Das Beispiel des Begutachters wird mit der richtigen ± statistischen Schreibweise so ausgedrückt, 1,19 C und 1,18 C werden dann ± 1,19 C und ± 1,18 ° C

Und das sind die Unsicherheiten für eine einstufige Berechnung. Sie sind in der gleichen Liga wie die einstufigen Unsicherheiten, die im Manuskript vorgestellt sind.

Sobald des Rezensenten Antriebe der Unsicherheiten in eine mehrstufigen lineare Extrapolation tritt, d. h. eine GCM-Projektion, würden die ± 1,19 C und ± 1,18 C-Unsicherheiten bei jedem Schritt erscheinen und müssten dann durch die einzelnen Schritte als Summe der Wurzel ihrer Quadrate ("Root Sum Squares") ausgewiesen werden. [3, 10]

Nach 100 Schritten (einer hundertjährigen Projektion) mit ± 1,18 C pro Schritt wird der Fehler zu ± 11,8 C.

Also, richtig gemacht, validiert des Gutachters eigene Analyse das Manuskript so, dass der Gutachter es als "Zeitverschwendung“ ansieht. Guter Job.

Der Gutachter

● Kennt nicht die Bedeutung der physikalischen Unsicherheit

● Unterscheidet nicht zwischen Modellantwort (Empfindlichkeit) und Modellfehler. Sein Fehler ist, nicht zu wissen, um zwischen einer energetischen Störung und einer physikalischen Fehlerstatistik zu unterscheiden.

● er weiß nicht, wie man eine physikalische Unsicherheit ausdrückt…

● …und kennt nicht den Unterschied zwischen einem einstufigen Fehler und einem Fortpflanzungsfehler.

Daher noch mal, Klimamodellierer:

● Weder respektieren sie, noch verstehen sie, den Unterschied zwischen Genauigkeit und Präzision.

● Sie sind völlig unwissend über Fortpflanzungsfehler

● Sie denken, die ± Balken der Fortpflanzungsfehler bedeuten, das Modell selbst schwingt.

● Sie haben kein Verständnis für physikalische Fehler.

● Sie haben kein Verständnis für die Wichtigkeit oder die Bedeutung eines eindeutigen Ergebnisses.

Keinem aktiven physikalischen Wissenschaftler würde diese Menge an einzelnen Fehler unterlaufen, geschweige denn alle. Aber Klimamodellierer machen diese Fehler.

Und diese lange Essay erschöpft nicht die Vielzahl der wirklich grundlegende Fehler im wissenschaftlichen Denken dieser Begutachter.

Anscheinend ist solches Denken sehr überzeugend für bestimmte Herausgeber von Journalen.

Angesichts all dessen kann man verstehen, warum die Klimawissenschaft in diesen traurigen Zustand gesunken ist. Ohne Einschränkung durch die beobachtbare Physik ist sie überall auf der Suche nach Bedeutungen, wo immer man hin will, und die Gewährung von Nachsicht in der Wissenschaft auf die durchgeknallte akademische Theoriebildung die in den Geisteswissenschaften so weit verbreitet ist. [11]

Wenn bloße interne Genauigkeit und verschwommene Axiomatik ein Feld regieren, erhalten Begriffe wie „im Einklang mit, impliziert, müsste, könnte, möglich, wahrscheinlich“, definitives Gewicht. Alle sind frei verfügbar und auf ziemlich alles, was einer an Fantasie hat, anwendbar. Konstruieren Sie einfach Ihre Argumentation, um übereinstimmend mit Konsens zu sein. Es ist bekannt, dass das regelmäßig in Klimastudien geschieht, mit spezieller Erwähnung hier, hier, und hier.

Man erkennt eine Erklärung dafür, warum politische Sentimentalisten wie Naomi Oreskes und Naomi Klein den Klima-Alarm so gemütlich finden. Es ist so sehr opportun für Polemik und geistlose Gerechtigkeit. (Was ist überhaupt mit Menschen namens Naomi? Gibt es hartgesottene skeptische Naomis draußen? Posten Sie hier. Lassen Sie es uns wissen.)

In ihrer Ablehnung der Genauigkeit und Fixierung auf Präzision haben Klima-Modellierer ihr Gebiet vor der rücksichtslosen Gleichgültigkeit der physischen Beweise versiegelt und dadurch das kritische Urteil der Wissenschaft kurzgeschlossen.

Klimamodellierung hat die Wissenschaft verlassen. Es wurde freie Kunst, ausgedrückt in Mathematik. Nennen Sie es eine schleifenförmige Gleichung.

Die unausweichliche Schlussfolgerung ist, dass Klima-Modellierer keine Wissenschaftler sind. Sie denken nicht wie Wissenschaftler, und sie machen keine Wissenschaft. Sie haben keine Ahnung, wie man die physikalische Gültigkeit ihrer eigenen Modelle zu bewerten hat.

Sie sollten nirgends in der Nähe wichtiger Diskussionen oder Entscheidungen zur wissenschaftsbasierten sozialen oder zivilen Politik sein.

Erschienen auf WUWT am 24. Februar, 2015

References:

1. Lauer, A. and K. Hamilton, Simulating Clouds with Global Climate Models: A Comparison of CMIP5 Results with CMIP3 and Satellite Data. J. Climate, 2013. 26(11): p. 3823-3845.

2. Meinshausen, M., et al., The RCP greenhouse gas concentrations and their extensions from 1765 to 2300. Climatic Change, 2011. 109(1-2): p. 213-241.

The PWM coefficients for the CCSM4 emulations were: RCP 6.0 fCO = 0.644, a = 22.76 C; RCP 8.5, fCO = 0.651, a = 23.10 C.

3. JCGM, Evaluation of measurement data — Guide to the expression of uncertainty in measurement. 100:2008, Bureau International des Poids et Mesures: Sevres, France.

4. Roy, C.J. and W.L. Oberkampf, A comprehensive framework for verification, validation, and uncertainty quantification in scientific computing. Comput. Methods Appl. Mech. Engineer., 2011. 200(25-28): p. 2131-2144.

5. Rogelj, J., et al., Probabilistic cost estimates for climate change mitigation. Nature, 2013. 493(7430): p. 79-83.

6. Murphy, J.M., et al., A methodology for probabilistic predictions of regional climate change from perturbed physics ensembles. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 2007. 365(1857): p. 1993-2028.

7. Rowlands, D.J., et al., Broad range of 2050 warming from an observationally constrained large climate model ensemble. Nature Geosci, 2012. 5(4): p. 256-260.

8. Stainforth, D.A., et al., Uncertainty in predictions of the climate response to rising levels of greenhouse gases. Nature, 2005. 433(7024): p. 403-406.

9. Collins, M., et al., Quantifying future climate change. Nature Clim. Change, 2012. 2(6): p. 403-409.

10. Bevington, P.R. and D.K. Robinson, Data Reduction and Error Analysis for the Physical Sciences. 3rd ed. 2003, Boston: McGraw-Hill. 320.

11. Gross, P.R. and N. Levitt, Higher Superstition: The Academic Left and its Quarrels with Science. 1994, Baltimore, MD: Johns Hopkins University. May be the most intellectually enjoyable book, ever.

Link: http://wattsupwiththat.com/2015/02/24/are-climate-modelers-scientists/

Übersetzt für das EIKE von Andreas Demmig und Chris Frey

Über den Autor 

Pat Frank ist promovierter Chemiker und Spezialist in der Spektralanalyse. Er ist Verfasser mehrerer grundlegender paper über Fehlerfortpflanzung in meteorologischen Messsystemen z.B. dem hier. EIKE hat mehrfach über seine Erfahrungen berichtet. z.B. hier




2014 war das schlechteste Windstromsjahr seit 10 Jahren – Bayern ist mit Baden-Würtemberg „Bunkerführer“

Über diesen „Erfolg“ haben die WKA-Lobby-Vertreter nicht berichtet. Den uns vorliegenden Jahresganglinien ist zu entnehmen, dass  die Zuverlässigkeit aller WKA-Monster zusammen, wie auch in den letzten Jahren nahe Null war. Das heißt : Hinter jeder WKA muss die gleiche Leistung aus konventionellen Kraftwerken yerfügbar sein.

Dass im Jahr 2014 insgesamt etwa 1750 WKA mit einer  Leistung von 4750 MW errichtet wurden, wurde als großer Erfolg in den Medien gefeiert. Im Jahr 2015 wird noch einmal die gleiche WKA-Leistung zugebaut werden soll.

Tabelle 1 Offizielle Windstatistik (als besser lesbares pdf hier oder im Anhang)

Dabei ist zu beachten, dass die Bundesregierung festgelegt hat, dass in Zukunft die jährliche WKA-Zubau-Leistung auf 2.500 MW begrenzt werden soll.

In Bayern mussten wir leider erfahren, dass sich die 10 H-Regelung als regelrechte „ WKA – Genehmigungs-Beschleunigungs-Regel“ entwickelt hat.  Dies können Sie der eingefügten : „WAK-Statistik 2014-Tabelle WindGouard“ (Siehe auch pdf Anhang) entnehmen. Bemerkenswert ist, dass im Jahr 2014 in Bayern etwa 20 mal so viel WKA  mit einer etwa 22 fachen Leistung errichtet worden sind, wie in Baden-Württemberg.

Dabei ist zu beachten, dass die durchschnittliche Windhöffigkeit in beiden Bundesländern etwa gleich niedrig ist. Die Zahl der Volllaststunden sind mit ca. 1.100 bis 1.300 VLS/a ist etwa gleich niedrig in beiden Ländern. 

WKA Volllaststunden in Baden Würtemberg

 

Jahr 

VLh BRD 

in % von 

VLh Bad.Wü. 

in % von 

8760 h

 

2004 

1534 

17,5 

1104 

12,6 

2005 

1482 

16,9 

1150 

13,1 

2006 

1489 

17,0 

1146 

13,1 

2007 

1785 

20,4 

1350 

15,4 

2008 

1690 

19,3 

1357 

15,4 

2009 

1466 

16,7 

1158 

13,3 

2010 

1393 

15,9 

1051 

12,0 

2011 

1536 

17,5 

920 

10,5 

Mittel 

1547 

18 

1155 

13 

Tabelle 1: WKA – Volllaststunden in Deutschland und in Baden-Württemberg: Quelle: Deutsches Windenergie-Institut in Wilhelmshaven (DEWI), Quelle 2010 BRD: bdew (Bundesverband d. Energie- u. Wasserwirtschhaft e.V.; Quelle 2010 u. 2011 Ba-Wü.: www.enbw-transportnetze.de Erstellt von Dr. Christoph Leinß chrileilev@googlemail.com 

Die Betriebsdaten der WKA in Bayern lagen in der gleichen Größenordnung wie in B-W  

Wir wissen, dass für einen wirtschaftlichen Betrieb nach EEG etwa 2.000 bis 2.200 VLS/a notwendig sind. Herr Dr. Leinß berichtete in seiner E-mail vom 17.11.2013 folgendes, Zitat :

„Die EnBW verlangt zumindest in Oberschwaben sogar 2.300 VLh für einen wirtschaftlichen Betrieb. Unser Umweltminister Untersteller sprach in Bad Wurzach von 6,0 m/s, die für einen wirtschaftlichen Betrieb notwendig sind“

Anmerkung : Die Gründe für den bisherigen Erfolg unserer Freunde sind bekannt. Ich habe sie in dem eingefügten Papier „Vergleich Wm Bay-BW 7 Seiten“ beschrieben. (s. pdf Anlage)

Wir hoffen und wünschen, dass unsere Freunde in Baden-Württemberg weiterhin dazu beitragen, dass dort möglichst wenig WKA errichtet werden können.

Die Frage, warum in Bayern nur wenige WKA – Betreiber mit den in den letzten Jahren errichteten WKA  Insolvenz anmelden mussten, habe ich versucht in dem eingefügten Blatt :

Warum WKA erst nach 5-7 Jahren pleite-Richter-Folie“ zu erklären.

Related Files




Kultureller ,Tipping Point‘ ist erreicht: Hollywood hat angefangen, sich über die globale Erwärmung lustig zu machen

Politisch erreichte die globale Erwärmung ihren Höhepunkt bei COP 15 in Kopenhagen im Dezember 2009 [Al-Gore-Effekt: Genau zu jener Zeit lag ganz Mitteleuropa im Zustrom eisiger Festlandsluft von Osten her. Es war einer der kältesten Dezember der letzten Jahre. Mal sehen, was in diesem Dezember 2015 los ist. Anm. d. Übers.] Auf dieser Klimakonferenz wurden die Staats- und Regierungschefs der Länder erwartet, die den Hauptanteil am globalen BIP erwirtschaften. Inzwischen machen sich diese nicht mehr die Mühe der Teilnahme – es tauchen hauptsächlich nur noch irgendwelche Erfüllungsgehilfen auf. Aber das Moment der globalen Erwärmung führt immer noch zu destruktiven und sinnlosen Gesetzen und Vorschriften im englisch sprechenden Teil des Planeten. [Na ja, bei uns aber auch. Anm. d. Übers.]

Die kommerzielle Geschichtenerzählung in Gestalt von Filmen hat das Narrativ der globalen Erwärmung neu belebt. Als ein Kunstgriff war die globale Erwärmung selbst nicht ängstigend genug, würde doch die globale Erwärmung lediglich zu wärmerem Regen führen. Also war für die Filmwelt die globale Erwärmung irgendwie die Ursache für eine intensive Abkühlung. Das war der Kunstgriff beim Film The Day After Tomorrow, in dem sich die Protagonisten in einem zu Eis erstarrten New York mit Wölfen herumschlagen.

Ein gerade neu erschienener Film mit dem Titel Kingsmen: The Secret Service (siehe Bild oben rechts) zeigt, dass der kulturelle Tipping Point jetzt erreicht ist. Es ist jetzt sicher und kommerziell profitabel für die Filmemacher, sich über den Glauben an die globale Erwärmung lustig zu machen. Richard Valentine glaubt, dass diejenigen Menschen, die die globale Erwärmung verursachen, ein Virus sind, der den Planeten tötet. Um die globale Erwärmung zu stoppen, plant er, einen großen Teil der Menschheit zu töten. Seine teuflischen Pläne, welche ziemlich stark den Träumen der grünen Bewegung ähneln, wird vereitelt von Menschen, die sich gut kleiden und tadellose Manieren haben.

Anstatt gegen Wahrheit und Schönheit zu arbeiten, steht Hollywood jetzt auf der Seite der wirklich Rechtschaffenen. Der nächste Schritt wird Folgender sein: Um die Leichtgläubigkeit, die Geisteskrankheit oder die mentale Instabilität eines Charakters zu zeigen, wird erwähnt, dass er einst an die globale Erwärmung geglaubt hat. Natürlich hat Hollywood keinerlei moralische Skrupel, und das Sich-Lustig-Machen über die globale Erwärmung ist lediglich eine Geschäftsentscheidung. Aber sich über etwas lustig machen ist der erste Schritt zur Zerstörung dieses Etwas‘, und dafür sollten wir sehr dankbar sein.

David Archibald is a visiting fellow at the Institute of World Politics in Washington.

His most recent book is Twilight of Abundance (Regnery, 2014).

Link: http://wattsupwiththat.com/2015/02/28/cultural-tipping-point-reached-hollywood-has-started-mocking-global-warming/

Übersetzt von Chris Frey EIKE