Offiziell bestätigt: rbb – Kontraste darf weiter Fakenews verbreiten

Die hiesigen Medien stehen schon lange unter dem begründeten Verdacht, dass sie ihre Leser, Hörer und/oder Zuschauer häufig weder objektiv, noch neutral, noch umfassend, oder auch nur wahrheitsgemäß über bestimmte Themen informieren. Dazu gehören u.a. alles was den menschgemachten Klimawandel betrifft, oder die von allen in den Himmel gelobte Energiewende . Mit ihren Unterthemen E-mobilität und oder in jüngster Zeit dem „Dieselskandal“. Von anderen wichtigen Themen wie der ungebremsten und ungesteuerten Zuwanderung aus muslimischen Ländern gar nicht erst zu reden. Besonders hervor tun sich dabei die Öffentlich Rechtlichen Sender, seien sie bei der ARD organisiert oder dem ZDF. Darin bildet auch der Rundfunk-Berlin-Brandenburg (rbb) keine Ausnahme. EIKE berichtete schon des Öfteren darüber.

Eine neue Qualität erreichte jetzt aber der rbb – über seine Magazinsendung Kontraste. Auf der Webseite der Redaktion liest man so erbauliche Vorhaben (Hervorhebungen von mir) wie

„KONTRASTE – das kritische Magazin aus Berlin. KONTRASTE bringt Gegensätze auf den Punkt. Keine Politikerphrasen, kein Infotainment: Das Magazin geht den Dingen auf den Grund, neugierig und mit sorgfältiger Recherche. KONTRASTE deckt Hintergründe auf, erklärt Zusammenhänge und bezieht Stellung. KONTRASTE steht für seriöse Information des öffentlich-rechtlichen Rundfunks: investigativ, analytisch, kritisch.“

Na dann, schauen wir mal, dann sehen wir schon, pflegte einst der Kaiser Franz Beckenbauer zu sagen. Gucken wir uns also eine der investigativ, analytisch, kritisch erarbeiteten Informationen an, die mit sorgfältiger Recherche erarbeitet wurden.

Worum geht es?

Es geht um den Beitrag in der Sendung vom 1.6.17 mit dem Teilinhalt „Der US-Präsident als Verschwörungstheoretiker“.

Video nicht mehr verfügbarVideo Ausschnitt mit Kommentaren der Kontraste-Sendung vom 1.6.17 über Trump und seine Klimapläne, das Original samt Text finden Sie hier

Wir berichteten darüber hier.

Dieser Beitrag, vom Autorenteam Adrian Bartocha, Chris Humbs, Markus Pohl und Axel Svehla, ist nicht nur schlechter Journalismus, weil er von Spekulationen, Un- wie Halbwahrheiten, angereichert mit irreführender Rhetorik, nur so strotzt, (man staunt immer wieder was clevere Leute in knapp 4 Minuten alles so behaupten können) sondern enthält auch tlw. schiere Propaganda. Darüber hatte ich ja nun schon ausführlich berichtet. Der geneigte Leser möge das bei Interesse hier nachlesen. Weil, das ist nicht Thema dieses Beitrages. Thema ist die Geschichte, die sich danach abspielte. Basierend auf meinem Mailwechsel zunächst mit Chef vom Dienst Herr Althammer und dann der Intendanz des rbb in Gestalt des stellvertretenden Intendanten Herrn Hagen Brandstäter. (voller Text siehe Kontraste Mailwechsel Althammer rbb-EIKE Limburg)

Zum besseren Verständnis dessen, was sich inzwischen abspielte, muss ich etwas ausholen.

Aufgrund meiner wohlbegründeten Beschwerde beim Chef vom Dienst der Kontraste Sendung, Herrn Althammer, über den Inhalt, sowie meine Bitte, diese misslungene – nicht einmal als Satire gekennzeichnete- Stück und nur als Propaganda einzustufende Arbeit aus der ARD Mediathek zu entfernen, und zusätzlich eine Korrektursendung auszustrahlen, erhielt ich von Herrn Althammer die abschließende Verweigerung meiner Bitte mit der umwerfenden Begründung:

Althammer rbb: Unsere Grundposition ist und bleibt, dass die Erderwärmung seit dem Industriezeitalter auch durch menschliche Faktoren beeinflusst wird. Diesen Einfluss zu begrenzen sehen wir als politische Aufgabe in Verantwortung gegenüber den zukünftigen Generationen an.

Zunächst war ich über dieses unverblümte Eingeständnis des unbedingten Willens des rbb seine vorgefasste Meinung, den Zuschauern als Faktum unterzujubeln, überrascht. Ich dachte: Oh Gott, was ist passiert, dass diesem Mann so die Feder ausgerutscht ist? Wir wissen zwar schon seit langem, dass viele Mitarbeiter in den Medien so ticken, ihren journalistischen Beruf als Berufung so verstehen, den anderen ungeniert ihre Meinung, wenn´s sein muss, auch mit dem medialen Holzhammer einzuprügeln. Gerade und immer wieder bei den Öffentlich Rechtlichen Sendern. Aber dann, dieses frische Eingeständnis! Dermaßen ehrlich! Seht her, ich stehe dazu, ich kann nicht anders, denn das ist unsere Aufgabe. Ob Dir das passt oder nicht. Wir wollen nicht anders!

Das ist zwar weit ab von der eisernen Richtschnur eines Hans-Joachim Friedrich bzw. seine englischen Vorbildes – dessen Name mir gerade nicht einfällt- für gutes journalistisches Selbstverständnis, das da lautet: „ein guter Journalist macht sich mit keiner Sache gemein; auch nicht mit einer guten!“ Aber was soll´s!

Diese plötzlich Ehrlichkeit; vielleicht war es ja auch nur unbekümmerte Frechheit, das überraschte dann doch!

Trotzdem war die Sache damit ja nicht vom Tisch, sondern nur das Motiv für diese Fakenews-Berichterstattung benannt. Und da ich vermutete, dass die Intendanz bestimmt nicht über jeden Ausrutscher informiert ist, dies aber auch für sie ein solcher sein könnte, deshalb interessiert sein müsse, die anfangs benannten journalistischen Grundsätze, sowohl den allgemeinen von H.J. Friedrich, als auch die besonderen der Kontraste-Reaktion (s.o.) und vielleicht eine wenig auch die, die das Rundfunkgesetz vorschreibt, einzuhalten, schrieb ich am 4.7.17 eine Beschwerde an die Intendantin Patrizia Schlesinger, von Beruf und Ausbildung her ebenfalls Journalistin. Vielleicht hat sie den früh verstorbenen Hans-Joachim Friedrich ja noch gekannt, dachte ich.

Nach gut vier Wochen, also gerade noch in der zulässigen Frist, in der die Intendanz auf formale Beschwerden reagieren muss, erhielt ich Antwort und die haute mich fast vom Hocker. (voller Text siehe Programmbeschwerde_Limburg_Kontraste). Sie kam vom stellvertretenden Intendanten, einem Herrn Brandstätten.

Der versuchte zunächst mir und evtl. auch seinem Mitarbeiter Althammer, das Wort im Munde zu verdrehen, uns beiden, im wahrsten Sinne des Wortes, ein x für ein u vorzumachen. Er schrieb nämlich ziemlich am Anfang

„Gestatten Sie mir zunächst, ein sprachliches Missverständnis aufzulö­sen: In seiner Antwort meint Herr Althammer nicht, dass der rbb einen politischen Auftrag habe, sondern es Auftrag der Politik ist, sich mit den Folgen des Klimawandels auseinanderzusetzen.“

Da versucht doch einer tatsächlich dem, geschliffenes Deutsch schreibenden und sich auch dessen voll bewussten, Herrn Althammer – oder auch mir- diese ehrliche und sowohl sprachlich wie inhaltlich klare Meinung als „sprachliches Missverständnis“ anzudrehen.

Welche Chuzpe oder Unverschämtheit gehört dazu? Was bildet sich dieser Mann ein, von wem und mit wem er da spricht? Schließlich leben wir schon länger hier und sind ziemlich firm im Deutschen, unserer Muttersprache. Eine solche Verdrehung einem Zuschauer auch zu schreiben, das muss man sich erst mal trauen.

Aber es kommt noch besser! Nach weiteren längeren Einlassungen über das journalistische Selbstverständnis und Aufgaben des rbb, in welchem er sich an dem von mir ebenfalls genannten Zitat (wenn auch häufig von ihm nicht eingehalten) des Kai Gniffke, seines Zeichens (immer noch) Chefredakteur der Tagesschau  löblich und vor allem wohlklingend abarbeitet, kommt der Hammer.

Denn Herr Brandstäter traut sich auch tatsächlich zu formulieren:

Der von Ihnen monierte Beitrag erfüllt unsere Anforderungen an journalistische Sorgfalt und Qualität im rbb. Ihre Einschätzung, es handle sich um eine Mischung aus Falschinformationen und Propa­ganda, kann ich nicht teilen. Deshalb gibt es auch keinen Grund für den rbb, den Beitrag aus der Mediathek zu entfernen und gleichzeitig einen Korrekturbeitrag zu senden.

Da ist er also. Ohne jede Begründung, nicht einmal in einem Halbsatz, wischt er meine Belege vom Tisch. So also schätzt ein stv. Intendant eines Öffentlich-Rechtlichen Rundfunk- und Fernsehsender, die mit offensichtlichen Fakenews, Halbwahrheiten und Irreführungen allg. nur als Propaganda zu verstehendes Machwerk ein. Der„von Ihnen monierte Beitrag erfüllt unsere Anforderungen an journalistische Sorgfalt und Qualität im rbb.“ Damit hatte der Mitarbeiter Althammer doch recht. Wir ticken so! Wir handeln so!

Video nicht mehr verfügbarDaher bekommt die jüngste Aussage der Tagesthemen Moderatorin Carmen Miosga eine ganz besondere herbe Duftnote:

Journalismus kennt keine alternativen Fakten.

„Und ein Blinder keine Farben!“ möchte man ergänzen. Nur die können nichts dafür. Diese Journalisten schon.

Für eine Realsatire ist das alles leider nicht lustig genug!

Deswegen reichte ich erneut Beschwerde beim rbb Rundfunkrat ein. Ob´s was nützt?

 

 




EXKLUSIV: Forscher behauptet, Beweise dafür zu haben, dass eines der erfolgreichsten EPA-Gesetze bzgl. sauberer Luft auf der Grundlage künstlich fabrizierter Daten beruht

Der Toxikologe Albert Donnay sagt, er habe Beweise zusammengetragen dafür, dass eine im Jahre 1989 von der EPA in Auftrag gegebene Studie über die Auswirkungen von Kohlenmonoxid auf die Gesundheit auf falschen Daten beruht. Falls das stimmt, wären 25 Jahre des Erlasses von Vorschriften und Milliarden Dollar für Auto-Katalysatoren in Frage gestellt.

„Sie behaupteten, eine Auswirkung gefunden zu haben, obwohl es gar keine gab“, sagte Donnay. „Sie haben sogar die Verfahren fabriziert, mit denen sie zu ihren Ergebnissen gekommen sind. Sie haben sich all das erdacht, um der EPA das zu geben, was sie haben wollte und in Auftrag gegeben hat. Die dargestellten Ergebnisse können nicht von Menschen stammen“.

Weniger Hervorhebung der Ausrüstung. Weniger Stress für Sie. Siehe die Nebenleistungen für variable frequency drives [?]

Die EPA stufte die Studie als „primär zu berücksichtigen“ ein. Zusammengestellt wurde sie vom Health Effects Institute (HEI), um eine Vorgängerstudie aus dem Jahr 1981 zu ersetzen, welche auf fabrizierten Daten beruhte. Im Jahre 2011 hat die EPA das getan, was sie seit 1971 getan hat, nämlich den Standard von 9 ppm gemessen während eines 8-stündigen Zeitraumes und 35 ppm während 1 Stunde unverändert gelassen.

Und warum auch nicht? Die EPA war über die Jahre sehr erfolgreich bei der Reduktion von Kohlenmonoxid, was es an die zweite Stelle der am meisten reduzierten Verschmutzer stellte. Dies geht aus Daten der Agentur hervor. „Kohlenmonoxid ist ein farb- und geruchloses Gas, das bei Verbrennungsprozessen freigesetzt wird“. Bei einem extrem hohen Niveau kann es ernste Gesundheitsprobleme und sogar Todesfälle mit sich bringen. Bei Unfällen mit einer Kohlenmonoxid-Vergiftung kommen pro Jahr 400 bis 500 Menschen ums Leben, wie Daten der Regierung zeigen.

Hier folgt ein Poster der Forschung, welches Donnay auf dem Treffen der Gesellschaft für Toxikologie 2015 gezeigt hat:

 

Nach Albert Donnay

[Der Link zu dem Poster steht unten {research poster}. Wenn man in dem PDF auf vergrößern klickt, kann man alles deutlich lesen. Anm. d. Übers.]

Dr. Aronow

Aber Donnay sagte, dass seinen Forschungen zufolge die HEI-Studie voller „wissenschaftlichem Betrug“ steckt, welcher von der EPA und dem HEI näher untersucht werden sollte. „Falls man jemanden beauftragt, einen Betrug zu replizieren, muss man betrügen, um das zu tun“, sagte Donnay bei der Diskussion der Ergebnisse seiner Re-Analyse.

Im Jahre 1983 erkannte die EPA, dass ihr Kohlenmonoxid-Standard „auf fragwürdigen, vielleicht gefälschten Forschungen“ beruhte, durchgeführt von Dr. Wilbert Aronow in den siebziger Jahren. Die New York Times berichtete seinerzeit darüber. Die Federal Drug Administration FDA fand heraus, dass Nachweise der Wirkung von Medikamenten bei Patienten am Veterans Affairs Hospital bei Los Angeles gefälscht worden waren.

Die Agentur handelte rasch und ersetzte Aronows betrügerische Daten und finanzierte eine massive human exposure study mit dem HEI – eine Forschungsgruppe, ins Leben gerufen von der EPA und der Autoindustrie.

Das HEI stellte eine Studie zusammen, um die Auswirkungen von Kohlenmonoxid auf Männer mit Kranzgefäß-Krankheiten zu untersuchen und um festzustellen, wie lange es dauert, bis sie Angina bekamen, nachdem sie dem Gas ausgesetzt waren. Das HEI heuerte drei Teams von verschiedenen Universitäten an, um bei der Forschung zu helfen.

Die HEI-Studie wurde im Jahre 1989 veröffentlicht und kostete 2,5 Millionen Dollar. Auch das New England Journal of Medicine veröffentlichte die Studie 1989, das Medizinjournal Environmental Health Perspectives veröffentlichte sie zwei Jahre später.

Environmental Health Perspectives lehnte es ab, Donnays Anfrage weiter zu bearbeiten. Weder das HEI noch das New England Journal of Medicine antworteten auf die Nachfrage der Daily Caller News Foundation DCNF.

Die HEI-Forscher fanden wenig überraschend, dass „niedrige Niveaus von Kohlenmonoxid Angina-Erkrankungen bei Personen mit Kranzgefäß-Krankheiten verschlimmerten“.

Die EPA rühmte die HEI-Studie und stützte sich darauf, als sie 1994 ihren Kohlenmonoxid-Standard bekannt gab. Die Agentur räumte der HEI-Studie „primäre Berücksichtigung“ ein bei ihrer Überarbeitung der Vorschriften bzgl. Kohlenmonoxid im Jahre 2011.

Donnay trat einer juristischen Klage seitens Umweltaktivisten bei, um die Entscheidung der EPA bzgl. Kohlenmonoxid anzufechten. Die Gerichte urteilten gegen die Aktivisten, so dass sich Donnay im Jahre 2014 entschloss, die Eckpunkte-Studie nachzuvollziehen, auf die sich die EPA während all der Jahre stützte. „Ich brannte darauf, jene Vorschrift anzufechten!“, sagte er.

Extensive Beweise für Daten-Fabrikation

Zunächst benötigte Donnay die Rohdaten der HEI-Forscher, welche sie für ihre Studie herangezogen hatten, aber diese zu bekommen erwies sich als schwieriger als erwartet. HEI-Präsident Daniel Greenbaum sagte Donnay, dass man die Rohdaten für die HEI-Studie 2008 „gelöscht“ habe, weil weder die EPA noch irgendein anderer Forscher deren Ergebnisse in Frage gestellt hatten.

Also trug er die Rohdaten von den drei Journalen zusammen, welche die HEI-Studie veröffentlicht hatten, und stützte sich außerdem auf einige Rohdaten, welche im Jahresbericht 1985 des HEI vorgestellt worden waren.

Im Jahre 2014 hatte Donnay seine Re-Analyse schließlich fertig und konnte sie veröffentlichen. Er fand „extensive Beweise für Daten-Fabrikation und Datenfälschung“, schrieb er im Entwurf eines Abstracts, welchen er seinen Beratern an der University of Maryland vorstellte. „Der offensichtlichste Beweis absichtlichen wissenschaftlichen Betrugs in der HEI-Studie war, dass Allred et al. zwei verschiedene Zusammenfassungen der Ergebnisse in ihrem HEI-Report erstellten und eine dritte Version in ihrem Artikel im New England Journal of Medicine, welcher in der gleichen Woche erschienen war“, erklärte Donnay. „In keiner dieser Versionen erklären sie, wie sie zu den unterschiedlichen Ergebnissen gekommen waren oder räumten diesen Tatbestand auch nur ein. Betrachtet man das, was sie zu bringen und nicht zu bringen gewählt haben, ergibt sich zwangsläufig, dass sie etwas verbergen“, sagte er.

Donnays Berater an der University of Maryland jedoch sagten ihm, dass er seine Verbindung mit der Universität nicht erwähnen dürfe, falls er seine Ergebnisse veröffentlichen würde. Der für Forschungsintegrität zuständige Beamte an der Schule sagte ihm sogar, dass seine Arbeit „UMB gefährde“. Dies geht aus E-Mails hervor, welche der DCNF vorliegen.

„Es gab viel Widerstand gegen die Tatsache, dass dies alles Betrug sein könnte“, sagte Donnay. „Ich erkannte, dass es schwierig werden würde, diese Ergebnisse zu veröffentlichen“.

Aber Donnay ließ nicht locker und sandte im Mai 2014 einen Brief an alle drei akademischen Journale, welche die Allred-Studie veröffentlicht hatten, und forderte sie auf, diese Studie zurückzuziehen. Donnay informierte auch das Büro für Forschungsintegrität der EPA und den Generalinspekteur.

Alle drei Journale lehnten seine Forderung ab. Der Generalinspekteur der EPA war der Ansicht, dass die Vorwürfe Donnays nicht ein kriminelles Niveau erreichten, und die für wissenschaftliche Integrität zuständige EPA-Beamtin Francesca Grifo lehnte es ab, Donnays Arbeit überhaupt anzusehen, war doch die HEI-Studie vor dem Jahr 2012 geschrieben worden – bevor die Polizei der wissenschaftlichen Integrität bei der EPA ins Leben gerufen worden war.

„Angesichts der außerordentlichen Sorgfalt, mit der die Studie durchgeführt und unabhängig begutachtet worden war, haben sie empfohlen, und dem stimmen wir zu, dass es keinen Grund gibt, diese Studie zurückzuziehen“, schrieb der HEI-Vorsitzende Richard Celeste als Antwort an Donnay.

Aber Donnay blieb bei seinen Ergebnissen und trachtete nach Input von Roger McClellan, dem ehemaligen Vorsitzenden des EPA-Wissenschaftskomitees, welches sich auf das HEI stützte, um den Kohlenmonoxid-Standard im Jahre 1992 festzulegen. McClellan war auch im HEI-Übersichtskomitee für die Kohlenmonoxid-Studie tätig.

McClellan sagte Donnay, dass die HEI-Studie zwar „Auswüchse und Fehler“ enthalte, dass aber die „Kern-Ergebnisse der Studie weiterhin fundiert sind. Das einzige ernste Ergebnis ihrerseits, von denen Sie berichteten und welches für mich enttäuschend war, ist meine Erfahrung, dass die Original-Aufzeichnungen der Studie vom HEI im Jahre 2008 gelöscht wurden“.

Donnay präsentierte seine Forschungen in Gestalt eines Posters auf dem Treffen der Society for Toxicology im Jahre 2015 und erntete dafür ein paar „oberflächliche Reaktionen“, aber „niemand war willens, meine Ergebnisse anzusprechen“.

McClellan hat auf die Forderung nach einer Stellungnahme seitens der DCNF nicht geantwortet.

Die Links zu Donnays Beweisen sind diese: [alle drei als PDF]

Research Poster

Roger McClellan’s Letter — Feb 23, 2015

Summary Of Responses To Donnay’s Work

Link: https://wattsupwiththat.com/2017/08/08/exclusive-researcher-claims-to-have-evidence-one-of-epas-most-successful-clean-air-rules-is-based-on-fabricated-data/

Übersetzt von Chris Frey EIKE




Die Gesetze der Mittelwerte: Teil 2, Information der Verschleierung

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie [Eike, übersetzt] lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Wenn Ihnen diese Grundlagen nun geläufig sind, dann können wir mit den weiteren Gedankengängen weitermachen.

Wer es vorher oder nochmal lesen möchte, hier ist der Link zum Original [Part 1 of this series]

 

Ein Strahl der Finsternis in das Licht [Übersetzung des Originaltitels] 

oder: Informieren um zu Verschleiern

Der Zweck, zu einem Datensatz verschiedene Ansichten darzustellen – oder über jede Sammlung von Informationen oder Messungen, über eine Klasse von Dingen oder ein physikalisches Phänomen – ist es, dass wir diese Informationen aus verschiedenen intellektuellen und wissenschaftlichen Winkeln sehen können – um uns einen besseren Einblick in das Thema unserer Studien zu geben, was hoffentlich zu einem besseren Verständnis führt.

Moderne statistische Programme erlauben es sogar Gymnasiasten, anspruchsvolle statistische Tests von Datensätzen durchzuführen und die Daten auf unzählige Weise zu manipulieren [bzw. zu sortieren] und zu betrachten. In einem breiten allgemeinen Sinne, ermöglicht die Verfügbarkeit dieser Softwarepakete nun Studenten und Forschern, (oft unbegründete) Behauptungen für ihre Daten zu machen, indem sie statistische Methoden verwenden, um zu numerischen Ergebnissen zu gelangen – alles ohne Verständnis weder der Methoden noch der wahren Bedeutung oder Aussagekraft der Ergebnisse. Ich habe das erfahren, indem ich High School Science Fairs beurteile [zu vergleichen mit „Jugend forscht“] und später die in vielen Peer-Review-Journalen gemachten Behauptungen gelesen habe. Eine der derzeit heiß diskutierten Kontroversen ist die Prävalenz [allgemeine Geltung] der Verwendung von „P-Werten“ [probability value ~ Wahrscheinlichkeitswert], um zu beweisen, dass [auch] triviale Ergebnisse irgendwie signifikant sind, weil „das die Aussage ist, wenn die P-Werte geringer als 0,05 sind“. Die High School Science Fair Studenten bezogen auch ANOVA Testergebnisse über ihre Daten mit ein –jedoch konnte keiner von ihnen erklären, was ANOVA ist oder wie es auf ihre Experimente angewendet wurde.

[Als Varianzanalyse (ANOVA von englisch analysis of variance) bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen; Quelle Wikipedia]

 

Moderne Grafik-Tools ermöglichen alle Arten von grafischen Methoden um Zahlen und ihre Beziehungen anzuzeigen. Das US Census Bureau [statistisches Amt] verfügt über einen große Anzahl von Visualisierungen und Graphikwerkzeugen. Ein Online-kommerzieller Service, Plotly, kann in wenigen Sekunden eine sehr beeindruckende Reihe von Visualisierungen Ihrer Daten erstellen. Sie bieten einen kostenlosen Service an, dessen Niveau mehr als ausreichend für fast alle meine Verwendungen war (und eine wirklich unglaubliche Sammlung von Möglichkeiten für Unternehmen und Profis mit einer Gebühr von etwa einem Dollar pro Tag). RAWGraphs hat einen ähnlichen kostenlosen Service.

Es werden komplexe Computerprogramme verwendet, um Metriken wie die globalen Durchschnittlichen Land– und Meerestemperaturen oder die globale mittlere Höhe des Meeresspiegels zu erstellen. Ihre Schöpfern und Promotoren glauben daran, das damit tatsächlich ein einziger aussagekräftiger Wert produziert werden kann, der eine durchschnittliche Genauigkeit bis zu einem Hundertstel oder Tausendstel oder eines Millimeters erreicht. Oder, wenn schon nicht aktuelle quantitativ genaue Werte, so werden zumindest genaue Anomalien oder gültige Trends berechnet. Die Meinungen zu diesen Werten variieren sehr stark, betreffend der Gültigkeit, der Fehlerfreiheit und der Genauigkeit dieser globalen Durchschnittswerte.

Die Mittelwerte sind nur eine von unterschiedlichsten Möglichkeiten, die Werte in einem Datensatz zu betrachten. Wie ich in den Grundlagen für den „Durchschnitt“ erklärt habe, gibt es drei primäre Arten von Mittelwerten – Mittel, Median und Mode – sowie weitere exotische Typen.

In Teil 1 dieser Reihe erklärte ich die Fallstricke von Mittelwerten von heterogenen, nicht miteinander zu vergleichenden Objekten oder Daten über Gegenstände. Solche Versuche enden mit „Obstsalat“, ein Durchschnitt aus Äpfeln und Orangen ergibt unlogische oder unwissenschaftliche Ergebnisse, mit Bedeutungen, die illusorisch, imaginär oder von so geringer Aussage und damit nicht sehr nützlich sind. Solche Mittelungen werden oft von ihren Schöpfern mit Bedeutung – Sinn – erfüllt, die sie nicht haben.

Da der Zweck, Daten auf unterschiedliche Weise zu betrachten – wie das Betrachten eines Durchschnitts, ein Mittelwert oder ein Modus des numerischen Datensatzes – zu einem besseren Verständnis führen soll, ist es wichtig zu verstehen, was tatsächlich passiert, wenn numerische Ergebnisse gemittelt werden und in welcher Weise sie zu einem besseren Verständnis führen und in welcher Weise sie aber auch zu einem reduzierten Verständnis führen können.

Ein einfaches Beispiel:

Betrachten wir die Größe der Jungs in Frau Larsens hypothetischer 6. Klasse an einer Jungenschule. Wir wollen ihre Größe kennenlernen, um eine horizontale Klimmzugstange zwischen zwei starken, aufrechten Balken platzieren, damit sie trainieren können (oder als leichte konstruktive Strafe – „Jonny – Zehn Klimmzüge bitte!“). Die Jungs sollten in der Lage sein, sie leicht zu erreichen, indem man ein bisschen hochspringt, so dass beim Hängen an den Händen ihre Füße nicht den Boden berühren.

Die ärztliche Station liefert uns die Größen der Jungs, die gemittelt werden, und wir erhalten das arithmetische Mittel von 65 Zoll [ = 165 cm; für den weiteren Vergleich lasse ich Zoll (= Inch) stehen].

Mit diesen Durchschnittsgrößen rechnen wir weiter, um die benötigte Stangenhöhe in Zoll zu ermitteln:

Größe / 2.3 = Armlänge (Schulter zu den Fingerspitzen)

= 65 / 2.3 = 28 (ungefähre Armlänge)

= 65 + 28 = 93 Zoll = 7,75 Fuß oder 236 cm

Unsere berechnete Höhe der Stange passt gut in ein Klassenzimmer mit 8,5 Fuß Decken, also sind wir gut. Oder sind wir gut? Haben wir genügend Informationen aus unserer Berechnung der Mittleren Höhe?

Lassen Sie es uns überprüfen, indem wir ein Balkendiagramm aller Größen aller Jungs betrachten:

Diese Visualisierung, gibt uns eine andere Sicht als unser berechneter Durchschnitt – um die vorhandenen Informationen zu betrachten – um die Daten der Größen der Jungen in der Klasse auszuwerten. Mit der Erkenntnis, dass die Jungen von nur fünf Fuß groß (60 Zoll) bis hin zu fast 6 Fuß (71 Zoll) groß sind, werden wir nicht in der Lage sein, eine Stangenhöhe festzulegen, die ideal für alle ist. Allerdings sehen wir jetzt, dass 82% der Jungs innerhalb der Mittelhöhe von 3 Inch liegen und unsere berechnete Stangenhöhe wird gut für sie sein. Die 3 kürzesten Jungs könnten einen kleinen Tritt brauchen, um die Stange zu erreichen, und die 5 längsten Jungs können ihre Knie ein bisschen beugen, um Klimmzüge zu machen. Also können wir es so machen.

Aber als wir den gleichen Ansatz in Mr. Jones ‚Klasse versuchten, hatten wir ein Problem.

Es gibt 66 Jungen in dieser Klasse und ihre durchschnittliche Größe (Mittelwert) ist auch 65 Zoll, aber die Größen sind anders verteilt:

Jungens, die zweite Klasse

Herr Jones Klasse hat eine andere Mischung, die zu einer ungleichen Verteilung führt, viel weniger um den Mittelwert zentriert. Mit dem gleichen Durchschnitt: +/- 3 Zoll (hellblau), der in unserem vorherigen Beispiel verwendet wurden, erfassen wir nur 60% der Jungs anstatt 82%. In Mr. Jones Klasse, würden 26 von 66 Jungs die horizontale Reckstange bei 93 Zoll nicht bequem finden. Für diese Klasse war die Lösung eine variable Höhenleiste mit zwei Einstellungen: eine für die Jungen 60-65 Zoll groß (32 Jungen), eine für die Jungen 66-72 Zoll groß (34 Jungen).

 

Für die Klasse von Herrn Jones war die durchschnittliche Größe, die mittlere Größe, nicht dazu geeignet, um uns ein besseres Verständnis die Informationen über die Höhe der Jungen zu beleuchten, zu ermöglichen. Wir brauchten einen genaueren Blick auf die Informationen, um unseren Weg durch die bessere Lösung zu sehen. Die variable Höhenleiste funktioniert auch für Mrs. Larsens Klasse gut, mit der unteren Einstellung für 25 Jungen und die höhere Einstellung gut für 21 Jungen.

 

Die Kombination der Daten aus beiden Klassen gibt uns diese Tabelle:

Dieses kleine Beispiel soll veranschaulichen, dass Mittelwerte, wie unsere mittlere Höhe, unter Umständen von Nutzen sind, aber nicht in allen Fällen.

In der Klasse von Herrn Jones war die größere Anzahl kleinerer Jungen verdeckt, versteckt, gemittelt, man kann sich auf die mittlere Höhe verlassen, um die besten Lösungen für die horizontale Klimmstange zu bekommen.

Es ist erwähnenswert, dass in Frau Larsens Klasse, die Jungens eine Verteilung der Größen haben – siehe erstes Diagramm oben, die der sogenannten Normalverteilung ähnlich ist, ein Balkendiagramm wie folgend gezeigt:

WUWT

Normalverteilung

Die meisten Werte ergeben einen Gipfel in der Mitte und fallen mehr oder weniger gleichmäßig davor und dahinter ab. Durchschnitte sind gute Schätzungen für Datensätze, die so aussehen. Dabei muss man dann darauf achten, auch die Bereiche auf beiden Seiten des Mittels zu verwenden.

Mittel sind nicht so gut für Datensätze wie es Herr Jones‘ Klasse zeigt oder für die Kombination der beiden Klassen. Beachten Sie, dass das Arithmetische Mittel genau das gleiche für alle drei Datensätze der Größe der Jungen ist – die beiden Klassen und die kombinierten – aber die Verteilungen sind ganz anders und führen zu unterschiedlichen Schlussfolgerungen.

 

Das durchschnittliche Haushaltseinkommen in USA

Eine häufige angewandte Messgröße für das wirtschaftliche Wohlbefinden in den Vereinigten Staaten ist die jährliche Ermittlung des durchschnittlichen Haushaltseinkommens durch das statistische Amt [US Census Bureau].

Erstens, dass es als MEDIAN gegeben wird – was bedeutet, dass es eine gleich große Anzahl von Familien mit einem größeren Einkommen sowie auch Familien unter diesem Einkommensniveau geben sollte. Diese Grafik hier, von der jeweils regierenden Partei veröffentlicht – unabhängig davon, ob es die Demokraten oder die Republikaner sind – wird vom Oval Office (US-Präsident) und den beiden Häusern des Kongresses gerne als Argument [für ihre gute Arbeit] genutzt:

Das ist die gute Nachricht!
Grafik: Das mediane Familien Einkommen zeigt über die Jahre einem schönen stetigen Aufstieg und wir singen alle zusammen mit dem Beatles: “I’ve got to admit it’s getting better, A little better all the time…” [Sgt. Pepper’s Lonely Hearts Club Band]

Die nächste Grafik zeigt die nicht so gute Nachricht:

Die Zeitachse ist auf 1985 bis 2015 verkürzt, aber wir sehen, dass die Familien seit etwa 1998 nicht viel, wenn überhaupt, an realer Kaufkraft gewonnen haben, bereinigt um die Inflation.

Und dann gibt es die Grafik der Wirklichkeit:

Trotz der guten Nachrichten! und der Anerkennung der ersten Grafik und der so genannten Neuigkeiten der zweiten, sehen wir, wenn wir tiefer schürfen, eine andere Geschichte – die bislang verdeckt ist. Diese Grafik ist das Durchschnitts Haushalt Einkommen der fünf Quintile des Einkommens, plus die Top 5%, so dass die Zahlen ein bisschen anders sind und eine andere Geschichte erzählen.

Man unterteilt die Bevölkerung in fünf Teile (Quintil), dafür stehen die fünf bunten Linien. Die unteren 60% der Familien mit geringen Haushaltseinkommen, die grünen, braunen und roten Linien, haben in realer Kaufkraft seit 1967 praktisch keine Verbesserung erreicht, die Mitte / das Großbürgertum in lila Linie, hat einen moderaten Anstieg gesehen. Nur die besten 20% der Familien (blaue Linie) haben eine solide, stetige Verbesserung erreicht – und wenn wir die Top 5% herausnehmen, die gestrichelte schwarze Linie, sehen wir, dass sie nicht nur den Löwenanteil der US-Dollar verdienen, Sie haben auch prozentual am meisten davon profitiert .

 

Wo sind die gefühlten Vorteile?

Oben ist, was uns der nationale Durchschnitt mitteilt, die US Median Haushalts Einkommens Metrik. Wenn wir das ein bisschen näher untersuchen, erkennen wir:

Median Haushaltseinkommen nach Bundesstaaten

Neben einigen Überraschungen, wie Minnesota und North Dakota, zeigt es das, was wir vermuten können. Die Bundesstaaten New York, Massachusetts, Connecticut, New Jersey, Maryland, Virginia, Delaware – kommen alle auf das höchste Niveau des durchschnittlichen Haushaltseinkommen, zusammen mit Kalifornien, Washington. Utah war schon immer die Heimstätte der wohlhabenderen Latter-Day Saints [Kirche Jesu Christi der Heiligen der Letzten Tage] und ist zusammen mit Wyoming und Colorado ein Ruhestand Ziel für die Reichen geworden. Die Bundesstaaten, deren Abkürzungen eingekreist sind, haben Haushalte mit Einkommen in der Nähe des nationalen Medians.

 

Lassen Sie uns das vertiefen:

Median Haushaltseinkommen nach Landkreisen

Die dunkleren grünen Kreise haben die höchsten Median Haushaltseinkommen. San Francisco / Silicon Valley im Westen und die Washington DC-bis-New York City-zu-Boston Megapolis im Osten, sind leicht zu erkennen.

Diese Karte beantwortete meine große Frage: Wieso hat North Dakota so ein hohes Median Einkommen? Antwort: Es ist ein Bereich, umkreist und markiert „?“, Zentriert durch Williams County, mit Williston als Hauptstadt. Hier wohnen weniger als 10.000 Familien. Und „Williston sitzt auf der Bakken-Formation, der bis Ende 2012 vorausgesagt wurde, mehr Öl zu produzieren als jeder andere Standort in den Vereinigten Staaten“, es ist das Gebiet von Amerikas neustem Öl-Boom.

 

Und wo ist das große Geld? Meistens in den großen Städten:

Median Haushaltseinkommen nach Städten

 

Und wo ist das Geld knapp? Alle jene hellgelben Landkreise sind Gebiete, in denen viele bis die meisten Familien an oder unterhalb der föderalen Armutsgrenze für vierköpfige Familien leben.

Median niedrigste Haushaltseinkommen nach Landkreisen

 

Einkommen der restlichen Haushalte

Eine Auswertung der Gebiete der US-Indianer Reservate zeigt, dass diese im Westen vor allem die niedrigsten und zweithöchsten Einkommensgruppen repräsentieren. (Ein eigenes Interesse von mir, mein Vater und seine 10 Brüder und Schwestern wurden in Pine Ridge im südwestlichen South Dakota geboren, das rote Oval.) Man findet viel von dem alten Süden in dem untersten Kreis (hellgelb) und den Wüsten von New Mexico und West Texas und den Hügeln von West Virginia und Kentucky.

 

Eine weitere Grafik:

Prozentuale Verteilung der Haushaltseinkommen

Was sagt uns das?

Es sagt uns, dass das nationale Median Haushaltseinkommen, als Einzelwert – vor allem in Dollar, der nicht Inflation bereinigt ist – die Ungleichheiten und Unterschiede, die wichtige Fakten dieser Metrik sind, verdecken. Der Einzelwert des nationalen Median Haushaltseinkommen ergibt nur eine sehr unzureichende Information – es sagt uns nicht, wie amerikanische Familien  einkommensmäßig einzuordnen sind. Es informiert uns nicht über das wirtschaftliche Wohlergehen der amerikanischen Familien – vielmehr verbirgt es den wahren Sachverhalt.

Daher sage ich, dass das veröffentlichte durchschnittliche Haushaltseinkommen, anstatt das wirtschaftliche Wohlergehen der amerikanischen Familien zu beleuchten, buchstäblich die wirklichen signifikanten Daten über das Einkommen der amerikanischen Haushalte verbirgt. Wenn wir uns erlauben, von dem Strahl der Verschleierung [Im Original „shines a Beam of Darkness“] verblendet zu werden, die diese Art von Wahrheit versteckenden Durchschnittswerten repräsentieren, dann scheitern wir in unserer Pflicht als kritische Denker.

 

Bedeutet das, dass Durchschnittswerte schlecht sind?

Nein natürlich nicht. Sie sind nur eine Möglichkeit, eine Reihe von numerischen Daten zu betrachten. Das bietet aber nicht immer die beste Information. Es sei denn, die Daten, die man betrachtet, sind fast normal verteilt und Änderungen werden durch bekannte und verstandene Mechanismen verursacht. Mittelwerte aller Art führen uns häufiger in die Irre und verdecken die Informationen, die wir wirklich betrachten sollten. Durchschnittswerte sind die Ergebnisse von faulen Statistikern und führen selten zu einem besseren Verständnis.

Der häufigste logische und kognitive Fehler ist es, das es das Verständnis beeinflusst, es eine Meinung suggestiert, indem man nur diese eine sehr schmale Sicht auf die Daten anbietet – man muss unbedingt erkennen, dass sich die Information hinter irgendeiner Art von Durchschnitt versteckt und alle anderen verfügbaren Informationen verdeckt und diese damit nicht wirklich repräsentativ für das gesamte, große Bild sein kann.

Es gibt viele bessere Methoden der Darstellung von Daten, wie das vereinfachte Balkendiagramm, das im Beispiel der Schuljungen verwendet wird. Für einfache numerische Datensätze, Diagramme und Grafiken, sind diese oft angemessen, wenn sie verwendet werden, um Informationen zu zeigen, anstelle diese zu verstecken).

Wie Mittelwerte, können auch Visualisierungen von Datensätzen für gute oder schlechte Informationen verwendet werden – die Propaganda durch Nutzung von Datenvisualisierungen, die heutzutage PowerPoint-Folien und Videos beinhalten, ist Legion.

Hüten Sie sich vor jenen, die Mittelwerte wie Schlagstöcke oder Knüppel handhaben, um öffentliche Meinung zu bilden.

 

Und Klima?

Die Definition des Klimas ist, dass es ein Durchschnitt ist – „diese Wetterbedingungen herrschen in einem Gebiet im allgemeinen oder über einen langen Zeitraum.“ Es gibt keine einzige „Klima Metrik“ – keine einzelner Wert, der uns sagt, was „Klima“ tut.

Mit dieser vorgenannten Definition, zufällig aus dem Internet über Google – gibt es kein Erd-Klima. Die Erde ist kein Klimabereich oder Klimaregion, die Erde hat Klimaregionen, ist aber kein Klimabereich.

Wie in Teil 1 erörtert, müssen die im Durchschnitt gemittelten Objekte in Sätzen homogen und nicht so heterogen sein, dass sie inkommensurabel sind. So werden bei der Erörterung des Klimas einer Region mit vier Jahreszeiten, Allgemeinheiten über die Jahreszeiten gemacht, um die klimatischen Bedingungen in dieser Region im Sommer, Winter, Frühjahr und Herbst einzeln darzustellen. Eine durchschnittliche Tagestemperatur ist keine nützliche Information für Sommerreisende, wenn der Durchschnitt für das ganze Jahr einschließlich der Wintertage genommen wird – solch eine durchschnittliche Temperatur ist Torheit aus pragmatischer Sicht.

Ist es aus der Sicht der Klimawissenschaft ebenfalls Dummheit? Dieses Thema wird in Teil 3 dieser Serie behandelt.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

Erschienen auf WUWT am 19.06.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/06/19/the-laws-of-averages-part-2-a-beam-of-darkness/

 

Für unsere Leser in Deutschland, hier eine Grafik des statistischen Bundesamtes

© Statistischen Ämter des Bundes und der Länder, Deutschland, 2017. Dieses Werk ist lizensiert unter der Datenlizenz Deutschland – Namensnennung – Version 2.0.




Die Starkregen vom Juli 2017 in Deutsch­land sind (keine) Menetekel eines Klima­wandels

Damit nicht jemand im Blog süffisant nachfragt, „wer“ den bitte behauptet hat, diese Ereignisse waren vom Klimawandel verursacht, anbei als Vorspann die Information des Zwangs-GEZ finanzierten, grün gestrichenen, bayerischen Partei- und Propagandasenders:
BR.de, Rubrik Wissen, 26.07.2017: [1] Extremwetter durch Klimawandel Mehr Starkregen, Dürren, Hitzewellen und Orkane
Extreme Wetterphänomene treten weltweit immer häufiger auf, auch in Deutschland. Wissenschaftler machen auch die Klimaerwärmung dafür verantwortlich. Und sie zeichnen nach dem globalen Hitzerekord 2016 auch für 2017 ein düsteres Szenario.

… Im Juni und Juli 2017 hat es Teile Deutschlands erwischt: Ausnahmezustand wegen sintflutartiger Regenfälle, die das Leben nicht nur in Berlin zeitweise lahm legten. Auch Niedersachsen und Thüringen machte extremer Dauerregen zu schaffen, in Hildesheim musste ein ganzes Wohngebiet evakuiert werden. Der Kieler Klimaforscher und Meteorologe Mojib Latif sieht auch den Klimawandel als Ursache für diese Wetterextreme.

Zwar haben nicht wenige Wetterpäpste das Thema richtiggestellt und auf natürliche Variabilitäten hingewiesen. Analysen (auch von eher klimawandel-affinen) Wissenschaftlern zeigen zudem, dass im Sommer die Starkniederschläge bisher abnahmen:
[8] … Eine Auswertung von mehr als 2000 westdeutschen Niederschlagsstationen zeigt eine deutliche Zunahme in den winterlichen Starkregenereignissen (abhängig von der Region bis zu über 10% pro Dekade) und eine deutliche Abnahme für die sommerlichen Ereignisse (Zolina et al. 2008)
Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilit¨at gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (¨uber dem 10%-Perzentil) und auch extrem hohen (¨ uber dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen …

-doch sobald man einen M. Latif zitieren kann – der mit schlafwandlerischer Sicherheit zu jedem Wetterereignis die treffenden, klimaalarmistischen Worte findet -, ist man klima(hysterisch) auf der politisch sicheren Seite. Diese ist inzwischen auch in Bayern sorgfältig zu beachten, seitdem der Landesvater, Herr Seehofer, eine Koalition mit den Grünen nicht mehr ausschließt [2]. GRÜN kennt bei abweichender Meinung kein Erbarmen, und deshalb muss ein Staats-Propagandafunk darauf vorbereitet sein.

So viel Regen dürfte es eigentlich nicht geben, da es im Sommer trockener wird

Das sagen alle bisherigen Klimasimulationen [3] und der DWD:

Der DWD Klimaatlas zeigt den Sommerniederschlag. Der verhält sich seit 1881 so normal, dass es fast schon grausam ist.

Bild 1 Deutschland Niederschlag Sommer von 1881 – 2016. Quelle: DWD Klimaatlas

Der Niederschlagsverlauf im Monat Juli seit dem Jahr 1881 ist auch nicht alarmistischer. Einzig wird in seinem Bild deutlicher, wie hoffnungslos die Klimasimulationen daneben liegen und was Aussagen des ganz großen Klima(Alarm)Forschers, M. Latif wirklich „wert“ sind:
M. Latif: [1] … Forscher haben sich lange schwer getan, extreme Wetterverhältnisse in einen direkten Zusammenhang mit dem Klimawandel zu bringen. Doch neue Methoden der statistischen Auswertung, verfeinerte Klimamodelle und bessere Computertechnik machen Aussagen über Zusammenhänge heute eher möglich.
… denn nicht eine der vielen Simulationsversuche trifft derzeit den wahren Mittelwert.
Macht aber nichts. Mit diesen hoffnungslos falsch liegenden Simulationen wird vom DWD (auf des Bürgers Kosten) Deutschland in 25 Kilometer-Quadraten „klimaberechnet“. Die Kommunen sollen nach diesen Zufallsdaten ihre teuren „Klima“Investitionen budgetieren und natürlich auch ausgeben. Man liegt nicht weit daneben mit der Behauptung: Eine billige Glaskugel mit Sicht auf die historischen Daten wäre wohl nicht ungenauer, aber um Welten billiger [6] [7].

Bild 2 Deutschland Niederschlag Juli 1881 – Juli 2017. Die rote, horizontale Linie kennzeichnet den Wert vom Juli 2017 (vom Autor zugefügt). Quelle: DWD Klimaatlas

Nun noch der Niederschlagsverlauf Juli der zwei stark von den Unwettern betroffenen Bundesländer. Der Juliniederschlag war hoch, aber bei Weitem „noch nie dagewesen“ und auch nicht als sich verstärkender Trend erkennbar.

Bild 3 Niedersachsen Niederschlag Juli 1881 – Juli 2017. Die rote, horizontale Linie kennzeichnet den Wert vom Juli 2017 (vom Autor zugefügt). Quelle: DWD Klimaatlas

Bild 4 Thüringen Niederschlag Juli 1881 – Juli 2017. Die rote, horizontale Linie kennzeichnet den Wert vom Juli 2017 (vom Autor zugefügt). Quelle: DWD Klimaatlas 

Fazit

Der Niederschlag hat eine unglaublich hohe Variabilität – die sich ständig in beide Richtungen wiederholt -, aber immer neu „vergessen“ wird. Eine Erhöhung des Juliniederschlages durch einen Klimawandel ist nicht erkennbar. Und praktisch alle! Niederschlagssimulationen liegen hoffnungslos falsch.
Es ist kein Zufall, dass der dicke, „Deutsche Klimamonitoringbericht 2015“ des Umweltbundesamtes auf seinen 258 Seiten Starkregen zwar 30-mal zitiert, aber keinerlei Daten dazu listet. Auch dessen Verfasser*innen ist es nicht gelungen, beim Starkniederschlag Klimawandel-Einfluss zu belegen und sie haben deshalb die (Klimawandel-negierenden) Informationen lieber weggelassen, um die Bürger nicht zu verwirren.

Klimarückblick Juli

Die Extremwetter dürfte es nicht geben, da sie durch die zunehmende Wärme entstehen (sollen) die zu dem Zeitpunkt im Juli jedoch fehlte

Dass die häufig gebrachte, einfache Erklärung – mehr Wärme ist mehr Stark-Niederschlag – falsch ist, hat Herr Kowatsch bereits in [3] beschrieben.
Dazu eine Erklärung eines anderen Experten:

Bild 5 Deutschland Lufttemperatur Sommerquartal 1881 – 7.2017. Quelle: DWD Klimaatlas

… doch der Juli zeigt in der Langzeitdarstellung ein ganz sonderbares Bild, welches wohl niemand mit dem steigenden CO2-Eintrag erklären kann.

Im DWD-Bild, welches erst mit dem Jahr 1881 beginnt, fällt es noch kaum auf, dass der gerade vergangene Juli unter der Temperatur vom Jahr 1881 lag.

Bild 6 Deutschland Lufttemperatur Juli 1881 – 7.2017. Quelle: DWD Klimaatlas

In der Langzeitdarstellung mit den DWD-Daten ist es aber nicht mehr zu übersehen: Der vergangene Juli lag nicht nur unter der Temperatur im Jahr 1881, sondern hatte die des Jahres 1750. Auch lässt sich mit diesem Verlauf schön sehen, warum in Deutschland die Temperaturen (bisher) seit 1881 fast immer anstiegen.

Bild 7 Deutschland Lufttemperatur Juli 1750 – 7.2017. Rot gekennzeichnet der Beginn der DWD Datenbilder (1881). Roter Pfeil vom Autor hinzugefügt. Quelle: DWD Daten

Anhand dieser Daten lässt sich feststellen: Die „stetige Temperaturerhöhung“ durch einen AGW-Klimawandel kann nicht die Ursache der Juli Unwetter gewesen sein – vor denen man angeblich früher verschont war -, denn der vergangen Juli war so kalt wie der vom Jahr 1881 und kälter als der von 1750 (ziemlich sicher zumindest im ebenfalls stark vom Unwetter gebeutelten Berlin). Die Unwetter geschahen auch bei einer kühlen Wetterlage, denn zu dem Zeitpunkt bestand eine zirkulierende Nord-Strömung [3].

Bild 8 Wetterstation Brocken. Temperaturverlauf und Niederschlag übereinander gelegt. Daten: WetterOnline

Was sagen die Experten dazu:
[8]… Eine Auswertung von mehr als 2000 westdeutschen Niederschlagsstationen zeigt eine deutliche Zunahme in den winterlichen Starkregenereignissen (abhängig von der Region bis zu über 10% pro Dekade) und eine deutliche Abnahme für die sommerlichen Ereignisse (Zolina et al. 2008).

Ausgewählte Niederschlagsdaten aus von dem Unwetter stark betroffenen Gegenden

Erst wenn man sich Einzeldaten von Messstationen ansieht, erkennt man die unglaubliche Spanne der (täglichen und mehrtägigen) Regenmengen und deren chaotisches Verhalten, hinter denen man anhand der Bilder jedoch auch eine dominierende Zyklik vermuten würde. Der Autor hat aus stark betroffenen Gegenden ein paar Daten nahe liegender Messstationen mit längerem, historischem Verlauf herausgesucht um zu zeigen, wie und wie unterschiedlich die Trendverläufe von Extremereignissen zwischen verschiedenen Stationen ausfallen.

Berlin Tempelhof

Zuerst die Station Tempelhof aus dem im Juliunwetter fast „abgesoffenem“ Berlin. Man nehme die folgenden vier Bilder und überlege, ob bei diesem erkennbar chaotisch – zyklischem Verhalten Vorhersagen möglich sind, wenn aus dem „Nichts“ heraus und ohne irgend eine erkennbare Vorwarnung das Wasser plötzlich kübelweise vom Himmel schüttet.
Je nach betrachtetem Zeitbereich lässt sich jeder vermeintliche Trend „erkennen“, bis dieser plötzlich und ohne Vorwarnung vorbei ist.

Dazu noch die Anmerkung, dass man gerade Regen-Messdaten nicht blind vertrauen sollte: Die Messstation Simbach fiel beim großen Unwetter vor zwei Jahren zuerst einmal aus. Seitdem „fehlen“ dort diese Regenmengen. Warum soll so etwas nicht früher auch schon passiert sein und historische Datenspitzen niedriger machen?

Berlin Tempelhof

Bild 9 Berlin Tempelhof 1948 – 8.2017 Tagesniederschlag. Quelle: DWD, Station 433

Bild 10 Berlin Tempelhof 1948 – 8.2017 2-Tages-Niederschlagsmenge. Quelle: DWD, Station 433

Bild 11 Berlin Tempelhof 1948 – 8.2017 3-Tages-Niederschlagsmenge. Quelle: DWD, Station 433

Bild 12 Berlin Tempelhof 1948 – 2016 Jahressumme Starkregen-Ereignisse > 30 mm / Tag. Quelle: DWD, Station 433

Brocken Sorge

Bild 13 Brocken – Sorge Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 351

Bild 14 Brocken – Sorge 2-Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 351

Bild 15 Brocken – Sorge Jahressumme Starkregen-Ereignisse 1951 – 2016. Quelle: DWD Daten, Station 351

Helbedündorf

Bild 16 Helbedündorf Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 2562

Bild 17 Helbedündorf Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 2562

Bild 18 Helbedündorf Jahressumme Starkregen-Ereignisse 1951 – 2016. Quelle: DWD Daten, Station 2562

Einem DWD „Klimafachmann“ reichen 15 Jahre für eine Trendaussage

Es sei anbei an einen Beitrag auf kaltesonne erinnert, in dem das Problem der kurzfristigen Betrachtung anhand eines Beispiels thematisiert wurde. Ein DWD „Klimaexperte“ behauptete, anhand einer 15-jährigen Messreihe wäre es bereits möglich, beim Starkniederschlag Trendaussagen zu machen.:
kaltsonne, 1. Februar 2017: Starkregen in Deutschland ohne Langzeittrend: 15 Jahre sind kein Klima
„Das sind auch die Folgen des Klimawandels“, sagt der Diplom-Meteorologe [Andreas] Friedrich vom Deutschen Wetterdienst (DWD) in Offenbach dezidiert … „Auf Basis unserer Radardaten flächendeckend über Deutschland haben wir ausgewertet, dass Stark-Niederschläge in den letzten 15 Jahren häufiger auftreten …

Zeigen die bisherigen Niederschlagsbilder schon deutlich, dass selbst über 60 Jahre Beobachtungszeit für eine Trendaussage nicht ausreichen, soll dies anhand von Messreihen mit weit über 100 Jahren bekräftigt werden.

Ganz lange DWD-Niederschlagsreihen zeigen das Risiko kurzfristiger Fortschreibungen und den extremen Zeitraum zur Trendermittlung

Es gibt in Deutschland Niederschlagsreihen, welche bis zum Anfang des letzten Jahrhunderts zurückreichen. An solchen sei gezeigt, wie die Problematik der Fortschreibung von Niederschlags-Trendverläufen exemplarisch aussieht.

Viele „lange“ DWD Datenreihen von Deutschland beginnen so um 1941 … 1951.
Davor gab es, wie zu vermuten war, aber auch schon (Un)Wetter. Und das zeigt beispielhaft die Langzeit-Messreihe von Bild 19.

Startet man mit dem „typischen“ Beginn der DWD Langzeitreihen, stieg der Extremniederschlag bis 2003 immer nur an:
-Ein typischer „Klimawandelbeleg“.
Berücksichtig man auch die Zeit davor, dann nahm der Starkniederschlag von 1906 … 2003 immer nur ab:
-Ein Beleg des Gegenteils.
Nimmt man mit 30 Jahren Länge meteorologisch „ausreichen lange“ Zeiteinheiten, lassen sich beliebige Trends konstruieren.

Bild 19 Annaburg, Sachsen-Anhalt, Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Bild 20 Annaburg, Sachsen-Anhalt, 2-Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Betrachtet man für diese Station (und die weiteren) den Verlauf der Starkregenereignisse, zeigt sich am 30-Jahre-Mittelwert ein interessantes Bild, welches man so sicher nicht erwartet hätte.

Bild 21 Annaburg, Sachsen-Anhalt, Jahressumme Starkregen-Ereignisse und gleitende 30-Jahressumme 1901 – 2016. Quelle: DWD Daten, Station 170

Weitere Langzeit-Messreihen

Bild 22 Fürstenwalde – Spree, Tagesniederschlag 1893 – 8.2017. Quelle: DWD Daten, Station 1517

Bild 23 Fürstenwalde – Spree, 3-Tagesniederschlag 1893 – 8.2017. Quelle: DWD Daten, Station 1517

Bild 24 Fürstenwalde – Spree, Jahressumme Starkregenereignisse und gleitende 30-Jahressumme 1893 – 8.2017. Quelle: DWD Daten, Station 1517

Bild 25 Achim-Embsen Niedersachsen, Tagesniederschlag 1891 – 8.2017. Quelle: DWD Daten, Station 23

Bild 26 Achim-Embsen Niedersachsen, Jahressumme Starkregenereignisse und gleitende 30-Jahressumme 1891 – 8.2017. Quelle: DWD Daten, Station 23

Bild 27 Eisenbach Baden-Württemberg, Niederschlag Tageswerte 1901 – 8.2017. Quelle: DWD Daten, Station 1176

Bild 28 Eisenbach Baden-Württemberg, Jahressumme Starkregenereignisse und gleitende 30-Jahressumme 1901 – 8.2017. Quelle: DWD Daten, Station 1176

Beim Starkniederschlag lässt sich schwer etwas über Trends aussagen, leichter sind Wahrscheinlichkeiten anzugeben

Statistisch gesehen, steckt man beim Starkregen damit in einem Dilemma. Die „Klimawandler“ benötigen möglichst stabile Trends, um ihre Theorie zu belegen. Wie schwierig und widersprüchlich dies für Niederschlags-Extremereignisse ist – die keinerlei stabile CO2-Korrelation aufweisen, zeigten die bisherigen Verlaufsbilder und lässt sich in [11] nachlesen.
Deutlich ist auch erkennbar, dass die Starkregen-Ereignisanzahl (im 30-Jahres-Mittelwert) über die Belastung durch wirkliche Extremregenfälle nichts aus- oder vorhersagt.

Sehr stark vereinfachend kann man aus den Rohdaten jedoch zumindest grobe Häufigkeitsabschätzungen herauslesen (Hinweis: Um daraus weitere, statistische Ableitungen zu berechnen, wären die Häufigkeiten zuerst in die richtige Verteilung zu transformieren). Natürlich nur unter der Annahme, dass ein Auftreten zu jedem Zeitpunkt gleich Wahrscheinlich ist und sich die Verteilungsparameter über die Jahre nicht verändert haben (Hinweis: Laut [11] haben sich die Verteilungsparameter zu größeren Streuungen hin verändert).
Dann weiss man zwar nicht, wann ein Starkregen mit bestimmtem Pegel eintritt, man weiss aber ganz grob, ob innerhalb welcher Zeiträume es eintreten kann.

Um ein Gefühl für solche Ereignishäufigkeiten und Jahresabstände zu vermitteln, sind für die Messstelle Annaburg anbei die historischen Häufigkeiten des Tagesniederschlags im Bild 29 tabelliert.
Betrachtet man nur den vom DWD-Mitarbeiter genannten Zeitraum von 15 Jahren, dann sind mit diesem 99,97 % der Ereignisse abgedeckt. Das erscheint viel.
Wegen der extremen Ausläufer der Verteilung verstecken sich in den restlichen 0,02x % leider immer noch 13 Ereignisse, deren Niederschlagsextreme fast bis zur Verdopplung reichen und das alle 23 … 57 Jahre. Die möglichen Streuungen und Ereignishäufigkeiten aus der Verteilung zu berechnen, kann problemlos dicke Studien füllen [11]. Aber alleine die Tabelle zeigt, dass richtig schlimme Starkregen eine Generation auseinander liegen können, aber eben nicht müssen.
Die oft beim Klimawandel zitierten „Erlebnisaussagen“ von „Einheimischen“ [13 sind somit erkennbar wertlos.

Bild 29 Messstation Annaburg, Tagesniederschlag, Klassenhäufigkeiten 1901 – 8.2017

Ein Hinweis zur Niederschlagsanalyse Deutschland in [11] sei angemerkt:
In der Studie wird berechnet, dass sich die Verteilungsparameter der Starkniederschläge seit 1900 verändert haben und extremere Ereignisse damit wahrscheinlicher geworden sind. Wie die bisherigen Verlaufsbilder zeigen, kann man jedoch im Verlauf Zyklen vermuten. Sofern die zutrifft, wäre diese Aussage in der Studie nicht haltbar (man hätte dazu die zyklischen Verteilungs-Parameterveränderungen vergleichen müssen und nicht nur – wie geschehen – die Verteilungen um 1900 und aktuell. Auf dieses Thema ist die wirklich umfangreiche Untersuchung jedoch nicht eingegangen.

Eigentlich „entziehen“ sich Extremereignisse dem CO2-Einfluss

Das Wissen über Extremereignisse ist in vielerlei Hinsicht immer noch ungenügend. Weder sind die Ursachen von Niederschlagsextremen und ihre Beziehung zur globalen Erwärmung endgültig geklärt noch wissen wir genügend über regionale Trends im 20. und noch weniger über künftige Entwicklungen im 21. Jahrhundert. Dennoch spricht einiges für die Möglichkeit, dass die Hochwasser der jüngsten Vergangenheit, und eventuell auch die Hitzewellen, Dürren und Waldbrände, nicht nur eine Laune der Natur waren, sondern auch durch die globale Erwärmung infolge der gestiegenen Treibhausgaskonzentration mit beeinflusst wurden.
[11] ist man sich der Problematik bewusst:
teils extremer, teils aber auch weniger extrem geworden, und teils sind deutliche Änderungen gar nicht erkennbar
… Mit aller Vorsicht lässt sich aber sagen (vgl. dazu Kap. 1), dass bei der großräumigen Erwärmung der Klimafaktor Mensch dominiert (”anthropogener Treibhauseffekt“ ) und dass damit zusammenhängende Änderungen der Extremereignisse möglicherweise auch dieser Ursache zuzuordnen sind.

Und man muss den IPCC loben, der im letzten Sachstandsbericht (allerdings nur in der Langfassung) zugegeben hat, dass die in früheren Berichten angegebene „Sicherheit“ der Extremereignis-Zunahme durch einen AGW-Klimawandel für die meisten Fälle nicht mehr bestätigt werden kann [9].

Fazit

Bei solchen Datenvariabilitäten der wahren Natur wird klar, warum man sich beim „Klimawandel“ mit Belegen selbst im (angeblich) mit Klimadaten „vollversorgten“ Deutschland so schwer tut. Daran wird daran auch deutlich, dass Stark-Niederschlagstrends noch gar nicht erklärt werden können. Weltweit kann unbesehen ausgeschlossen werden, dass bessere Daten vorhanden wären.
Die Temperaturen zeigen da etwas mehr trendverhalten. Ein Grund, warum sich das ganze „Klimagezeter“ vorwiegend darauf konzentriert (obwohl die Temperaturen in langen Zeiträumen betrachtet, genau so unsicher sind [12]).

Anstelle sich jedoch damit auseinander zu setzen und die Schwächen zuzugeben, ist es viel einfacher, der CO2-Religion voll zu vertrauen und sich alleine auf CO2-Verhinderung zu konzentrieren. Dort gilt alles als Erfolg, was sich in CO2-Kilogramm-Äquivalenten ausdrücken lässt und Belege sind nicht erforderlich:
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Wie kann man mit ungenauen Daten Simulationen kalibrieren, die dann die ungenauen Daten „richtig“ berechnen

Die etwas sperrige Überschrift soll ein Phänomen beschreiben, welches sich in der „Klimawissenschaft“ findet. Wie es Herr Thüne in EIKE 10. August 2017: Hitzerekorde aus dem Computer! UN-Klimaschutzpolitik ändert nichts am weltweiten Wettergeschehen
kurz beschrieb, werden inzwischen die fehlenden und ungenauen Klimadaten historischer Zeiten durch Klimasimulationen rückberechnet und als die „wahren Daten“ erklärt.

Wer sich öfters Klimadaten ansieht merkt: Man kennt nicht einmal die kurzfristig-historischen Daten genau.
Mit diesen ungenauen Daten werden nun die Klimasimulationen „kalibriert“ und „können“ berechnen, wie die ungenauen Daten der weiteren Vergangenheit „wirklich“ gewesen seinen.
Dass sie es nicht einmal für den aktuellen Zeitraum können, zeigen die DWD Simulationsbilder am Anfang dieses Artikels.

In jeder Wissenschaft würde man darüber laut lachen – aber nicht beim AGW-„Klimaforschen“, wie es Herr Latif bestätigt.
M. Latif: [1] … Forscher haben sich lange schwer getan, extreme Wetterverhältnisse in einen direkten Zusammenhang mit dem Klimawandel zu bringen. Doch neue Methoden der statistischen Auswertung, verfeinerte Klimamodelle und bessere Computertechnik machen Aussagen über Zusammenhänge heute eher möglich …
Quellen

[1] BR.de, Rubrik Wissen, 26.07.2017: Extremwetter durch Klimawandel Mehr Starkregen, Dürren, Hitzewellen und Orkane

[2] DER TAGESSPIEGEL, 23.07.2017: Bundestagswahl : Horst Seehofer kann sich jetzt Koalition mit Grünen vorstellen

[3] EIKE 3. August 2017: Die reichlichen Sommer-Niederschläge 2017 in Deutschland stehen im Widerspruch zur gängigen CO2-Erwärmungstheorie

[4] Berlinjörg (Pseudonym) 17. August 2006: Die homogene 300jährige Berliner Klimareihe(lang!)

[5] EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

[6] EIKE 18.06.2016: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss

[7] EIKE 20.04.2016: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern

[8] Warnsignal Klima, Kap3.1-3.1.13, Kasang, Kasper: Veränderung regionaler Niederschlagsextreme

[9] EIKE 25.11.2016: Das heißeste Jahr, aber die niedrigste Tornadorate – obwohl nach der Theorie beides gleichzeitig höher werden muss

[10] Christian-D. Schönwiese, Frankfurt/M: WIRD DAS KLIMA EXTREMER? EINE STATISTISCHE PERSPEKTIVE.

[11] Abschlussbericht zum Forschungsvorhaben 201 41 254 im Auftrag des Umweltbundesamtes, Martin Jonas, Tim Staeger und Christian-D. Schönwiese, 2005: Berechnung der Wahrscheinlichkeiten für das Eintreten von Extremereignissen durch Klimaänderungen – Schwerpunkt Deutschland –

[12] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[13] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel




NYT ertappt: Dokumente aussortiert, um einen vermurk­sten Artikel zu Klima­wandel nicht zu gefährden

[Einschub des Übersetzers: Dies war am Mittwoch, dem 9. August, also nur einen Tag später, auch die große Titelschlagzeile in der „Süddeutschen Zeitung“, gefolgt von einem Artikel, der fast die ganze Seite eingenommen hat. Man sehe mir nach, dass ich diesen Unsinn nicht gelesen habe. Aber das ist wie im „Neuen Deutschland“ zu DDR-Zeiten oder in der „Prawda“ zu Sowjet-Zeiten: Man werfe der Gegenseite genau das vor, was man selbst tut! Offenbar haben die Redakteure der „Süddeutschen“ in der DDR-Kaderschmiede damals sehr gut aufgepasst!

Alles jetzt Folgende kann also direkt auch für die „Süddeutsche Zeitung“ angenommen werden. Und diese Zeitung wirbt mit dem Slogan „Seien Sie anspruchsvoll!“ für sich!

Ende Einschub.]

Die NYT berichtete, dass ihr ein unveröffentlichter Entwurf des National Climate Assessment NCA [vielleicht ,Bericht zur Klimalage der Nation‘] vorliege, der für das Jahr 2018 zur Veröffentlichung vorgesehen ist. Die Zeitung behauptete, dass der Entwurf „noch nicht öffentlich bekannt gemacht worden sei“ und folgert, dass „die Amerikaner die Auswirkungen des Klimawandels schon jetzt spüren“.

Allerdings veröffentlichte die NYT einen „Entwurf dritter Ordnung“ [a ,third order draft‘] der NCA, welcher bereits seit Januar online geschaltet war. Die NOAA stellte den Entwurf im März online.

Die Zeitung druckte keine formelle Korrektur zu der Zeit, als der Artikel veröffentlicht wurde, und hat auch nicht auf die Nachfrage der The Daily Caller News Foundation DCNF geantwortet, ob noch eine Korrektur veröffentlicht werden würde oder nicht.

„Wir stellen in der Story eindeutig klar, dass dies von der NAS begutachtet worden ist und innerhalb der wissenschaftlichen Gemeinschaft kein Geheimnis war“, sagte NYT-Reporterin Lisa Friedman der DCNF hinsichtlich der Inkonsistenzen. „Der jüngste Entwurf war jedoch nicht öffentlich“.

Dann lud die NYT einen zuvor noch nie gesehenen „fifth order draft“ [etwa: Entwurf fünfter Ordnung] des NCA auf seine Website, jedoch ohne jede Korrektur oder Aktualisierung des Original-Artikels.

Ein genauer Blick auf den Artikel von Friedman zeigt immer noch den öffentlich zugänglichen „Entwurf dritter Ordnung“ als das, was durchgesickert war. Klickt man jedoch auf den Link, erhält man den „Entwurf fünfter Ordnung“.

Quelle: Screenshot der New York Times

„Es ist sehr enttäuschend zu erfahren, wenngleich es auch vollkommen vorhersehbar war, dass die NYT den Bericht eines Entwurfes abschreiben würde, ohne dass zuerst dessen Inhalt mit dem Weißen Haus oder irgendeiner direkt in Klima- und Energiepolitik involvierten Agentur verifiziert worden ist“, sagte ein Mitarbeiter des Weißen Hauses der DCNF. „Wie schon von anderer Seite angemerkt – und das sollte die NYT mitbekommen haben – wurden Entwürfe dieses Reports schon vor Monaten veröffentlicht und weit verbreitet während des Zeitraumes der Kommentierung seitens der Öffentlichkeit. Das Weiße Haus wird sich eines Kommentars vor dem geplanten Termin der Veröffentlichung enthalten“. Soweit der Beamte des Weißen Hauses.

Nach all dem hat die NYT einen „durchgesickerten“ Report gebracht. Aber an der NCA beteiligte Klimawissenschaftler haben gesagt, dass es zwischen den beiden Entwürfen kaum substantielle Unterschiede gebe. Die endgültige Fassung wird nicht vor dem nächsten Jahr erwartet.

Die Washington Post fügte zu den Bemerkungen Hayhoes hinzu, dass „die Version beim Weißen Haus der fünfte Entwurf ist, aber Personen, die beide Versionen kennen sagen, dass es keinen substanziellen Unterschied gibt.“

Link: https://wattsupwiththat.com/2017/08/09/nyt-caught-switching-out-documents-to-fix-botched-climate-change-article/

Übersetzt von Chris Frey EIKE