Es ist schlimmer als gedacht: Erwärmung geringer als prophezeit

In der Klimadebatte jedoch ist es immer erhellend, das Kleingedruckte zu lesen. Es ist unüblich, dass die offizielle Klimatologie ihre zahlreichen Fehler und Irrtümer einräumt. Stattdessen wird uns verordnet, dem „Konsens“ zu gehorchen, mit welcher Bezeichnung die Parteilinie heutzutage daherkommt. Nach der Lektüre der Schlagzeilen kam mir sofort der Verdacht, dass das wirkliche Ziel der jüngsten Eingeständnisse die Minimierung und folglich die Verschleierung der wahren Größenordnung der Über-Prophezeiungen der Vergangenheit ist. Die Studie stammt von Millar et al. und ist in der jüngsten Ausgabe von Nature Geo“science” veröffentlicht.

Die Daily Mail berichtete folgendermaßen über die jüngsten Ergebnisse:

„Die Forschungen britischer Wissenschaftler zeigen, dass den alten Projektionen zufolge die Welt derzeit 1,3°C wärmer sein sollte als das Mittel zur Mitte des 19. Jahrhunderts. Die neue Analyse zeigt nun aber, dass es lediglich 0,9°C bis 1,0°C wärmer geworden ist. Michael Grubb, Professor für internationale Energie [?] und Klimawandel am University College London gab zu, dass die alten Projektionen falsch waren“.

Es gab seit 1850 lediglich eine Erwärmung um 0,85°C, ermittelt mit einer linearen Regression kleinster Quadrate des Trends in den monatlichen HadCRUT4-Daten. Diese nicht wirklich aufregende Rate ist äquivalent mit etwa einem halben Grad pro Jahrhundert. Unterzieht man diesen Teil des Statements von Grubb dem Faktencheck, zeigt sich, dass seine beobachtete Erwärmung um 0,9°C bis 1,0°C auf der hohen Seite liegt, aber nicht um sehr viel.

Wie wir sehen werden, hat die Millar-Studie die Erwärmung erheblich unterschätzt, die prophezeit worden wäre, und zwar mit der Aussage darin, dass die offizielle Klimatologie lediglich 1,3°C globale Erwärmung seit 1850 prophezeien würde. Nicht zufällig gibt es in der jüngsten Ausgabe von Nature Geovoodoo [!] auch eine kurze Studie von Gunnar Myhre, welcher mit einem Vergleich von drei Klimamodellen im Jahre 1998 zu dem Ergebnis gekommen war, dass der CO2-Antrieb zuvor um 15% überschätzt worden ist. Aus Myhres jüngster Studie:

„Der kombinierte Strahlungsantrieb aller gut durchmischten Treibhausgase (der non-consensers [?]), besonders CO2, Methan, Stickoxid und Spuren von Kohlenwasserstoffen) betrug 3,1 W/m² Strahlungsantrieb…“, und nahezu alles dieses Antriebs ereignete sich seit 1850.

Um zu bestimmen, eine wie starke globale Erwärmung die offizielle Klimatologie als Reaktion auf einen Strahlungsantrieb von 3,1 W/m² prophezeien würde, sollten wir das offizielle „Null-Dimensions-Modell“ heranziehen [zero-dimension-model]. Die Gleichung dieses Modells ist verblüffend einfach. Darin stehen w, W jeweils als prä- und post-feedback globaler Erwärmung (d. h. „Referenz-Sensitivität“ und „Gleichgewichts-Sensitivität“) und f als Feedback-Faktor:

Und kann man gut und gerne aufgeschreckt – ja tatsächlich schockiert – sein, dass die Gleichung der offiziellen Klimatologie herangezogen wird, um uns zu sagen, wie viel Erwärmung es geben würde, derartig einfach ist. Warum zahlen wir Milliarden pro Jahr an das IPCC, wenn sich alles auf diese sinnfreie Gleichung reduziert? Nichtsdestotrotz möchte ich sie hier betrachten, um zu demonstrieren, dass – so naïv und falsch wie sie ist – sie tatsächlich das ist, was die Klimatologie derzeit heranzieht.

Verwendet man als Input die offiziellen Werte für w, f, spuckt die Gleichung pflichtgemäß die offiziellen Prophezeiungen der Gleichgewichts-Sensitivität W aus. Indem sie sich auf das IPCC (2013) für die offizielle Diagnose der globalen Erwärmung stützen, prophezeit von der jüngsten Generation von Computermodellen, sagen Vial et al. 2013, dass etwa 85% der Unsicherheit in der Gleichgewichts-Sensitivität W aus der Unsicherheit in der Feedback-Summe c resultiert, was der offiziellen Art und Weise nach, mit der alles durchgeführt wird, einfach gleich ist mit c geteilt durch 3,2 K pro Watt pro Quadratmeter.

In Wirklichkeit haben Feedbacks nur einen geringen Einfluss auf Erwärmung, wie wir demnächst demonstrieren zu können hoffen, so dass die einzige Unsicherheit die Größenordnung des Antriebs ist. Aber unsere Studie mit dem Nachweis dieses Tatbestands wartet immer noch die Kommentare der Begutachter, welche seit nunmehr drei Wochen überfällig sind. Daher sollten wir es vorerst einfach noch der offiziellen Weise nach machen, obwohl dies unerhört im Widerspruch zur Mainstream-Wissenschaft steht – und zu Experimenten, die wir einem Regierungs-Laboratorium in Auftrag gegeben haben und die in allen Einzelheiten bestätigt haben, dass wir die Mainstream-Wissenschaft richtig verstanden haben und die offizielle Klimawissenschaft nicht.

Folglich geht die Kalibrierung der Gleichung des Null-Dimensions-Modells weiter. Das IPCC (2013, Abb. 9.43) verweist auf Vial et al. 2013, der offiziell die Feedback-Summe c diagnostiziert hat aus einer simulierten abrupten Vervierfachung der CO2-Konzentration in 11 Modellen der 5. Generation. Der Mittelwert für c der 11 Modelle beträgt 1,57 W/m²K, was eine Schätzung der mittleren Bandbreite von 0,49 für f impliziert. Vial gab auch die 2 σ-Grenzen von f an als mid-range estimate von ± 40%. d.h. 0.49 ± 0.20; und der implizite CO2-Antrieb unter atypischem Einschluss schneller Feedbacks betrug 4,5 W/m².

Die direkte Erwärmung w bei einer CO2-Verdoppelung bei Vial beträgt folglich 4,5 / 3,2 = 1,41°C, liegt also etwa um 20% über dem vom IPCC angeführten Wert von 1,16°C. Mit f = 0,49 und w = 1,41°C ergibt die Gleichung des Null-Dimensions-Modells ein Intervall von Gleichgewichts-Sensitivitäten W von 2,0 bis 4,5°C als Reaktion auf eine Verdoppelung des CO2, wie in der folgenden Tabelle fett gedruckt dargestellt. Da die Werte der Gleichung aus offiziellen Inputs stammen und fast perfekt inhaltsgleich mit vielen offiziellen Intervallen sind, ist die Gleichung ordnungsgemäß kalibriert. Ob man es mag oder nicht (man sollte nicht!) – dies ist das, was die Kräfte der Dunkelheit verwenden.

Die einzige Diskrepanz liegt in der zentralen Schätzung der globalen Erwärmung post-feedback, wo das Null-Dimensions-Modell 2,8 K prophezeit und die veröffentlichten offiziellen Schätzungen 3,3 K prophezeien.

Zu der Diskrepanz kommt es, weil die offizielle Klimatologie manchmal vergisst, dass die Kurve der Gleichung des Null-Dimensions-Modells keine gerade Linie, sondern eine rechteckige Hyperbel [rectangular hyperbola] ist (siehe oben). Verwendet man die offizielle Bandbreite des IPCC von 3,0 (1,5;4,5)°C als die prophezeite Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung, impliziert eine mid-range-Schätzung f = 0,49 für den Feedback-Faktor eine mid-range-Schätzung von 2,25°C für die post-feedback globale Erwärmung, nicht die den Vorstellungen des IPCC folgenden 3°C und vor allem weniger als die 3,3°C mid-range-Projektion der CMIP5-Modelle.

Man kann daher die implizite mid-range-Schätzung der post-feedback-Erwärmung in den Modellen der 5. Generation bestimmen mittels Verwendung der Gleichung des Null-Dimensions-Modells. Ist die direkte oder pre-feedback-Erwärmung w als Reaktion auf eine Verdoppelung der CO2-Konzentration 1,16 K und die post-feedback-Erwärmung W wie von den CMIP5-Modellen prophezeit 3,3 K, ist der in dieser Prophezeiung implizit enthaltene Feedack-Faktor 1 – (1.16 / 3.3) = 0.65.

Jetzt haben wir genug Informationen, um die globale Erwärmung zu ermitteln, welche die CMIP5-Modelle prophezeien würden als Reaktion auf einen Strahlungsantrieb von den 3,1 W/m² aus allen anthropogenen Quellen, welche Myhre 2017 zufolge seit etwa 1850 im Gange ist. Die direkte Erwärmung beträgt einfach 3,1/3,2 oder etwa 1°C. Zieht man jetzt die inzwischen kalibrierte, aber verworfene [dump] offizielle Gleichung des Null-Dimensions-Modells heran wie oben beschrieben, beträgt die post-feedback-Erwärmung, welche die CMIP5-Modelle seit 1850 prophezeit hätten, 1 / (1 – 0.65) oder 2.75 C°, wäre also mehr als doppelt so hoch wie die in der Millar-Studie erwähnten 1,3°C und über dreimal so hoch wie die tatsächlich eingetretene Erwärmung von 0,85°C.

Zum Vergleich, unsere korrigierte Version der Gleichung des Null-Dimensions-Modells würde 1,2°C Erwärmung prophezeit haben als Reaktion auf 3,1 W/m² anthropogenen Antriebs seit 1850, was weit näher an den 0,85°C liegt, die tatsächlich gemessen worden sind, als der Wert der offiziellen Klimatologie von 2,75 K.

Man kann eine ähnliche Analyse durchführen auf der Grundlage der Aussage vom IPCC 2013, dass es einen anthropogenen Strahlungsantrieb von 2,3 W/m² seit vorindustrieller Zeit gegeben habe, was eine Erwärmung um 2,05°C bis heute impliziert oder fast dreimal der Wert von 0,75°C von 1850 bis 2011 aus dem HadCRUT4-Datensatz. Unsere Gleichung hätte 1,0°C prophezeit, was erneut weit näher an der beobachteten Realität liegt als die offizielle Gleichung prophezeit hätte.

Oder man könnte die zentrale Prophezeiung des IPCC aus dem Jahr 1990, der zufolge es während der 36 Jahre von 1990 bis 2025 eine Erwärmung um 1°C gegeben habe (äquivalent zu 0,75°C während der 27 Jahre von 1990 bis 2016), vergleichen mit der tatsächlichen Erwärmung von 0,45°C während dieses Zeitraumes, gewonnen aus dem Mittel von zwei terrestrischen und zwei Satelliten-Datensätzen. Erneut zeigt sich, dass die unseriös erstellte offizielle Prophezeiung eine substantielle Übertreibung ist im Vergleich mit dem beobachteten Ergebnis, aber unsere korrigierten Modelle kommen der Wahrheit viel näher, zeigen diese doch eine Erwärmung um 0,37°C, was weit näher an den gemessenen 0,45°C liegt als die vom IPCC prophezeiten 0,75°C.

Professor Myles Allen von der Oxford-University wird von der Daily Mail mit den Worten zitiert, dass falls die Welt den „ambitionierten“ Reduktionen der CO2-Emissionen folgen würde, man nicht einmal ansatzweise der unwissenschaftlichen Festlegung des Paris-Abkommens nahekommen würde, den globalen Temperaturanstieg auf 1,5°C über den vorindustriellen Wert zu begrenzen, was äquivalent ist mit einem Wert, der um 0,65°C über dem derzeit gemessenen Wert liegt.

Allerdings wird die CO2-Konzentration den heutigen Trends folgend bis zum Jahr 2100 von 400 auf 650 ppmv steigen mit der Folge einer direkten Erwärmung von 0,8°C und einem weiteren Beitrag von 0,2°C durch Temperatur-Rückkopplungen. Das 1,5°C-Ziel wird also nicht einmal dann erreicht, wenn wir unsere Mainstream-Gleichung an Stelle der unbrauchbaren Gleichung der offiziellen Klimatologie verwenden.

Es sei denn, die Profs. Harde und Happer haben recht, dass der CO2-Antrieb ebenso wie die Rückkopplungen, auf die sich unsere Studie konzentriert, übertrieben ist. Prof. Harde hat geschätzt, dass er um 30% übertrieben ist; Prof. Happer kommt sogar zu 40% Übertreibung aus anderen Gründen, die sich nicht mit dem Ergebnis von Prof. Harde überlappen. Falls beide recht haben, hätte man den CO2-Antrieb um 82% überbewertet. Falls wir auch recht haben, würde die direkte Erwärmung in diesem Jahrhundert 0,45°C betragen mit einem Zusatzbeitrag von 0,1°C aufgrund der Rückkopplungen. Zwar gibt es noch andere Treibhausgase, doch werden diese durch negative anthropogene Antriebe genau ausgeglichen, so dass selbst ohne jede Bemühung zur Abschwächung [der Emissionen] das Paris-Ziel bis zum Jahr 2100 in Wirklichkeit auf jeden Fall erreicht werden würde. Und falls sich die Welt wirklich um über 0,65°C im Vergleich zu heute erwärmen würde, dies jedoch nicht bis nach dem Jahr 2100, wäre die Erwärmungsrate viel zu gering, um gefährlich zu sein. Es besteht einfach kein Bedarf für das UNFCCC oder das IPCC. Auf den Müll mit beiden!

Die offizielle Klimatologie hat ihre Prophezeiungen drastisch übertrieben. Ihre unqualifizierten Versuche, das wahre Ausmaß der Diskrepanz zwischen übertriebener Prophezeiung und der nicht aufregenden Beobachtungen zu verstecken wird scheitern. Diese Diskrepanz ist hauptsächlich Fehlern bei der Berücksichtigung von Rückkopplungen im Null-Dimensions-Modell und daraus folgend in den dreidimensionalen Modellen geschuldet, deren Outputs die einfache Gleichung gnädig reproduziert, was ihre Wirksamkeit als Blackbox-Diagnose zeigt. Korrektur der Fehler in der offiziellen Gleichung erzeugt Prophezeiungen, die weit weniger extrem und weit näher an der Beobachtung in der realen Welt daherkommen als die wilden Übertreibungen auf der Grundlage, auf der regierungsamtliche und internationale Gebilde bis heute so profitabel Panik erzeugt haben.

Obwohl die Millar-Studie das wahre Ausmaß der offiziellen Übertreibungen verschleiert, worauf Forderungen nach „Klima-Maßnahmen“ beruhen, stellt sie doch auf einer anderen Ebene einen frühen Riss im Damm dar, der zeigt, dass die gesamte Konstruktion des Unsinns drauf und dran ist zusammenzubrechen. Nur Mut! Die Wahrheit, dass die globale Erwärmung gering, harmlos und insgesamt vorteilhaft sein wird [so es sie überhaupt geben wird, Anm. d. Übers.] wird schon bald über die schreienden Extremisten triumphieren. Die Millar-Studie ist nicht der Anfang vom Ende, aber zumindest das Ende des Anfangs.

Link: https://wattsupwiththat.com/2017/09/26/its-worse-than-they-thought-warming-is-slower-than-predicted/
Übersetzt von Chris Frey EIKE




Googles Such-Einstellung gegenüber konservativen News-Seiten wurde quantifiziert

Abstrakt

Der Prozentsatz des Domainverkehrs, der von Google Search ausgewiesen wird, abgesehen von Recherchen nach Handelsmarken (PGSTN), liegt in oder um den Bereich 25% -30% für eine breite Klasse von Web-Domains. Diese Hypothese wird durch die Berechnung der Korrelation zwischen der Popularität von Webseiten für Nachrichten / Meinungen und ihrer PGSTN getestet, und befindet sich in der Nähe von Null. So kann PGSTN streng genutzt werden, um die vorsätzlich Suchalgorithmen der Google-Suche zu erkennen und sogar zu quantifizieren. Der Intentional Bias [die absichtliche bzw.  vorsätzliche Ausrichtung – ist dem Sinn nach doppelt gemoppelt, denn eine Ausrichtung / Einstellung ist immer absichtlich; daher gilt das auch für „Bias“ allein; Danke an unseren Leser Herrn Fred F. Müller – update vom 07.10.17] ist der Bias, der durch interne Google-Vorgaben eingeführt wurde und unabhängig von externen Faktoren ist, wie die Dominanz [~ Häufigkeit] von bestimmten Standpunkten im Web. Hier wird die PGSTN-Methode für die absichtliche Bias-Erkennung bei der Klimadebatte und für den allgemeinen politischen Diskurs angewendet.
Die Google-Suche ist äußerst voreingenommen für Klimaschutz und gegen den Realismus des Klimas. Die PGSTN-Bereiche für Klima-Realismus und Klima-Alarmismus überlappen sich nicht einmal! Einige der wichtigsten klimarealistischen Domains, darunter die nur wenig umstrittene judithcurry .com , haben eine so niedrige PGSTN, dass sie als auf der „schwarzen Liste“ von Google gelistet angesehen können.
Es wurde herausgefunden, dass die Google-Suche links / liberale Domains bevorzugt und gegen konservative Domains eingestellt ist – mit einer Wahrscheinlichkeit von 95%. Weiterhin haben bestimmte Extrem-Links-Domains so ein hohes PGSTN, dass der Verdacht besteht, dass sie für eine prominente Platzierung handverlesen wurden. Bestimmte respektierte konservative Domänen sind auf der schwarzen Liste.
 

[Hinweis zur Übersetzung:

Für die Abkürzung: PGSTN habe ich nur weitschweifige Erklärungen gefunden. Es scheint mir, dass das die Abkürzung für bestimmte Verfahren / Begriffe in der Statistik ist. Im Sinn der Studie kann man es mit „Häufigkeit der Ergebnisanzeige“ gleichsetzen, oder wie im ersten Satz: „Prozentsatz des Domainverkehrs“ – Vielleicht weiß einer unserer Leser näheres.]

Einführung

Links-liberale politische Bias in der Google-Suche wurden seit Jahren bemerkt. Siehe Robert Epstein et al., Eine Methode zur Erkennung von Bias in Such-Rankings, mit Nachweis der systematischen Bias im Zusammenhang mit der Präsidentschaftswahl 2016 ; Todd Dunning’s 2015-09-15 Kommentar ; Leo Goldstein, Warum sind Suchmaschinen so feindlich gegen den Realismus?
Diese Beobachtungen haben die Frage nicht vollständig gelöst, ob die Bias vorsätzlich so eingestellt sind oder den voreingenommenen Webinhalt widerspiegelte. In letzter Zeit zeigen die offiziellen Suchbewertungsrichtlinien von Google eine vorsätzliche Ablehnung gegen den Klimarealismus. Immerhin bestätigte ein ehemaliger Google-Mitarbeiter eine absichtliche Ablehnung von „allem Nicht-PC“  [nicht-political correctness] durch das Google Search-Team.
Dieses Studie verwendet veröffentlichte SEO-Daten [Suchmaschinen Optimierungs-Daten] aus mehreren Quellen, darunter BrightEdge Research, 2017: Organische Suche ist immer noch der größte Kanal und aktualisiert seinen Bericht 2014 . Von nun an, bedeutet der Begriff “ Bias“ vorsätzliche Vorspannung. Diese Studie formuliert, begründet und wendet eine quantitative Methode der Bias-Erkennung in Google Search an.

Methoden

Es ist bekannt, dass die Google-Suche 25% -30% der Suchkriterien der [bisherigen] Nutzer für eine durchschnittliche Website bietet. Wie Googles Führungskräfte und die Google Werbung viele Male wiederholt feststellen, [soll] der Google Search Service die relevantesten und nützlichen Ergebnisse für die Abfragen des Benutzers liefern. Der Google-Vorsitzende Eric Schmidt scherzte sogar, dass es für jede Abfrage nur ein Ergebnis geben sollte – das Ergebnis, das der Benutzer sucht. Google-Server durchstreifen das gesamte Web, extrahieren Text, Links und andere Daten aus Billionen von Seiten. Google kämpft ständig und erfolgreich gegen Versuche, Websites durch abgekartete Verknüpfung und andere Suchmaschinen-Optimierung Techniken künstlich zu fördern.
In seinen Unternehmen verwendet Google auch eine enorme Menge an Off-Web-Informationen, die er durch Chrome-Browser, andere Google-Anwendungen und -Dienste, Analysen der„Leuchtfeuer“, Domains-Registrier-Status und so weiter sammelt. Diese Informationen beinhalten die Popularität und Besitz der Domains. Google verarbeitet auch die spontane Rückmeldung von den Benutzern in Form von Häufigkeit der Klicks auf die Ergebnisse, Weiterklicks (~ zappen], die Häufigkeit wiederholter Recherchen mit geänderten Begriffen usw.
Google ist dabei sehr gut in seinem Job. Websites und Domains, die bei den Besuchern in der Regel weniger beliebt sind, werden als weniger wahrscheinlich eingeschätzt, um von Google angezeigt zu werden und umgekehrt. Der Effekt ist, dass der Prozentsatz der Daten-Recherche, den Domains von Google Search erhalten, über alle Web-Domains ähnlich ist.
Diese Tatsache wird dargestellt, durch die nahezu „null Korrelation“ zwischen der Popularität der Domänen und dem Prozentsatz des Netzverkehrs, den sie von Google in jedem der Sätze der linken / liberalen Medien und konservativen Medien erhalten, trotz der Domänen-Popularität (nach Alexa.com, niedrigere Werte bedeuten höhere Beliebtheit [~Rangfolge]), von 24 bis 1.469 für die links / liberalen Medien-Set, und von 56 bis 12.795 für die konservativen Medien. Der „Verkehr“ von Google-Anzeigen liegt bei etwa 5% des gesamten Google-Traffic, also ist es kein Faktor.
“Net Traffic“ [~Netzverkehr], wie in dieser Forschung verwendet, schließt den Netzverkehr aus, bei dem die Nutzer gezielt mit Namen suchen, wie „foxnews“ oder „fox news“ oder „foxnews .com“. Net Traffic reflektiert Googles Absicht besser, weil die Google-Suche nicht viel Auswahl hat, wenn der Benutzer nach einer Website mit ihrem Namen oder Marke sucht. www.Alexa.com bietet Informationen, die PGSTN-Berechnung für Hunderttausende von Web-Domains ermöglicht.
Angesichts der Robustheit der PGSTN, schließe ich, das die statistisch signifikanten Unterschiede in PGSTN zwischen den a priori definierten Sätzen von vergleichbaren Domains auf absichtliche Bias von Google zurückzuführen ist, es sei denn, es gibt eine andere gute Erklärung.
 

Methodische Details

Alle Daten in dieser Recherche basieren auf Schnappschüsse von Alexa (freie Version) vom 4. September 2017. Für jede Domain wurde Google Search Total aus der „Upstream Site“ Tabelle entnommen – Welche Seiten haben die Leute unmittelbar vor dieser Seite besucht.
Die Anzahl der Recherchen nach Namen wurde von der Tabelle genommen „Top Keywords von Suchmaschinen“ – „Welche Suchschlüsselwörter senden den Traffic auf diese Seite? „.Es sollte beachtet werden, dass nur fünf Top-Werte, die in den freien Alexa-Schnappschüssen erscheinen, verwendet wurden. Alle in der Tabelle gezeigten Google-Suchdomänen wurden aufgenommen (google.com, google.ca, google.de, google.co.in etc.) Wenn die Gesamtmenge des Datenverkehrs nach Namen weniger als 5% betrug, wurde der Wert 1% eingegeben. PGSTN wurde durch Abzug von Namen-Suchverkehr aus dem gesamten Google-Suchverkehr berechnet.
Es wird nicht erwartet, das PGSTN ausreichende Sicherheit für einzelne Domains bietet, weil mehrere Faktoren das beeinflussen, einschließlich möglicher Fehler in den Alexa Daten. Trotzdem wurde die Google-Einstellung gegenüber einer Domain vorläufig in der beigefügten Kalkulationstabelle PGSTN-Domains.xlsx  [Link zu einer Excel Mappe] wie folgt kodiert:
Whitelist / Grüne Zahlen:> 36%
Normal: 20% -36%
Graue Zahlen: 12% -20%
Blacklist: <= 12%
Es wurde erwartet, dass die meisten Domains (basierend auf der zitierten SEO-Forschung) PGSTN im Bereich von 20% -36% haben. Diese Erwartung wurde erfüllt. PGSTN <= 12% gibt vorläufig an, dass die Domain von Google aufgeführt ist. Alles zwischen der schwarzen Liste und dem normalen Bereich gilt als grauer Bereich. Schließlich zeigt PGSTN> 36% vorläufig eine ungewöhnliche Bevorzugung durch Google an.
 

Google Bias in der Klimadebatte

Die Domains wurden meist nach Alexa-Klassifikation ausgewählt. Der Nachweis extremer Bias Google-Suche machte gegen Domains des Klima-Realismus keine statistischen Methoden erforderlich.

Häufigkeit der Anzeige bestimmter Webseiten als Ergebnis von Suchanfragen
Bezeichnung der Gruppen: Fakten Prüfer; Hassseiten, andere Klima Alarmisten, Klima Realisten
Es gibt eine große Lücke zwischen PGSTN von Realismus-Domains (6,3% – 17,4%) und PGSTN von Klima-Alarmismus-Domains (23,5% -52,4%). Die Lücke beträgt 6,1%. Mit Ausnahme von drroyspencer.com werden alle Klima-Realismus-Domains von Google aufgeführt (PGSTN ist 6,3% – 11,0%).
Auf der anderen Seite haben selbst ernannte „fact checker„, darunter snopes.com und politifact.com, PGSTN von etwa 50%. Dieses schürt den Verdacht, dass sie von Google für die Priorisierung handverlesen worden waren. Weitere zwei Webseiten mit verdächtig hohem PGSTN sind Quellwatch.org (PGSTN = 50.1%) und prwatch.org (PGSTN = 40.9%). Diese beiden Seiten tauschen ihre Links gegenseitig aus (sie beziehen sich jeweils aufeinander als Quelle), haben überlappende Inhalte und es ist bekannt, dass sie der gleichen Organisation, dem Center for Media and Democracy [Zentrum für Medien und Demokratie] angehören. Dieses sind bekannte Anzeichen von Spam – doch Google hat es nicht nur geschafft, sie als Spam nicht erscheinen zu lassen, sondern sie sogar manuell zu priorisieren.
Dieser Abschnitt schießt netrootsnation.org mit ein, eine radikale linke Seite mit [Aufzeichnungen ~podcasts] verschiedener Tagungen, ist nicht speziell auf Klimaalarmismus ausgerichtet. Sein PGSTN = 44,5%. Diese Domain hätte handverlesen sein können oder ihre Besitzer wurden von Google-Insidern beim Spielen mit der Rangliste beraten. Google hat die Konferenzen finanziert, und die Google-Vertreter haben es besucht und Vorträge zu relevanten Themen gemacht, wie dieses – Ein Zitat:

 „Wir werden einige Möglichkeiten teilen, um die Macht von Online-Videos zu nutzen und wie man Google und YouTube-Tools mit anderen Interessenvertretungen integrieren kann.“

Alle anderen alarmistischen Domains haben PGSTN im Whitelist oder Normalbereich.
 

Google Bias im allgemeinen politischen Diskurs

Zur Quantifizierung von Google allgemeiner politischer Einstellungen, wählte ich Webseiten von Top-US-Nachrichten und Meinungsseiten nach ihrem Ranking in Alexa. Dann fügte ich einige konservativen Websites ein, mit niedrigerem Ranking basierend auf meinem persönlichen Wissen und / oder Alexa Vorschläge. Es gab ein Element der Subjektivität bei der Auswahl und Klassifizierung  und ich habe einige Domains weggelassen, die ich nicht klassifizieren konnte. Trotzdem wurden die populärsten Domains sowohl in links / liberal (einschließlich Links, Mainstream Liberal und Mainstream Center) als auch in konservativen (einschließlich konservativen und Mainstream konservativen) Kategorien ausgewählt und eingestuft. Die Verwendung von gewichteten Statistiken minimiert das Element der Subjektivität in die Ergebnisse.

Die Ergebnisse zeigen, dass die Google-Suche stark gegen konservative Domänen voreingenommen ist. Einige respektable konservative Domänen scheinen auf der schwarzen Liste zu sein;
thegatewaypundit.com
pjmedia.com
americanthinker.com
redstate.com
powerlineblog.com
drudgereport.com
Es könnte eine alternative oder zusätzliche Erklärung für niedrige PGSTN des Drudge Report sein – diese Website besteht hauptsächlich aus Links zu Artikeln auf anderen Seiten, eine Praxis, die Google unterdrückt.
Im Durchschnitt erreichen die konservativen Domänen eine fast zwei Mal niedrigere PGSTN als die links / liberalen: konservative 15,5% (Standardabweichung 5,1%) gegenüber links / liberal 27,4% (Standardabweichung 4,9%). Die Hypothese der Google-Suche links / liberale Bias wird mit einer Wahrscheinlichkeit von 95% bestätigt.
 

Diskussion

Obwohl die PGSTN von einzelnen Domänen für Schlussfolgerungen nicht ausreicht, kann ich nicht vermeiden festzustellen, dass extremistische Webseiten wie dailystormer.com (PGSTN = 13,6%; existieren zum Zeitpunkt der Untersuchung nicht mehr) und dailykos.com (PGSTN = 20,2%) von Google gegenüber vielen konservativen und Klima-realistischen Domains bevorzugt werden.
 

Schlussfolgerungen

Google-Suche ist zugunsten von links / liberalen Webseiten gegen konservative Webseiten voreingenommen und ist zugunsten des Klimaalarmismus gegen den Klimarealismus äußerst voreingenommen.
 

Offenlegung

Ich habe Short-Positionen in Google-Aktien [d.h., er spekuliert auf fallende Kurse]
 

Referenzen

Die Referenzen sind im Text des Artikels.
 

Zusatzmaterialien

Alexa Schnappschüsse sind abrufbar unter https://defyccc.com/data/PGSTN-Snapshots.7z (komprimiert mit 7-Zip).
 
Erschienen auf WUWT am 08.09.2017
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2017/09/08/a-method-of-google-search-bias-quantification-and-its-application-in-climate-debate-and-general-political-discourse/
 




Diesel-Verteufelung: Krieg gegen das eigene Volk – Die Lückenmedien im Glashaus (5)

In den bisherigen Teilen dieses Aufsatzes [Teil 1, Teil 2, Teil 3, Teil 4] wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und mafiöse Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden aufgedeckt. Der jetzige fünfte Teil beschäftigt sich mit der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen.
 

Stickoxide – wie man den Teufel an die Wand malt

Im nächsten Abschnitt ihres „Faktenfinders“ wenden sich die Autoren wieder der Frage zu, wie gefährlich denn die von diversen Quellen emittierten Stickoxide für die menschliche Gesundheit seien. Stickoxide (d.h. NO und NO2), so steht es im „Faktenfinder“, seien nachweislich Umweltgifte, welche die Gesundheit von Menschen akut gefährden. Insbesondere Stickstoffdioxid sei als Reizgas mit stechendem Geruch bereits in geringen Konzentrationen wahrnehmbar. Der „überwiegende medizinische Konsens in der Umweltmedizin“ gehe davon aus, dass kein Schwellenwert benannt werden könne, der langfristige gesundheitliche Folgen von NO2 auf den Menschen ausschließe. Und dann kommt es knüppeldick: Da ist von erhöhter Sterblichkeit, Lungenkrebs sowie chronischen Atemwegsbeschwerden wie Asthma die Rede, was durch verschiedene Studien belegt werde. Zwar wird zugegeben, dass es „auch“ Wissenschaftler gebe, die diesen Studien widersprechen, doch gehe insgesamt die Mehrheit der Mediziner davon aus, dass Stickoxide einen wesentlichen Beitrag zu Atemwegserkrankungen beim Menschen leisteten. Und dann wird noch die Europäische Umweltagentur angeführt, die für das Jahr 2012 die Zahl von 10.400 Todesfällen in Deutschland durch Stickstoffdioxid berechnet haben will [HORREEA]. Diese Falschdarstellungen sind so massiv und gehen so eindeutig an den Fakten vorbei, dass man sich damit eingehend auseinandersetzen muss.

Bild 2. NOx-Verbindungen entstehen ständig in der Natur, z.B. durch Blitze oder bei Waldbränden (Foto: Pixabay)


Das Märchen vom „Umweltgift NO2
Im Teil 3 dieses Beitrags war bereits gezeigt worden, dass der Begriff „Giftigkeit“ beim NO2 in den Konzentrationsbereichen, die in der Stadtluft auftreten, nicht zutrifft. Selbst an den am stärksten belasteten Hot-Spots liegen die mittleren Jahreskonzentrationen unter 90 µg/m3, und die Zahl der Stunden, an denen der Grenzwert von 200 µg/m3 überschritten wird, tendiert rapide gegen Null. Da sich niemand 24 Stunden am Tag genau an den wenigen, bewusst wegen ihrer hohen Abgaskonzentrationen ausgewählten Hot-Spot-Messpunkten aufhält, liegt die mittlere Belastung nahezu der gesamten Bevölkerung unter dem Immissionsgrenzwert von 40 µg/m3. Auf Ausnahmen wird weiter unten noch eingegangen. Das einzige, was an dem Passus der Faktenfinder zur Wirkung von NO2 auf den Menschen stimmt, ist daher die Bezeichnung „Reizgas“. Aber auch diese Wirkung ist unterhalb der 60 µg/m3, der für Büro- und Privaträume gilt, auf jeden Fall medizinisch unerheblich.
Hervorzuheben ist bei der Aussage der „Faktenfinder“ daher zunächst die Verwendung des Begriffs „Umweltgift“. Damit wird suggeriert, dass es sich um einen widernatürlichen, erst vom Menschen erzeugten Stoff handelt, der in der Natur nicht vorkommt und dieser schadet. Nichts könnte falscher sein: Stickoxide sind Teil natürlicher Kreisläufe, und sie werden gebraucht, denn ohne Stickstoff(dünger) gäbe es keine Pflanzen [BLIE] und auch keine Tiere, denn unser Körper braucht Stickstoff, um die lebenswichtigen Proteine aufzubauen, Bild 3.

Bild 3. Alle Proteine des Körpers enthalten Stickstoff, der über natürliche Kreisläufe via NO2-Bildung in der Atmosphäre über die Pflanzen aufgenommen wird. In dieser Strukturformel des Proteinbausteins Tetrapeptid sind die vier Stickstoffatome durch rote Punkte hervorgehoben (Grafik: Wikipedia, Jü)


Auch eine weitere, neuere Untersuchung belegt, dass die aus natürlichen Quellen stammenden Stickoxidmengen diejenigen aus modernen Diesel-PKW sogar um ein Vielfaches übertreffen [LEIS]. Verkehrsbedingte NO2-Emissionen sind nur in wenigen, von grün inspirierten Verwaltungen mit Bedacht ausgesuchten Bereichen mit starkem Verkehrsaufkommen und stark behindertem Luftaustausch überhaupt ein Thema. An der freien Atmosphäre werden die Emissionen schnell auf ein unkritisches Maß verdünnt und innerhalb weniger Tage aus der Luft entfernt. Dieser Abbau erfolgt teils durch Anlagerung an Oberflächen, teils durch Regen, der das NO2 zusammen mit Stäuben und sonstigen Belastungen aus der Luft regelrecht auswäscht.
 

Bild 4. Ein Skript der TU Darmstadt unterstreicht die große Bedeutung natürlicher Quellen für den Stickstoffkreislauf zwischen Atmosphäre, Boden und Gewässern (Grafik: [TUDA])

Die Verwendung des Begriffs „Umweltgift“ durch die Autoren des „Faktenfinders“ belegt somit lediglich zwei Dinge: Eine mangelhafte Recherche und den Versuch, vorhandene Unkenntnis durch Verwendung eines nicht zutreffenden, aber stark negativ besetzten Begriffs zu übertünchen.
 

Die Lüge vom überwiegenden medizinischen Konsens

Im nächsten Passus des „Faktenfinders“ steht dann die Behauptung: „Der überwiegende medizinische Konsens in der Umweltmedizin geht davon aus, dass nach aktuellem Kenntnisstand kein Schwellenwert benannt werden kann, der langfristige gesundheitliche Folgen von NO2 auf Menschen ausschließt“.
Hierzu ist zunächst anzumerken, dass die Behauptung mancher Epidemiologen, es gebe keinen unteren Grenzwert für die Gefährdung durch NO2 in der Atemluft, angesichts der Tatsache, dass es überall einen natürlichen NOx-Anteil in der Atmosphäre gibt, schlicht weltfremd ist. Sie ist nichts weiter als eine spezifische Ausprägung der LNT-Theorie (Linear No Threshold), mit der grüne „Wissenschaftler“ bei uns auch gerne die Angst vor „dem Atom“ schüren.
Zweitens haben sich die „Faktenfinder“-Autoren mit ihrer Argumentationsweise vom angeblichen „Konsens der Wissenschaft“ sehr gründlich in die Nesseln gesetzt. Sie haben wegen ihrer Unkenntnis selbst einfachster wissenschaftlicher Sachverhalte nicht begriffen, dass dieser bei Medienjournalisten beliebte Trick, mit dem gerne im Bereich der Klimawandeldiskussion gearbeitet wird, bei der Diskussion um Stickoxide nicht greift. Beim „Klimawandel“ können sie auf eine solide Wand an fest verankerten Vorstellungen zurückgreifen, um angebliche „Skeptiker“ und „Leugner“ als Unwissende, ja sogar als rückschrittliche Wissenschaftsgegner darzustellen. Stickoxide sind dagegen ein Gebiet, bei dem es um klassische, solide erforschte Themen geht. Hier sind die Zahlenverhältnisse unter den Wissenschaftlern genau umgekehrt.
Deshalb geht das Argument der „Faktenfinder“ grandios nach hinten los. Zur Untermauerung ihrer Behauptung führen sie eine Sammlung von Stellungnahmen von ganzen sieben Wissenschaftlern an [SMCE], von denen einer Mitarbeiter des UBA ist und drei aus dem Ausland kommen. An diesen Stellungnahmen fallen vor allem zahlreiche Einschränkungen wie „hätte“, „könnte“, „steht im Verdacht“ usw. auf. Konkrete Festlegungen werden dagegen meist vermieden, und die aufgeführte Literatur wird von US-Quellen dominiert. Darunter finden sich auch „Studien“ bekannter Aktivisten wie der Dr. Susan Anenberg, die mit ihrer kommerziell arbeitenden Research-Firma Environment Health Analytics eng mit den Führungsoffizieren der DUH beim „International Council on Clean Transportation“ [ICCT] zusammenarbeitet. Dieser Artikel mit seinen rein hypothetischen Horrorzahlen wurde natürlich auch in den deutschen Medien dutzendfach zustimmend aufgegriffen und aufgebauscht [DW, MDR, WELT], Bild 5.
Die „Mehrheit der Wissenschaftler“ mit Sachkenntnis über gesundheitliche Auswirkungen von NOx findet sich in Deutschland jedoch in den beiden Fachgremien, welche für die Festlegung von Grenzwerten am Arbeitsplatz (MAK-Kommission, 36 Mitglieder) bzw. in Büros und Privaträumen (Ausschuss für Innenraumrichtwerte, 18 Mitglieder) zuständig sind. Von den von den „Faktenfindern“ aufgeführten „Experten“ ist seltsamerweise keiner überhaupt in einem dieser Gremien zu finden. Es ist seitens der „Faktenfinder“-Autoren schon eine ziemliche Dreistigkeit, diesen insgesamt 54 meist hochrangigen Wissenschaftlern, deren Kernkompetenz der Schutz der Bevölkerung vor Luftschadstoffen ist, ein derart zusammengewürfeltes Sammelsurium von wenigen Einzelmeinungen gegenüberzustellen und zu behaupten, diese repräsentierten den „überwiegenden medizinischen Konsens“ in der Frage der Gesundheitsschädlichkeit von NO2.

Bild 5. Solche unbequemen Wahrheiten des Diesel-Untersuchungsausschusses des Bundestags [BUTA] werden von den Medien totgeschwiegen. Stattdessen werden wir mit Horrormeldungen über „Diesel-Tote“ regelrecht überflutet

Frontalangriff auf den Diesel-Untersuchungsausschuss des Bundestags

Bei näherem Hinsehen fällt an der etwas konfusen Meinungssammlung der „Faktenfinder“ auf, dass diese ursprünglich wohl als „Info-Munition“ für Journalisten gegen den Bundestagsausschuss gedacht war, der sich seit 2016 mit der VW-Dieselaffäre beschäftigt hatte [BUTA] und dessen Ergebnisse einer Kamarilla aus Medienjournalisten sowie einigen eifernden Wissenschaftlern nicht passten, obwohl mit Oliver Krischer ein hochrangiger Funktionär der Grünen sogar stellvertretender Leiter dieses Ausschusses war. Der offensichtliche Missgriff der Herren Reisin und Wichmann fordert natürlich geradezu dazu heraus, sich die Schlussfolgerungen dieses derart angegriffenen Ausschusses einmal genauer anzusehen. Danach kann man die Aufregung einiger Herrschaften besser verstehen. In seinem Bericht hält der Ausschuss nämlich auf den Seiten Seiten 491 ff fest:
Die Kausalität unterstellende Aussage, jährlich würden 10.000 Menschen durch Verkehrsemissionen sterben, ist auch nach Ansicht des Ausschusses nach dem Ergebnis der Sachverständigenanhörung nicht haltbar.
– In Deutschland bestehen keine toxikologisch bedenklichen NO2-Werte in öffentlich zugänglichen Bereichen.
– Es gibt keine wissenschaftlich erwiesenen Zahlen dazu, wie viele Menschen aufgrund grenzwertüberschreitender NO2-Expositionen erkrankt oder gar gestorben sind.
– Überschreitungen von NO2-Grenzwerten an bestimmten Orten allein haben relativ wenig Aussagekraft. Es kommt vielmehr auf die an einem Ort bestehende Komposition bzw. Mischung mit anderen „Giftstoffen“ an. Der Sachverständige Professor Dr. Greim hält sogar eine Langzeitexposition von 60 µg/m3, wie sie für 0,02 Prozent der Bevölkerung Berlins an äußerst stark befahrenen Straßen Realität ist, für gesundheitlich eher unbedenklich.
– Die Wirkung von bestimmten Gasgemischen auf den menschlichen Körper steht zudem in Abhängigkeit zu weiteren Faktoren wie dem Wetter, der Aufenthaltszeit, dem Alter oder dem Gesundheitszustand.
– Deutschland nimmt im Vergleich zu anderen europäischen Staaten das Problem der Stickstoffoxidbelastung besonders ernst und prüft bewusst an kritischen Stellen. Der Sachverständige Professor Dr. Koch bemerkte hierzu: „Interessant ist übrigens, dass in anderen europäischen Ländern nicht an der ungünstigsten Stelle, sondern freistehend gemessen wird. Aus diesem Grund liefern fast alle Messstationen bereits 2010 Immissionswerte im Zielbereich des Grenzwertes von 40 µg/m3“. Umgebungsmessungen an besonders kritischen Punkten, wie sie der Sachverständige am Neckartor in Stuttgart zur Vorbereitung seiner Aussage vor dem Ausschuss vornahm, zeigen, dass eine hohe NOx-Belastung im Verkehr sich auf die Werte in der unmittelbaren Umgebung nicht negativ auswirken muss.
– Die Sachverständige Professorin Dr. Peters vom Helmholtz Zentrum München hat ausgesagt, dass[….]die wissenschaftlichen Ergebnisse bisher aber eine gesicherte lineare Expositions-Wirkungsbeziehung für Stickoxidemissionen und Erkrankungen oder Erhöhung der Sterblichkeit im Sinne einer robusten Zuweisung nicht zulassen [BUTA].

Bild 6. Zitat aus dem Abschlussbericht des Diesel-Untersuchungsausschusses des Bundestags


Angesichts dieser Schlussfolgerungen eines Ausschusses, in dem alle im Bundestag vertretenen Parteien Sitz und Stimme hatten und vor dem zahlreiche Wissenschaftler angehört wurden, muss man sich wirklich fragen, wieso die „Faktenfinder“ zu den offensichtlich völlig anderen Ansichten gekommen sind, die sie in ihrem Beitrag vertreten. Zwar ist es für einen Journalisten durchaus legitim, in Meinungsbeiträgen abweichende oder sogar sektiererische Ansichten kundzutun. Dies jedoch als neutrale Darstellung wissenschaftlich gesicherter Fakten auszugeben, wie es im vorliegenden Fall geschieht, wirft ein sehr schlechtes Licht nicht nur auf die beiden Herren selbst, sondern auch auf die Sender, die dieses Treiben wohlwollend zugelassen haben. Der „Faktenfinder“-Artikel vertritt weder die Mehrheitsmeinung der Wissenschaft noch die der Gesellschaft – in diesem Fall vertreten durch die im Bundestag vertretenen Parteien. Stattdessen vertritt er einseitig radikal-grüne Positionen. Die Sendeanstalten werden sich überlegen müssen, wieweit sie glauben, dies mit ihrem gesetzlichen Auftrag vereinbaren zu können. Journalistische Freiheit setzt doch eigentlich vom Grundsatz her Sorgfalt und Neutralität voraus.

Bild 7. Eine weitere „unbequeme Wahrheit“ des Bundestags-Untersuchungsausschusses zur Dieselaffäre


Bei Abgasthemen gibt es Wissenschaftsbetrug im großen Stil
Eher nebenher erwähnt der Bericht des Bundestagsausschusses ein grundsätzliches Problem im Zusammenhang mit der Festlegung von Grenzwerten für Gase wie NO2: Den Unterschied zwischen Toxikologie und Epidemiologie, der auch in Folge 3 dieses Artikels bereits angesprochen wurde. Der Ausschuss kommt interessanterweise zu folgendem Schluss: „Epidemiologisch ist ein Zusammenhang zwischen Todesfällen
und bestimmten NO2-Expositionen im Sinne einer adäquaten Kausalität nicht erwiesen“.
Auf die grundsätzlichen Unterschiede zwischen den Methoden der Toxikologen und der Epidemiologen wurde bereits in einer früheren Folge dieses Artikels hingewiesen. Im Bereich der Toxikologie hat sich der Stand der Erkenntnisse im Laufe der letzten Jahrzehnte kaum geändert. Deshalb halten maßgebliche Fachleute aus diesem Bereich den derzeit geltenden Immissions-Grenzwert von 40 µg/m3 für übertrieben.
Aus dem Lager der Epidemiologie überschwemmt dagegen eine regelrechte Flut negativer Stellungnahmen bezüglich der Wirkung selbst geringer NO2-Konzentrationen seit Jahren die medizinische Fachliteratur. Vor diesem Hintergrund sind auch die besonders strengen Grenzwert-Vorgaben der WHO zu sehen. Hinzu kommen die in zahllosen Behörden und politischen Organisationen etablierten „Natur- und Klimaretter“, die in Wirklichkeit unsere technische Zivilisation ablehnen. Eine besonders unheilvolle Allianz zur Verteufelung des Diesels kam darüber hinaus durch die zusätzliche Verquickung derart dominierter Institutionen mit den Interessen der US-Automobilindustrie zusammen. Für die US-Autohersteller, die dem Entwicklungsstand europäischer PKW-Dieselmotoren nichts entgegenzusetzen haben, ist dies natürlich eine willkommene Gelegenheit, die missliebige Konkurrenz auszuhebeln. Da sehr viel Geld für „dieselkritische“ Forschungsergebnisse ausgelobt wird, finden sich auch schnell Wissenschaftler, die entsprechende Berichte erstellen. Es ist ganz so wie in Deutschland, wo sich manche Hochschul- und Forschungsinstitute darin zu übertreffen versuchen, Untersuchungen über die „Machbarkeit“ der Energiewende oder der Elektromobilität fast schon wie am Fließband zu produzieren. Veröffentlichungen über die Vorteile von Kernkraft- oder Kohlestrom wären z.B. bei einem wissenschaftlichen Mitarbeiter der „Fraunhofer-Gesellschaft für Windenergiesysteme“ sicherlich nicht förderlich für die weitere wissenschaftliche Karriere….
Treibende Kraft solcher „Auftragsforschung“ war in den USA die unter Obama mit großem Einfluss und entsprechenden Finanzmitteln ausgestattete Umweltschutzbehörde Environmental Protection Agency (EPA), die auch Herausgeber umfassender Kompendien [EPA] und zugleich Taktgeber ähnlicher Initiativen vor allem im angelsächsischen Raum [CANA] war. Wohin solch massive Beeinflussung von Zuwendungsempfängern führt, wurde Anfang des Jahres 2017 deutlich, als ein groß angelegter Betrugsfall mit toxikologischen Gutachten an der Duke University in Durham (North Carolina, USA) publik wurde [DUKE]. Presseberichten zufolge musste die Universität zugeben, dass für öffentlich finanzierte Studien über Atemwegserkrankungen durch Luftschadstoffe manipulierte bzw. sogar völlig frei erfundene Daten verwendet wurden. Diese Daten wurden „in verschiedenen Veröffentlichungen und Anträgen für Forschungsförderungen“ verwendet. Dabei ging es um erhebliche Summen: In dem entsprechenden Rechtsstreit werden 112,8 Mio. US-$ für Duke sowie weitere 120,9 Mio. US-$ für andere Universitäten genannt. Bei der Untersuchung von 36 Forschungsberichten stellte sich heraus, dass viele davon Zahlen enthielten, die schlicht erfunden waren. Die aktuelle Position der WHO, die noch vor 20 Jahren eine Innenraumkonzentration von 150 µg/m3 während 24 h für vertretbar erachtete, ist sicherlich nicht zuletzt von der EPA und ihren Schlussfolgerungen, die zumindest teilweise auf solchen gefälschten Berichten beruhen dürften, stark beeinflusst worden. In einer späteren Folge dieses Berichts wird noch detailliert darauf eingegangen, warum die meisten der für Dieselabgase durchgeführten epidemiologischen Untersuchungen als unglaubwürdig einzustufen sind. Sie bedürfen dringend einer kritischen Bewertung hinsichtlich „übersehener“ sozioökonomischer Faktoren sowie der Abgleichung der Ergebnisse mit nachprüfbaren toxikologischen Fakten.
 

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.
Fred F. Mueller
 
Demnächst folgt Teil 6
 
Quellen
[BLIE] Umweltchemie. Von C. Bliefert. VCH Verlagsgesellschaft, Weinheim, 1994. 453 S., Broschur 68.00 DM. – ISBN 3-527-28692-6
[BUTA] Drucksache 18/12900 – 492 – Deutscher Bundestag – 18. Wahlperiode
[CANA] Human Health Risk Assessment for Ambient Nitrogen Dioxide, Health Canada, Water and Air Quality Bureau, AIR@hc-sc.gc.ca
[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/
[DW] http://www.dw.com/de/%C3%BCber-100000-tote-durch-dieselabgase/a-38849769
[EPA] EPA/600/R-15/068 January 2016 www.epa.gov/isa
[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[HORREEA] https://www.eea.europa.eu/de/pressroom/newsreleases/zahlreiche-europaeer-sind-immer-noch/vorzeitige-todesfaelle-durch-luftverschmutzung
[ICCT] https://www.envhealthanalytics.com/single-post/2017/05/15/New-study-on-health-and-environmental-impacts-of-diesel-NOx-emissions-published
[LEIS] https://www.eike-klima-energie.eu/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/
[MDR] http://www.mdr.de/nachrichten/ratgeber/faktencheck-todesfaelle-diesel-abgas-100.html
[SMCE] https://www.sciencemediacenter.de/alle-angebote/rapid-reaction/details/news/diesel-skandal-wissenschaftler-widersprechen-schlussfolgerungen-der-abgeordneten-zu-gesundheitlich/
[TUDA] http://indigo.meteor.tu-darmstadt.de/umet/script/Kapitel1/kap01.html#%C3%BCber1-6-3
[WELT] https://www.welt.de/gesundheit/article164592990/Mehr-als-100-000-Tote-jaehrlich-durch-Stickoxide.html
 




Klima : Entwarnung der Alarmisten

Von Alex Reichmuth (Red. WELTWOCHE Zürich)*
Eigentlich müsste nun jede seriöse Zeitung titeln: «Klimawandel weit weniger dramatisch als befürchtet!» Denn das, was im Fachmagazin Nature Geoscience vor wenigen Tagen erschienen ist, ist das Eingeständnis führender Klimaforscher, dass sie mitsamt ihren angeblich unfehlbaren Computermodellen falsch lagen. Es ist die Beichte, dass die Erderwärmung viel langsamer voranschreitet, als uns all die Warner, Mahner und Moralisten in Wissenschaft, Politik und Medien weismachen wollten. Es ist das Geständnis, dass die sogenannten Klimaskeptiker recht hatten.
Verfasst worden ist die einschlägige Studie von Klimawissenschaftlern aus acht Ländern. Die Mehrheit der Autoren ist massgeblich beim Weltklimarat (IPCC) engagiert, zum Teil in führender Stellung. Diese Forscher sind somit mitverantwortlich für die Alarme des IPCC vor einer angeblichen Klimakatastrophe. Nun aber sind sie zum Schluss gekommen, dass die Menschheit mehr CO2 ausstossen darf, bis sich die Erde mutmasslich um 1,5 Grad erwärmt hat: nicht ein Zehntel mehr, nicht ein Fünftel oder die Hälfte mehr – nein: fast viermal mehr.

Temperaturanstieg überschätzt

Der Grund ist, dass sich die Wissenschaft verrechnet hat. Die Computermodelle hätten den Temperaturanstieg überschätzt, gab Co-Autor Michael Grubb vom University College London gegenüber der britischen Zeitung Times zu. «Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können», ­sagte sein Mitautor Myles Allen von der ­University of Oxford.
(Anmerkung EIKE-Red.: vgl. Graphiken unten) **
Man reibt sich die ­Augen:
Da reden führende Wissenschaftler genau so, wie es die vielgeschmähten «Klimaleugner» seit Jahren tun: Der Klimawandel ­habe sich in den letzten zwanzig Jahren verlangsamt. Die Computermodelle lägen falsch, weil grundlegende klimatische Zusammenhänge in der Atmosphäre nicht bekannt oder nicht verstanden seien.
Doch so schnell geben Missionare nicht auf. Das Eingeständnis der Forscher kommt versteckt daher, quasi durch die Hintertür. Vordergründig verkaufen sie ihre Erkenntnis als eindrückliche Bestätigung für den Klimaschutz. «Emissionsbudget und Emissionspfad vereinbar mit dem Ziel, die Erwärmung auf 1,5 Grad zu begrenzen», haben sie ihre Studie betitelt. Hervorgestrichen wird nicht, dass der Klimawandel schwächer ist, sondern dass die Ziele des Klimaabkommens von Paris nun einfacher erreichbar seien.
«Das ist eine wirklich gute Nachricht», sagte Co-Autor Pierre Friedlingstein von der University of Exeter zur britischen BBC. Denn ohne die Verlangsamung wäre das Vorhaben, die Erwärmung auf 1,5 Grad zu begrenzen, wohl unrealistisch gewesen. «Viele Leute waren der Meinung, dass dies nicht möglich sei», so Myles ­Allen gegenüber der Times. Dabei war das Pariser Abkommen 2015 rund um die Welt als grosser Durchbruch gefeiert worden. Dass die Ziele unrealistisch sind, war damals kaum zu vernehmen.
Auch die meisten Medien verkünden, dass die Studie in Nature Geo­science den Klimaschutz stärke – sofern sie denn überhaupt darüber berichten. «Ziel von Paris immer noch erreichbar», so BBC. Das Resultat der Studie sei ein «Hoffnungsschimmer», hiess es bei Radio SRF. «Es gibt kein Zurücklehnen, mahnte der Tages-Anzeiger. «Niemand weiss, bei welchem Ziel die Erde auf der sicheren Seite ist.»
Kein Wort war zu lesen, dass die Klimaforschung mit dieser Studie an Glaubwürdigkeit verloren hat.
Wären die Verfasser zum gegenteiligen Schluss gekommen, dass die Erderwärmung stärker geworden sei, wäre die Interpretation mit Sicherheit gleich ausgefallen: Jetzt ist Klimaschutz erst recht nötig! Egal also, welche ­Resultate die Wissenschaft liefert: Sie werden immer als Bestätigung gewertet, dass der CO2-Ausstoss möglichst rasch abnehmen muss. Man fühlt sich an ein altes Sprichwort erinnert: «Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt, wie es ist.»
==========================================================================================
)* Anmerkung der EIKE-Redaktion :
Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich : Klima: Entwarnung der Alarmisten | Die Weltwoche, Nr. 39/2017 | 28. September 2017;  http://www.weltwoche.ch/
EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.
===========================================================================================
)**




Jetzt glauben die meisten Amerikaner, dass die globale Erwärmung Hurrikane verschlimmert

Seit Jahren verbinden Politiker und Umweltschützer extreme Wetterereignisse mit von Menschen verursachter Erwärmung und der letzte Hurrikan war keine Ausnahme. Die Jahre der Indoktrination scheinen eine Wirkung zu haben.
Eine am 28.09.2017 veröffentlichte Umfrage der Washington Post-ABC News fand, das  55 Prozent der Amerikaner glauben, dass die globale Erwärmung die Hurrikan Saison in diesem Jahr schlimmer gemacht hat, während 41 Prozent dieses Argument nicht annehmen.
Die neuen Umfrageergebnisse deuten auf einen 16-Prozent-Sprung seit 2005, von denen, die die globale Erwärmung mit Hurrikans verbinden. Die Wähler wurden im Jahr 2005 befragt,  etwa einen Monat nach dem Hurrikan Katrina.
Wissenschaftler hingegen sind vorsichtig, die globale Erwärmung mit Hurrikans zu verbinden.

„Es gibt einige, die sehr einfach die Hurrikane mit der globalen Erwärmung verbinden“, sagte Chris Landsea, ein Meteorologe am National Hurricane Center, der Daily Caller News Foundation. „Für mich ist der Versuch, eine direkte Verbindung herzustellen, nicht sehr angemessen“.

Sowohl die National Oceanic and Atmospheric Administration (NOAA) als auch das Intergovernmental Panel on Climate Change (IPCC) sagen, dass es nicht genügend Beweise gibt , um die globale Erwärmung mit der Hurrikanaktivität zu verbinden.

NOAA sagt, es sei „verfrüht zu dem Schluss, dass die menschlichen Aktivitäten – und insbesondere die Treibhausgasemissionen, die die globale Erwärmung verursachen – bereits einen nachweisbaren Einfluss auf den Atlantischen Hurrikan oder die globale tropische Zyklonaktivität hätten.“

„In der jährlichen Anzahl von tropischen Stürmen, Hurrikans und großen Hurrikans im Nord-Atlantik-Becken wurden in den letzten 100 Jahren keine robusten Trends identifiziert“, so ein IPCC Bericht von 2013.

Der jüngste Ausbruch von Hurrikans kommt für die USA nach 12 Jahren ohne Landfall von großen Stürmen. Vor dem Hurrikan Harvey war Wilma in 2005 der letzte große Hurrikan, der die USA traf.
Diese atlantische Hurrikan-Saison ist zweifellos eine aktive, mit drei großen Hurrikans in den letzten paar Monaten, die auf Land ziehen.
Harvey traf Ende August im Südosten von Texas als Sturm der Kategorie 4  auf und wurde kurz danach von den Hurrikans Irma und Maria gefolgt.
Irma traf Anfang September in Florida als Sturm der Kategorie 4 auf Land. Maria begann seinen Weg in Puerto Rico als Sturm der Kategorie 4 vor mehr als einer Woche und verwüstete die Insel und ließ die meisten ihrer Bewohner ohne Energie oder sauberes Wasser zurück.
Es ist definitiv eine Hurrikan-Saison für die Aufzeichnungen, aber es ist nicht die schlimmste, die Amerikaner je gesehen haben.
In 2017 hat es bisher 13 Stürme gegeben. Die 2005 Hurrikan-Saison sah 28 mit Namen gekennzeichnete Stürme und die 1933-Saison hatte 20 benannte Stürme, nach der Ansicht von Experten.
„Mit Blick auf die Intensität und Dauer der Stürme, wird die Saison 1933 als die heftigste der Aufzeichnungen seit dem Jahr 1851 geschätzt und 2005 ist die zweitstärkste“, so Gerry Bell, ein Meteorologe an der National Oceanic und Atmospheric Administration (NOAA ).
Wahrscheinlich könnten es noch mehr Hurrikane in dieser Saison geben und die verheerende Saison von 1933 wiederholen, sagte Chris Landsea. „In dieser Saison werden wir sehr viele Stürme erleben“.
Erschienen auf The Daily Caller am 28.09.2017
Übersetzt durch Andreas Demmig
http://dailycaller.com/2017/09/28/most-americans-now-believe-global-warming-is-making-hurricanes-worse/