Es gibt kein katastrophales Risiko durch eine vom Menschen verursachte globale Erwärmung. Punkt!

Um richtige politische Maßnahmen zu etablieren, müssen die folgenden Punkte zu menschlichen CO2-Emissionen beachtet werden:

● Der Treibhauseffekt ist für alles Leben auf der Erde unabdingbar. Ohne den Erwärmungseffekt von ~33°C wäre der Planet wirklich ein sehr kalter und unbewohnbarer Ort.

● Der allergrößte Teil des Treibhauseffektes (über 90% bis 95%) wird durch Wasserdampf und Wolken in der Atmosphäre bewirkt.

● Atmosphärisches CO2 ist kein Verschmutzer. Stattdessen ist es die ultimative Voraussetzung für das Leben.

● Die Welt braucht atmosphärisches CO2 für das Überleben und die Düngung der Pflanzen. Daher ist CO2 essentiell für alles Leben auf der Erde.

Bei einer halb so großen atmosphärischen CO2-Konzentration wie derzeit stellen die Pflanzen die Photosynthese ein, und die Welt wird rasch aussterben. Im Vergleich zur geologischen Vergangenheit befindet sich die Welt derzeit in einer Periode der CO2-Verknappung, weil der größte Teil dieses Gases, einst mit einem Vielfachen in der Atmosphäre vertreten zu der Zeit, als die Pflanzen sich zu entwickeln begannen, seitdem in den Ozeanen als Kalkstein abgelagert worden ist.

Die CO2-Konzentration erreichte während der letzten Eiszeit von vor 120.000 bis 11.000 Jahren ein katastrophal niedriges Niveau. Das gefährlich niedrige CO2-Niveau könnte sehr gut in einer kommenden Eiszeit unterschritten werden. Kältere Ozeane absorbieren mehr CO2, und das ozeanische Leben fällt dieses mittels Bildung zu Kalkstein aus. Das ist die Art und Weise, mit der die Welt vielleicht in einer zukünftigen glazialen Periode an CO2-Mangel zugrunde geht.

Höhere CO2-Konzentrationen beflügeln das Pflanzenwachstum auf dem gesamten Planeten und reduzieren den Wasserbedarf der Pflanzen. Der NASA zufolge können etwa 15% der Ergrünung des Planeten schon jetzt der relativ jungen Zunahme der CO2-Konzentration zugeordnet werden.

Die Menschheit als Ganzes trägt nur zu einem Bruchteil zum CO2 im Kohlenstoff-Zyklus bei (etwa 3% pro Jahr), und jedwedes zusätzliche CO2 in der Luft wird sofort von den Ozeanen und der Biosphäre absorbiert (mit einer Halbwertszeit von etwa 5 Jahren).

Falls zusätzliches CO2 einen geringen Erwärmungseffekt hätte, wäre das nur gut. Daher kann atmosphärisches CO2 – sei es nun menschlichen oder natürlichen Ursprungs – unmöglich als ein Verschmutzer gesehen werden. Zur Bedeutung von CO2 siehe auch hier.

Es ist bekannt, dass die Effektivität von CO2 als wärmendes Treibhausgas rapide logarithmisch mit zunehmender Konzentration abnimmt:

Eine Konzentration von atmosphärischem CO2 unter 200 ppmv, äquivalent zu etwa 77% der CO2-Treibhaus-Effektivität, ist absolut und unabdingbar notwendig, um die Pflanzen und damit das Leben auf der Erde zu erhalten. Bei etwa 150 ppmv stirbt das Pflanzenleben aus. Und beim gegenwärtigen Niveau von rund 400 ppmv sind 87% der Effektivität von CO2 als Treibhausgas bereits ausgeschöpft:

Bei einer so geringen Effektivität von CO2 als Treibhausgas gibt es keinerlei Spielraum, dass jemals ein so gefürchteter Temperaturanstieg um 2°C oder darüber überhaupt möglich ist, was unverdrossen aber seitens der Alarmisten prophezeit wird und ausschließlich den menschlichen CO2-Emissionen geschuldet sein soll.

Die Alarmisten betrachten eine Erwärmung um 2°C als katastrophal und haben traurigerweise davon viele Politiker der westlichen Welt überzeugt. Ökonomisch ist das nicht so, und eine Erwärmung bis zu 2°C, so es dazu überhaupt kommt, wäre von Vorteil.

Zunehmende CO2-Konzentrationen in der Atmosphäre können höchstens zu einer sehr begrenzten weiteren Erwärmung führen und mit Sicherheit nicht zu einer katastrophalen oder irgendwie gefährlichen Erwärmung. Die Hypothesen hinter jener Behauptung werden in zwei unterschiedlichen Berechnungen widerlegt:

Unter Annahme einfacher Proportionalität:

● Wasser als Wasserdampf oder als Wolken in der Atmosphäre trägt zu 90 bis 95% zum Treibhauseffekt bei.

● Andere Treibhausgase sind marginal und brauchen nicht berücksichtigt zu werden.

● Der jüngste, den Menschen geschuldete Anstieg auf 300 bis 400 ppmv kann höchstens zwischen 0,41°C und 0,21°C liegen.

Unter der Annahme einer logarithmischen Abnahme:

● 77% des CO2-Treibhauseffektes 0 bis 200 ppmv sind unabdingbar zur Erhaltung des Lebens auf der Erde.

● Unter der Annahme, dass die gesamte Zunahme von 300 ppmv auf 400 ppmv den Menschen geschuldet ist, was 4,2% des Treibhauseffektes ausmacht, ergibt sich eine Erwärmung um 0,14°C bis 0,07°C.

● Der mögliche zukünftige Anstieg der Konzentration von 400 ppmv auf 500 ppmv würde folglich eine Erwärmung zwischen 0,11°C und 0,05°C zur Folge haben.

● Der spätere Anstieg der Konzentration von 500 ppmv auf 1000 ppmv kann höchstens zu einer Erwärmung von 0.33°C bis 0,17°C führen.

● Dies ignoriert die IPCC-Feststellung, wonach nur 50% der CO2-Zunahme auf das Konto der Menschen gehen, was diese Zahlen noch kleiner machen würde.

● Es ignoriert auch die Hypothese in den Klimamodellen, dass es eine massive positive Rückkopplung durch weiter zunehmende CO2-Emissionen geben würde: selbst wenn man das akzeptiert wäre eine weitergehende Erwärmung durch CO2-Emissionen marginal.

Es ist also jetzt sehr wahrscheinlich, dass die Auswirkung steigender CO2-Konzentrationen auf die globale Temperatur selbst bei der höchsten angenommenen Effektivität marginal unbedeutend ist hinsichtlich Erwärmung, aber sehr vorteilhaft in jeder anderen Hinsicht.

Die Versuche der Menschheit, die globale Temperatur zu kontrollieren mittels Begrenzung von CO2-Emissionen als Folge der Verbrennung fossiler Treibstoffe kann höchstens marginale oder unmessbare weitere Auswirkungen haben (hier).

Daher sind sämtliche Bemühungen der Menschheit in der westlichen Welt zur Dekarbonisierung fehlgeleitet, irrelevant und höchst unvernünftig.

——————————————

Dieser Beitrag ist eine per E-Mail eingegangene Zusammenfassung einer umfangreicheren Studie hier.

Übersetzt von Chris Frey EIKE




Noch ein ketzerischer Klima-Artikel: Patrick Frank aus Stanford stellt grundsätzlich Klimamodelle infrage

Und spätestens an dieser Stelle wird man feststellen müssen, dass auch Klimawissenschaftler nur Menschen sind und zutiefst menschlich reagieren. Mit Ablehnung, Verdrängung, Empörung und sogar mit Gegenangriffen. Sie holen ihre „großen Brüder“ zu Hilfe, versuchen sich Mehrheiten zusammenzutrommeln und schrecken manchmal sogar vor Tricksereien, Verleumdung und Betrug nicht zurück.

Dazu kommt das Problem einer sehr knappen Ressource, die im Wissenschaftsbetrieb als Währung gilt und bei der Frage nach Reputation oder Förderung eine immense Rolle spielt: die Veröffentlichung. Dabei handelt es sich aber nicht um Bücher oder Maischberger-Auftritte, sondern um Artikel in anerkannten wissenschaftlichen Journalen, wo man nur dann publizieren kann, wenn die Arbeit einer mehr oder weniger anonymen mehrstufigen Prüfung durch andere Experten auf eben diesem Gebiet standhält. Das hält zwar sicher einigen Unsinn aus den Blättern heraus und hilft, Fehler zu finden, kann sich aber als fast unüberwindbare Hürde erweisen, wenn man davon ausgehen kann, dass ein „Konsens“, gegen den man anschreibt, für ausreichend Vorurteile und Ignoranz sorgt. Stellen Sie sich einfach vor, liebe Leser, Galileo Galilei hätte sein „Paper“ im Vatikan zur Begutachtung vorlegen müssen und fragen Sie sich, ob sich dort eine demokratische Mehrheit von Gelehrten für eine Veröffentlichung ausgesprochen hätte. Die Sonne würde sich wohl immer noch um die Erde drehen.

Video des Vortrages von EIKE Vize Michael Limburg zur großen Unsicherheit die auch Zeitreihen aus historischen Temperaturdaten begleiten müssen. (Mehr Details dazu hier) zur Behandlung seiner Dissertation zum Thema durch die Universität Leipzig hier

Zunächst noch ein paar Worte zu den Wissenschaftsjournalen, die zwar große Namen haben, aber natürlich auch nicht frei sind von wirtschaftlichen Erwägungen und Trends. Gerade, wenn diese politisch verstärkt werden. Wer der scheinbar übermächtigen Einheitsmeinung nur ein paar weitere Krümel Gewissheit hinzufügt, ihr aber insgesamt nicht schadet und dem Trend folgt, hat es leichter. Falls Sie, sagen wir, die verheerende Wirkung von Brausepulver auf das Erdklima untersuchen wollen oder ein weiteres Treibhausgas auf die Anklagebank bringen möchten… das wird sich sicher machen lassen. Rechnen Sie aber nicht mit wohlwollenden Reviews, wenn sie die heiligen Knochen ausbuddeln, die das Fundament eines verfestigten Konsenses sind, um sie auf ihren Calciumgehalt zu prüfen. Man muss sich durch viel Beton durchkämpfen, bis man am Ziel ist und darf bei denjenigen, die sich behagliche Häuser auf dem Fundament gebaut haben, nicht auf große Liebe hoffen.

„Mehr vom Selben” statt „Probier was Neues”

Große Schwierigkeiten bekommt man zum Beispiel, wenn man eine der Säulen des Klimaalarmismus als Baugutachter unter die Lupe nimmt. Also die Rolle von CO2, die Qualität der Klimamodelle, welche als Werkzeuge der Vorhersage und als Alarmglocken dienen oder die Paläo-Messreihen, die aus Eisbohrkernen oder anderen Bohrungen indirekt auf Temperaturen der Vergangenheit schließen. Letzteres führte beispielsweise zu den Auseinandersetzungen rund um Manns Hockeystick-Kurve, von denen ich berichtete.

Warum das so ist, kann man leicht erraten. Denn seit Politiker vor etwas mehr als 100 Jahren begannen, bei Gesundheitsprogrammen auf die Expertise von Medizinern zu vertrauen, hatte noch nie eine so kleine Gruppe von Wissenschaftlern so große Macht über die Politik wie die Klimaforscher heute. Sogar ein bei der UN angesiedeltes Wächtergremium mit enger Agenda haben sie sich geschaffen. Der Weltklimarat, das IPCC, muss man wissen, hat nicht die Aufgabe, den Klimawandel zu untersuchen und Maßnahmen vorzuschlagen – das wäre ja ein Segen. Nein, das IPCC hat die Aufgabe, den menschengemachten Klimawandel zu untersuchen und Maßnahmen vorzuschlagen. Das sperrige Adjektiv macht den Unterschied und gibt die einzige Richtung vor, in die der Blick gehen darf. Raten Sie, was man herausfindet: Der Klimawandel ist menschengemacht. Und zwar ausschließlich! Damit konnte natürlich niemand rechnen…

Flankiert von mit Parolen ausgestatteten Aktivisten, die häufig nicht einmal die elementarsten Zusammenhänge verstehen, exekutiert die Politik die ausgesprochenen Empfehlungen: ruft in Städten den Klimanotstand aus, denkt laut über Klimasteuern nach und bereitet Verbote vor, gibt großzügig Forschungsgelder… Kurz: Man hängt auch als Wissenschaftler tief drin im Aktionismus und dem Umbau der Gesellschaft und ist Stichwortgeber bei einem gigantischen Gesellschaftsexperiment, das nach Meinung aller Ökonomen auch und nach Meinung vieler nur schief gehen kann. Es steht für einen Wissenschaftler also mehr auf dem Spiel als ein paar Drittmittel. Aber Geld schafft Begehrlichkeit, wenn es auf den Tisch gelegt wird und das Paris-Abkommen allein (bei dem jedes teilnehmende Land völlig verschiedene Verpflichtungen auf je einen Zettel schrieb, welche dann zusammengebunden und als Abkommen proklamiert wurden) sorgt dafür, dass es um hunderte Milliarden Dollar und Euro geht.

Die westliche Gesellschaft (und nur diese) hat sich hineinziehen lassen in eine offene wissenschaftliche Debatte und sich dort binnen kurzer Zeit auf jene Seite geschlagen, die ihr den meisten Aktionismus und die umfassendste politische Einflussnahme versprach. Dabei sind die Protagonisten und die Argumente im Wesentlichen dieselben wie vor 30 Jahren, wie man in dieser sehenswerten Channel4-Doku aus dem Jahr 1990 sehen kann. Aber die Zeit lässt sich nicht zurückdrehen, und man kann denjenigen, die schon vor 30 Jahren zu Sachlichkeit und Vernunft rieten, kaum vorwerfen, dass sie nicht deutlich genug vor dem Gedanken-Kollektivismus warnten, in den wir uns heute freiwillig begeben.

Gleichschaltung, Hysterie, Faktenfreiheit

Als ich neulich über einen Zivilprozess wegen Verleumdung berichtete, den einer der bekanntesten Vertreter der Klimaalarmisten gegen einen seiner Kritiker angestrengt hatte und der nun eingestellt wurde, erhielt mein Artikel viel Aufmerksamkeit. Sowohl Skeptiker als auch Alarmisten sahen sich bestätigt und spannen einen Faden weiter, der so im Artikel überhaupt nicht zu finden war. Dr. Mann sei verurteilt worden, das Gericht hätte dem Klimaschwindel ein Ende bereitet, war vielerorts zu lesen.

Nichts davon habe ich geschrieben, weil nichts davon passiert war. Selbst der sonst so besonnene Boris Palmer – sicherlich genervt, weil er von verschiedener Seite meinen Artikel zugeschickt bekam – konnte nicht an sich halten und unterstellte mir Aussagen, die ich nie geschrieben hatte. Auf der anderen Seite schlugen die reflexhaften Verteidiger von Manns Hockeystick-Kurve Purzelbäume, weil sie sich veranlasst sahen, ein Paper aus dem Jahr 1998 zu verteidigen, von dem viele glaubten, es sei nach jahrelangen Kontroversen endlich in Vergessenheit geraten. Nun wurde es wieder ans Licht gezerrt, und die Verteidiger stellten sich schützend vor einen Leichnam, bei dessen Beerdigung sie wohl noch zur Schule gingen.

Da waren Aussagen zu lesen wie „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“, was nochmal einen Zacken mehr falscher Gewissheit enthält als die üblichen Eröffnungszüge solcher Debatten, bei denen man als erstes etwas von 97 Prozent oder 99 Prozent zu hören bekommt – ganz so, als sei die Dimension von DDR-Wahlergebnissen jemals Beleg für Wahrhaftigkeit gewesen.

Wie dem auch sei, den voreiligen Skeptikern sei gesagt, dass die Theorie Manns in Kanada nicht vor Gericht stand, sondern sein Kontrahent Ball in Person und dass Gerichte generell nicht über wissenschaftliche Theorien entscheiden. Noch nicht. Auch wenn wir aktuell nur noch ein Augenzwinkern davon entfernt zu sein scheinen, „Klimaleugnung“ als Straftatbestand zu betrachten. Doch was Gerichte noch unterlassen, exekutieren längst die Aktivisten. In der deutschen Wikipedia werden bereits fleißig Markierungen angebracht, um gute von bösen Wissenschaftlern und Publizisten zu unterscheiden. Weitere mentale Infektionen sind also zu erwarten.

Die menschengemachte Klimawissenschaft

„Sobald der Menschenseele ein neues Dogma eingepflanzt ist, inspiriert es die Institutionen, die Künste und das Verhalten der Menge. Die von ihm über die Seelen geübte Herrschaft ist dann eine absolute. Die Männer der Tat denken nur an dessen Verwirklichung, die Gesetzgeber nur an dessen Anwendung, die Philosophen, Künstler, Schriftsteller beschäftigen sich nur mit dessen Umsetzung in verschiedene Formen.”

(Gustave Le Bon, „Psychologie der Massen”, 1895)

Dass es sich beim „Menschengemachten Klimawandel“ um ein Dogma handelt, wie es Le Bon beschrieb, zeigte sich wieder einmal in Gesprächen, Kommentaren und e‑Mails, die mich nach dem Artikel erreichten. Ich unterschlage hier die Beschimpfungen und „guten Reisewünsche“ und bringe nur dieses, leicht eingedampfte Beispiel:

A: 97% der Wissenschaftler sind sich einig: Der Klimawandel ist menschengemacht. Es muss also stimmen!

Ich: Die Zahl 97% ist ein Mythos, die zugrundeliegende Metastudie von Cook et al. klammerte viele jener Studien aus, die sich nicht festlegten, ob oder ob nicht und wenn ja, wieviel Einfluss der Mensch hat.

A: Ob nun 97 Prozent, 50 Prozent oder 20 Prozent – das ist dem menschengemachten Klimawandel doch egal!

Das heißt, eine unbewiesene Hypothese ist längst ins Fundament eingesickert und dort fest geworden. Unerhört, diese noch infrage zu stellen – man würde den Aktivisten ja ihre liebsten Satzanfänge wegnehmen. Deshalb auch die absolutistische Verteidigung der Mann’schen Hockeystick-Kurve, die sehr wohl im Feuer der Kritik stand und bis heute steht.

Die Sache mit der Genauigkeit

Ich möchte an dieser Stelle nur den Beweis führen, dass die Aussage „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“ schlicht falsch ist, ohne die Diskussion wieder auf das juristische Geplänkel zwischen Mann und Ball zu lenken. Zu nennen ist hier insbesondere die Arbeit von Stephen McIntyre und Ross McKitrick von 2005, in der sie, vereinfacht gesagt, besonders die Temperatur-Messreihen Manns in Zweifel ziehen, die dieser aus den Baumringen amerikanischer Borstenkiefern herleitete und nach Meinung von McIntyre und McKitrick (M&M) die historischen Temperaturwerte als zu niedrig angab. (Wer übrigens wissen möchte, was man mit historischen Messreihen so alles machen kann, dem empfehle ich dieses Video.)

Der Vorwurf von M&M zielte mitten ins Herz der Klimaalarmisten, weil er sich mit einem Feld befasst, dem schon so manche schöne Theorie zum Verhängnis wurde: mangelhaftes Fehlerbewusstsein und Fehlerdiskussion. Die Debatte über die von M&M gefundenen Ungereimtheiten ist hochinteressant und gleicht eher einem spannenden Krimi als der bloßen Kollision zweier wissenschaftlicher Interpretationen. Und sie ist keinesfalls entschieden oder abgeschlossen, auch wenn es heute etwas ruhiger ist an dieser Front, weil sich das Feuer längst auf andere Schauplätze verlagert hat. Die vorlaute Verteidigung, Manns Kurve hätte einhellige Zustimmung erfahren und sei allgemein unumstritten, darf jedoch als widerlegt betrachtet werden.

Während Mann sich auf der Seite der Messreihen in einem alten Krieg befindet, gibt es andere Wissenschaftler, die eher die prognostische Seite der IPCC-gesteuerten Klimaforschung in Zweifel ziehen: die Klimamodelle. Richtige Panik kann nämlich erst aufkommen, wenn man der Menschheit mit schrecklichen Graphen droht, die für die Zukunft nichts Gutes prophezeien. Auch alle politischen Ziele wie die Begrenzung des CO2-Ausstoßes oder das 1,5°-Ziel von Paris gehen aus diesen Prognosewerkzeugen hervor. Vereinfacht gesagt, füttert man die Modelle – und es gibt Dutzende davon – mit Werten für Temperatur und CO2 und ändert die Werte solange, bis die gewünschte Kurve dabei herauskommt. Die Werte erhält die Politik und übersetzt diese in Verbote und Steuern. Wie gesagt, etwas komplizierter ist es schon, aber die zweite (Was soll ich tun?) und dritte (Was darf ich hoffen?) Grundfrage der Vernunft, wie sie Kant formulierte, beantwortet die Klimawissenschaft mit diesen Werkzeugen. Handeln und Glaube sind gesetzt, doch sollten wir die erste Frage „Was kann ich wissen?“ nicht aus dem Auge verlieren. Womit wir wieder bei der Genauigkeit wären und der Frage, was die Klimamodelle wirklich taugen, aus deren Orakeln die Politik Handlungsanweisungen ableitet.

Die Klimawissenschaft als „nackter Kaiser“?

„Nach dem gegenwärtigen Stand der Theorie wird sich ein AGW-Signal (siehe 1., Roger Letsch), falls vorhanden, niemals aus dem Klima-Rauschen hervorheben, egal wie lange die Beobachtungsaufzeichnung dauert, da die Unsicherheitsbreite notwendigerweise viel schneller zunimmt als ein projizierter Trend der Lufttemperatur. Jegliche Auswirkung von Treibhausgasen geht immer innerhalb des Unsicherheitsintervalls verloren. Selbst fortgeschrittene Klimamodelle weisen eine schlechte Energieauflösung und sehr große Projektionsunsicherheiten auf. Die unvermeidliche Schlussfolgerung ist, dass ein Temperatursignal von anthropogenen CO2-Emissionen (falls vorhanden) nicht in Klima-Observablen nachgewiesen werden konnte oder kann.“

Da stellt jemand grundlegend infrage, ob die Klimamodelle – und zwar alle – überhaupt in der Lage seien, die Einflüsse von Treibhausgasen auf das Klima zu zeigen, weil die Mess- oder Regelgröße vollständig im Fehlerrauschen untergehe. Wer ist dieser „Klimaleugner“, dieser Ketzer, der da so frech die Offenbarung der Orakel-Modelle stört?

Sein Name ist Dr. Patrick Frank vom SLAC National Accelerator Laboratory der Stanford University, Menlo Park, Kalifornien und er hat sein Paper „Fehlerausbreitung und Zuverlässigkeit globaler Lufttemperaturprojektionen  gerade eben im Journal „frontiers in Earth Science“ veröffentlicht.

Hier kommentiert er den langen Weg bis zur Veröffentlichung in einem angesehenen Journal – es dauerte sechs Jahre – und legt auch die kompletten Schriftwechsel (ZIP-Datei), Einwände und seltsamen Schummeleien offen, (ich verwende das Wort, ohne hier inkriminieren zu wollen, mir fällt dazu einfach nichts passenderes ein) welche die Veröffentlichung so lange behinderten. Die Einwände waren zum Teil hanebüchen, weil die Reviewer wohl teilweise Franks Mathematik nicht verstanden oder die angefragten Journale sein Paper ausgerechnet an jene zur Durchsicht gaben, die von der Entwicklung der angegriffenen Klimamodelle leben. Diese „peers“ sollten nun also den Daumen über Franks Arbeit heben oder senken. Der Spruch vom Bock und dem Gärtner ist das einzige, was mir zu solchen Possen einfallen will.

„Physikalisch bedeutungslos“

Ich möchte Dr. Frank hier aber nicht zum Galileo Galilei hochschreiben, auch seine Arbeit muss sich Kritikern stellen und das tut sie bereits (logisch, angesichts ihrer Brisanz). Aber das Vorspiel zur Veröffentlichung zeigt, dass eine zum Konsens neigende, voreingenommene wissenschaftliche Community, die alle wesentlichen Forschungen für abgeschlossen und in Stein gemeißelt hält, Gift für die Klimawissenschaft sein kann. Die Frage nach der Erkenntnisfähigkeit in Bezug auf das Klima von übermorgen beantwortet Frank so:

„Meine Arbeit zeigt, dass fortschrittliche Klimamodelle die Lufttemperatur lediglich als lineare Extrapolation des Treibhausgaseffekts projizieren. […] Eine einfache Gleichung, deren Forcierung linear ist, emuliert erfolgreich die Lufttemperaturprojektionen von praktisch jedem Klimamodell. Willis Eschenbach (siehe 2., Roger Letsch) hat das auch vor einiger Zeit ebenfalls untersucht.

Kurz gesagt, Klimamodelle können zukünftige globale Lufttemperaturen nicht vorhersagen. Nicht für ein Jahr und nicht für 100 Jahre. Klimamodell-Lufttemperaturprojektionen sind physikalisch bedeutungslos. Sie sagen überhaupt nichts über die Auswirkungen von CO₂-Emissionen auf die globalen Lufttemperaturen aus.

Die Unsicherheit allein aufgrund des jährlichen durchschnittlichen Modellfehlers beim Wolken-Anteil (siehe 3., Roger Letsch) (± 4 Wm⁻²) ist ungefähr ± 114-mal größer als der jährliche durchschnittliche Anteil des CO₂ (ungefähr 0,035 Wm⁻²). Eine vollständige Bestandsaufnahme von Modellfehlern würde eine enorm größere Unsicherheit erzeugen. Klimamodelle sind somit völlig unfähig, Auswirkungen der geringen Störung durch Treibhausgasemissionen aufzulösen. Die unvermeidliche Schlussfolgerung lautet, dass die Auswirkungen von CO₂-Emissionen auf das Klima in der Vergangenheit oder heute nicht gefunden werden können. Es scheint, dass Exxon (siehe 4., Roger Letsch) „es“ doch nicht wusste. Exxon hätte es nicht wissen können. Auch sonst niemand.“

Einige Panikattacken weiter

Es ist also möglicherweise nicht viel, was wir über das künftige Klima wissen können. Die Ergebnisse, mit denen die Klimamodelle unsere Politiker füttern, enthalten nach Franks Annahme Fehler, die um den Faktor 114 größer sein können als die Resultate. Wenn man aber erklärt, „1“ gemessen zu haben und dabei verschweigt, dass das statistische Rauschen um den Faktor 114 höher war als der Messwert – was genau hat man dann eigentlich „gemessen”? Die Fehlerdiskussion erweist sich also nicht nur bei den Paläo-Messreihen Manns, sondern auch bei den Forecast-Szenarien der Klimamodelle als Achillesferse. Der aktuelle Alarmismus steht also möglicherweise auf sehr dürftigen Argumenten.

Es bleibt also spannend, wenn man die Augen offenhält und vorurteilsfrei die Forschung beobachtet. Aber um ehrlich zu sein, ich erwarte nicht, dass sich die Hysterie legen wird. Nicht wegen einem Gallieo Dr. Frank! Die Zweifler und Häretiker kommen schnell unter die Räder des Zugs mit der Aufschrift „Klimakatastrophe“ oder sind wie A. von weiter oben komplett borniert und ideologisiert. Aber vielleicht kann ja wenigstens jemand Greta sagen, dass sie ruhig mit dem Flieger nach Europa zurückkehren kann? Denn das Klima „kippt“ nicht um und geht auch in zehn Jahren nicht so kaputt, dass es für sie unbenutzbar wird.

Das letzte Wort möchte ich diesmal einem Journalisten überlassen, der über das Dilemma spricht, in dem sich Klimawissenschaft und Politik befinden. Sie werden kaum glauben, aus welcher Zeitschrift das Zitat stammt:

Experten sind demnach im Dilemma: Sie haben kaum eine Chance, den richtigen Rat zu geben. Bleibt die Warnung aus, wird ihnen mangelndes Pflichtbewusstsein vorgeworfen. Eine alarmistische Vorhersage wird jedoch kritisiert, sofern sich nicht wenig später entsprechende Veränderungen zeigen. Die Unsicherheiten der Forschungsergebnisse bleiben in der Klimaforschung wohl auch bei weiterem Fortschritt bestehen. Nun sei die Frage, ob Wissenschaftler und Gesellschaft damit umzugehen lernen […]. Vor allem Politiker müssten lernen, dass es keine einfachen Resultate gibt. Auf Wissenschaftler, die simple Antworten versprechen, sollten Politiker nicht mehr hören.“

Quelle: Spiegel

Ja, sie haben richtig gelesen. Aber der Artikel ist ja auch noch aus dem Jahr 2010, also aus dem Jahr 8 v. H. (vor Hysterie). Heute ist man auch beim Spiegel bereits einige Panikattacken weiter.

Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt und auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.

Anmerkungen

1. AGW = Anthropogen Global Warming. Die Abkürzung finden sie in Fachjournalen überall

2. Eschenbach untersuchte das GISSE-Klimamodell wie eine Blackbox, von der man wissen möchte, wie sie funktioniert. Es gilt nämlich das Prinzip der Ergebnisgleichheit. Das heißt, zwei Blackboxen sind gleichwertig, wenn sie bei identischen Eingaben identische Ergebnisse produzieren, ganz gleich, welcher Hokuspokus im Inneren vollführt wird. Eine y=x*8/4 Blackbox ist gleichwertig mit einer y=2x Blackbox. Eschenbach zeigte nun, dass das GISSE-Modell auf simpelsten linearen Gleichungen basiert. Er glaube nicht, dass das Klima so funktioniere, meint Eschenbach.

3. Im Original: „cloud forcing” error, womit im weitesten Sinne die Wirkung von Wolken bei der Reflektion von Infrarotstrahlung bei Ein- und Rückstrahlung gemeint ist. Die Tatsache, dass sich die Wolkenbildung ab-so-lut nicht vorhersagen lässt und deshalb nur als extrem unsichere statistische Größe in jedes Klimamodell eingeht, ist Franks Ansatzpunkt für seine oben erwähnte Arbeit.

4. Gemeint ist eine Untersuchung der Firma Exxon, in der schon 1977 vom Klimawandel und der vermeintlichen Ursache CO2 die Rede war. Diese Studie wird gern als der ultimative Beweis für den anthropogenen Klimawandel und dessen Auslöser CO2 betrachtet, weil er „von der anderen Seite“, also von den Bösen kam. Dass die Studie „geheim gehalten” wurde, bestreitet Exxon (heute Exxon-Mobile).




Über das Vertrauen der Deutschen in ihre Kenntnisse vom Klimawandel

Bevor hier näher darauf eingegangen wird, folgt hier zunächst die Übersetzung des Abstract:

Genauigkeits-Vertrauen – also das Vertrauen, welches die Genauigkeit des Wissens reflektiert – kann bei Entscheidungen in Bereichen mit hohen Unsicherheiten relevant sein. Genauigkeit des Vertrauens ist von besonderer Bedeutung im Bereich Klimawandel, wo wissenschaftlich korrekte Informationen, aber gleichzeitig auch Falschinformationen in Öffentlichkeit und Medien zu finden sind. Hier betrachten wir die Genauigkeit des Vertrauens in das Wissen vom Klimawandel in einer nationalen Stichprobe in Deutschland (n = 509). Die Genauigkeit des Vertrauens der Bürger hinsichtlich ihres Wissens über Klimawandel war nur halb so hoch wie es hätte sein können auf der Grundlage der Genauigkeit ihres Wissens. Außerdem war die Genauigkeit ihres Vertrauens in die Genauigkeit ihres Wissens beim Thema Klimawandel geringer als im Vergleich zu zwei anderen grundlegenden Bereichen: allgemeine wissenschaftliche Kenntnisse in einer anderen Stichprobe unter Deutschen (n = 588) und Wissen um Klimawandel in einer aus Wissenschaftlern bestehenden Stichprobe (n = 207). Obwohl diese Ergebnisse nicht auf die Bevölkerung verallgemeinert werden können, wenn es um alle Indikatoren des Wissens um Klimawandel geht, zeigen diese Ergebnisse, dass das Vertrauen der Bürger in ihr Wissen über Klimawandel unnötig verschwommen ist angesichts ihres tatsächlichen Wissens.

Ende Übersetzung des Abstract.

Oha! Da waren ordentliche Wortkünstler am Werk. Wie wir gleich sehen werden, könnte man die Überschrift ganz anders formulieren: Wie stark hat die Dauer-Propaganda seitens Medien und Politik bereits bei den Deutschen verfangen? Zu diesem Schluss muss man unweigerlich kommen, wenn man sich die gestellten Fragen ansieht, wobei die „richtigen“ Antworten bei der Auswertung gleich mitgeliefert werden. Mit „richtigen“ Antworten sind hier ausschließlich jene gemeint, welche der Propaganda folgen. Die folgende Tabelle aus dem PDF zeigt dies:

Man erspare mir die Übersetzung des Inhalts dieser Tabelle. Ich kann auch nicht sagen, ob die Prozentzahl der „richtigen“, d. h. der Propaganda folgenden Antworten beruhigend oder beunruhigend ist. Nirgendwo in dem gesamten PDF wird auch gesagt, nach welchen Kriterien die Personen in den Stichproben ausgewählt wurden – weder die „Citizens“ noch die „Scientists“. Was für Bürger waren das, wie alt waren sie, aus welchen Bildungsschichten kamen sie, usw. usf. Und aus welchen Fachbereichen kommen die Wissenschaftler?

Vielleicht spielt das auch keine Rolle. Zumindest die Antwort auf einige Fragen ist jedoch in ihrer Masse beunruhigend. Nehmen wir zum Beispiel die Aussage (8): Climate change is mainly caused by a natural variation in sunbeam and volcanic eruption. (False). [Übersetzung der Verdeutlichung halber: Klimawandel wird hauptsächlich verursacht durch natürliche Variationen der Sonnenstrahlung und Vulkanausbrüche (falsch)]. 80% der Bürger und sogar 97% der „Wissenschaftler“ sollen die „richtige“ Antwort „falsch“ gegeben haben. (Mit „sollen gegeben haben“ will ich zum Ausdruck bringen, dass auch diese Zahlen vielleicht getürkt sind – vielleicht aber auch nicht). Folglich kann man die oben gestellte Frage nur so beantworten: Die Propaganda hat sich zu einem erschreckend hohen, wenngleich auch nicht überraschend hohen Ausmaß in den Köpfen der Befragten festgesetzt.

Da es im PDF des Originals ausschließlich um diese „richtigen“ Antworten und nicht um den Wahrheitsgehalt der Aussagen als solche geht, kann man alles weitere darin getrost ignorieren. Das Ganze wird hier auch nur erwähnt, um zu unterstreichen, einen wie weiten Weg die Klima-Realisten noch vor sich haben. Da kann man nur hoffen, dass die immer zahlreicher auftauchenden Studien des Inhalts, dass die Erde auf eine Kaltzeit zusteuert, sich als richtig erweisen.

Hier noch einmal der Link zum PDF in Nature Climate Change: https://doi.org/10.1038/s41558-019-0563-0




Deutschland auf dem Weg zur Blackout Nation: Mit Wind & Solar in das dunkle Mittelalter

Wenn die Erfahrung jedoch Teil des täglichen Lebens wird und / oder die Perioden ohne Strom beginnen, die Arbeit, die Gesundheit und die Sicherheit der Menschen zu beeinträchtigen, bleibt von guter Laune nichts mehr übrig. Der Verlust von Telefondiensten in Notsituationen verschärft diese Situation und bringt mehr Leben in Lebensgefahr. [Das gute alte analog Telefon gibt es zumindest in meiner Gegend nicht mehr. Ohne Router, ohne Strom kein Internet und damit auch kein Voice-over-IPP (telefonieren übers Internet, früher Telefon-Netzknoten mit Ortsbatterie) – der Übersetzer]

Der Verlust von Straßenbeleuchtung und Ampeln macht den abendlichen Pendelverkehr zu einem riskanten Spiel. Dies sind jedoch nur die offensichtlichsten Folgen eines Stromausfalls in einer Stadt, einem Bundesstaat oder einem Land.

Angesichts des raschen Anstiegs der chaotisch zugeführten Wind- und Sonneneinstrahlung wurden die Deutschen gewarnt, dass es immer häufiger zu Stromausfällen kommen wird. In der Tat läutet die deutsche RE-Besessenheit ein neues dunkles Zeitalter ein.

Die Deutschen beschäftigen sich bereits seit einem Jahrzehnt mit dem Chaos, das durch intermittierende Wind- und Sonneneinstrahlung verursacht wird. Daher ist es nicht verwunderlich, dass sie sich bereits genau angesehen haben, was passiert, wenn der Strom ausfällt: Blackout Blueprint: Deutsche Studie enthüllt, was wirklich passiert Wenn die Stromnetze ausfallen

 

Deutsche Agentur für Katastrophenvorsorge ruft die Bürger dazu auf, „für weitreichende Stromausfälle gerüstet zu sein“.
No Tricks Zone, Pierre Gosselin, 7. August 2019

Der Präsident des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe (kurz BKK) fordert Bürger, Behörden und Unternehmen auf, sich auf weitreichende Stromausfälle vorzubereiten.

In einem Interview mit der deutschen Tageszeitung Die Welt warnte BBK-Präsident Christoph Unger, dass Deutschland künftig mit höheren Wahrscheinlichkeiten für Naturkatastrophen aufgrund des Klimawandels wie Dürren, Hitzewellen und Überschwemmungen konfrontiert sei. Seine größte Sorge sei jedoch ein Stromausfall.

Nach 24 Stunden ohne Strom hätten wir katastrophale Bedingungen„, sagte Unger zu Die Welt.

Er war besonders besorgt darüber, das die Stromversorgung durch einen Cyberangriff abgeschaltet werden könnte [Welt Beitrag: Verdacht in der Ukraine]. „Wir müssen uns auf ein solches Szenario vorbereiten und uns darauf vorbereiten“.

Instabiles Netz, häufigere Eingriffe

Zwar sei die deutsche Stromversorgung im weltweiten Vergleich relativ stabil und sicher, die Bundesnetzagentur müsse jedoch immer häufiger eingreifen, um Netzschwankungen auszugleichen.

Im Laufe der Jahre hat Deutschland die Einspeisung von Wind- und Solarenergie in sein Stromnetz zunehmend volatiler gestaltet. Dies hat es zunehmend schwieriger gemacht, die Frequenz – bzw. die Einspeisung innerhalb des erforderlichen Bereichs zu halten.

„Angesichts mehrerer Zusammenbrüche“

Zum Beispiel berichtete Radio deutsche Welle, dass im Juni dieses Jahres „das europäische Stromnetz mehrfach zusammengebrochen war“ und wie die Netzfrequenz in Deutschland „mehrfach so stark eingebrochen war, dass das gesamte europäische Stromnetz gefährdet war“. Einige Aluminiumwerke mussten offline genommen werden.

Halten Sie Kerzen und Streichhölzer bereit

Um sich auf Stromausfälle vorzubereiten, erklärte Unger gegenüber Der Welt, dass die Bürger „Kerzen und Streichhölzer“ aufbewahren und immer ein „batteriebetriebenes Radio zur Hand haben sollten, um Nachrichten auch bei Stromausfall empfangen zu können. Auch sollte jeder Haushalt sich mit Lebensmitteln und Trinkwasser [auf Vorrat] versorgen. “

Diesel-Notstromaggregate zur Rettung

Ironischerweise meinte Unger zu Die Welt, dass Regierungsstellen und Unternehmen sich fragen sollten: „Ist genug Dieselkraftstoff vorhanden, um einen Notstromaggregat anzutreiben? Woher kommt der Diesel, wenn der Strom nach zwei Tagen noch nicht zurückgekehrt ist, die Notstromaggregate aber weiterlaufen müssen und Diesel nur mit Elektropumpen aus den Tanklagern gepumpt werden kann?

Ist das die Zukunft der europäischen Stromversorgung? Bürger, die Streichhölzer, Kerzen und batteriebetriebene Funkgeräte verwenden, um Stromausfälle zu überbrücken, und Unternehmen und Regierungsbehörden, die auf Notstrom-Dieselgeneratoren angewiesen sind? Klingt nach den 1950ern.

No Tricks Zone

Gefunden über Stopthesethings vom 06.09.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/09/06/new-dark-ages-obsession-with-intermittent-wind-solar-renders-germany-the-blackout-nation/




Google diskriminiert Konservative und Klima-Skeptiker

Die Algorithmen bevorzugen eindeutig linke Inhalte, wenn Suchergebnisse gezeigt werden. Allgemein gesagt, ordnen und präsentieren sie Suchergebnisse auf der Grundlage so genannter „autoritativer Quellen“. Das Problem dabei ist, dass diese Quellen zumeist „Mainstream“-Medien sind, welche fast ausschließlich links stehen.

Die Algorithmus-Definition von „autoritativ“ seitens Google macht Linke zur Stimme der Kompetenz. Größer ist besser, und die Linken haben nun einmal die meisten und größten Nachrichten-Portale. Die Algorithmen sind sehr komplex, aber der zugrunde liegende Gedanke ist, je mehr Websites gezeigt werden, umso größer die Kompetenz.

Das ist so, als ob man sagt, eine Zeitung mit mehr Abonnenten ist vertrauenswürdiger als eine solche mit weniger Abonnenten. Das ist tatsächlich ohne Sinn, aber so behandelt Google Nachrichten und andere Domains. Popularität ist nicht Kompetenz, aber der Algorithmus ist so programmiert, dass er es auf diese Weise sieht.

Dies erklärt, warum die erste Seite mit Suchergebnissen nach Eilmeldungen fast immer Links von linken Portalen zeigt. Es gibt absolut kein Gleichgewicht mit konservativen Nachrichten-Quellen. Angesichts des Umstands, dass etwa die Hälfte aller Amerikaner Konservative sind, ist der Nachrichten-Bias von Google wahrhaft verwerflich.

Im politischen Bereich, der unsere Energieversorgung, die Wirtschaft, Arbeitsplätze, die nationale Sicherheit, Lebensstandards und andere entscheidende Dinge beeinflusst, ist die Unterdrückung alternativer oder skeptischer Stimmen, Beweise und Perspektiven sehr gefährlich für die USA und die ganze Welt.

Im vorigen Jahr dokumentierte ich einen extremen Fall dieses Bias‘ in der Arena des Alarmismus‘ bzgl. der „gefährlichen, vom Menschen verursachten globalen Erwärmung“. Meine individuellen Nachforschungen zu prominenten Skeptikern alarmistischer Behauptungen enthüllten, dass die „autoritative Quelle“ von Google eine obskure Website mit der Bezeichnung DeSmogBlog war. Diese Website ist berühmt dafür, hässliche negative Dossiers über Skeptiker anzulegen, darunter über mich selbst sowie über viele meiner Kollegen (link).

Bei jeder Suchanfrage passieren sofort mehrere Dinge gleichzeitig. Erstens zeigt Google sofort den Link zu dem Dossier über den entsprechenden Skeptiker auf dem DeSmogBlog, obwohl dieses vielleicht schon Jahrzehnte alt und/oder höchst ungenau ist. Tatsächlich war dies mehr als einmal das erste Suchergebnis. Zweitens, etwa die Hälfte aller Ergebnisse waren negative Attacken – was nicht überraschend kommt, attackiert doch die linke Presse oftmals uns Skeptiker.

Drittens, Skeptiker werden oft als „von Big Oil finanziert“ gebrandmarkt, während die Finanzierung der Alarmisten durch eigensüchtige Regierungs-Agenturen, Unternehmen erneuerbarer Energie, linksextreme Stiftungen oder Tom Steyer (welcher mit der Finanzierung von Kohleminen in Asien zum Milliardär geworden ist) allgemein ignoriert wird.

In krassem Gegensatz dazu ergibt die Suche nach Informationen über prominente Klima-Alarmisten nichts als Lobhudeleien. Auch das ist keine Überraschung, lieben doch die linken „autoritativen“ Quellen die Alarmisten.

Dieser Algorithmus-Bias gegen Skeptiker ist Atem beraubend – und er wirkt bis in die Debatte um den Klimawandel selbst hinein. Suchergebnisse zu fast allen Themen bzgl. Klima sind von alarmistischen Inhalten dominiert.

Tatsächlich scheint dem Klimawandel besondere algorithmische Aufmerksamkeit zuteil zu werden. Die Sonder-Kategorie von Klima-Websites bei Google, hyperbolisch „Ihr Geld oder Ihr Leben“ genannt, erfordert sogar noch stärkere „autoritative“ Kontrollen der Suchen. Egal wie gut sie begründet sind – Artikel,welche die Dominanz menschlicher Faktoren bzgl. des Klimawandels, die fast apokalyptischen Auswirkungen des prophezeiten Klimawandels oder den Wert und die Validität von Klimamodellen in Frage stellen, werden fortwährend von den Google-Algorithmen ignoriert.

Die Algorithmen ignorieren auch die Tatsache, dass unsere Arbeitsplätze, die Wirtschaft, unser finanzielles Wohlergehen, unser Lebensstandard und die Reisefreiheit sowie die Freiheit, unsere Wohnungen zu heizen oder zu kühlen, ernsthaft und negativ beeinträchtigt werden durch Energie-Gesetzgebungen, die im Namen der Verhinderung eines kataklysmischen, vom Menschen verursachten Klimawandels gerechtfertigt werden. Der monumentale Bedarf an Bergbau und Rohstoffen für Windturbinen, Solarpaneele, Biotreibstoffe und Batterien findet kaum Erwähnung bei der Google-Suche. Gleiches gilt für die extensiven Auswirkungen dieser vermeintlich „sauberen, grünen, erneuerbaren, nachhaltigen“ Technologien auf die Landschaft, auf Habitate und die Tierwelt.

Man kann mit Fug und Recht sagen, dass Klimawandel derzeit das größte Einzelthema in der Politik ist. Und doch degradiert und „ächtet“ Google folglich jedwede Website, welche „nachweislich ungenaue Inhalte oder widerlegte konspirative Theorien“ enthält. Genau das ist die Definition des Skeptizismus bzgl. jeden Klima-Alarms oder Behauptungen bzgl. erneuerbarer Energie. Google erklärt nicht, wie dessen Algorithmen diese spezifisch subjektiven Einschätzungen vornehmen, ob ein Beitrag genau, autoritativ und folglich gepostet wird – oder falsch, fragwürdig und damit der Vergessenheit anheim fällt.

Googles authority-based Such-Algorithmen sind auch darauf getrimmt, linke Inhalte fast allen konservativen Inhalten vorzuziehen; das gilt besonders für Beiträge zu den Themen Klima und Energie. Dieser zutiefst linke Bias ist fundamental falsch und unamerikanisch, wenn man bedenkt, welche zentrale Rolle Google in unserem Leben spielt.

Die Betreiber von Google werden immer wohlhabender durch die Kontrolle des Zugangs zu Informationen – und folglich der Kontrolle des Denkens, der Debatte, politischer Entscheidungen und unserer Zukunft – indem ein öffentliches Internet-System benutzt wird, welches von Verteidigungs- und anderen Regierungs-Agenturen ins Leben gerufen worden war. Ziel war die Sicherstellung des freien Informationsflusses und der offenen, robusten Diskussion vitaler politischer Dinge. Niemals war beabsichtigt, links-progressive-linksextreme Restriktionen nach Art eines Polizeistaates einzuführen und Entscheidungen zu fällen, wer gehört werden darf und wer nicht.

Dem Weißbuch „wie wir gegen Falschinformation vorgehen“ von Google zufolge ist die separate Sparte der Nachrichten-Suche Gegenstand besonderer algorithmischer Behandlung – das heißt, dass fast alle Links auf der ersten Seite zu linken Nachrichten-Quellen weisen. Dieser eklatante Bias ragt wie ein Fanal in multiplen Tests hervor. In keinem Fall fand ich unter den ersten zehn Links mehr als einen Link zu einer konservativen Nachrichten-Quelle. Manchmal sogar überhaupt keinen.

Beispiel: mein Suchbegriff „Biden 2020“ ergab die folgenden zehn Suchergebnisse, in dieser Reihenfolge: CNN, the New York Times, Vice, Politico, noch einmal CNN, Fortune, Fox News, The Hill und och einmal Politico. Die einzige konservative Quelle war Fox News an achter Stelle.

Natürlich würden konservative Inhalte nicht nett zu Mr. Biden sein. Aber falls Google an prominenter Stelle Skeptiker und Konservative angreifen kann/darf – warum kann es dann nicht auch Demokraten angreifen?

Der größte Gehalt an konservativen Links, die ich fand, war einer von acht Links oder 12%. Etwa ein Drittel meiner Stichproben wiesen überhaupt keine konservativen Quellen auf. Das Mittel von etwa 7% belegt den dramatischen Bias von Google hin zu linken Quellen, die dessen Dominanz von 92,2% eindrücklich unterstreicht.

Die wenigen konservativen Quellen sind tatsächlich mehr in der politischen Mitte angesiedelt, wie Fox News und der Washington Examiner. Google fand niemals wahrhaft konservative Quellen (welche es „rechts“ nennt) wie Breitbart, Townhall oder der Daily Caller. Es kommt einfach nicht vor, und der Algorithmus weiß das ganz genau – wie auch Google. Gleiches gilt für andere Informationen und Websites sozialer Medien.

Natürlich stehe ich nicht allein mit dieser Erkenntnis einer eklatanten Diskriminierung bestimmter Standpunkte.

Koppelt man diesen Sachverhalt mit dem Umstand, dass er fast vollständig übernommen worden ist von den UN, vom IPCC und anderen globalen Regierungs-Institutionen durch umweltaktivistische und sozialistische Kräfte – nebst deren totaler Aussonderung von Skeptikern eines menschengemachten Klima-Chaos‘, an freien Märkten orientierter Ökonomen und jedermann, welcher die Rolle oder die Auswirkungen erneuerbarer Energie in Frage stellt – sind die Auswirkungen auf Diskussionen und Debatten, auf Bildung und Entscheidungen diktatorisch und verheerend.

Keine freie, blühende, moderne Gesellschaft kann unter diesen Bedingungen und Restriktionen überleben. Es ist an der Zeit für Bürger, Gesetzgeber und Richter einzugreifen und dieses imperiale Monopol aufzubrechen.

David Wojick is an independent analyst specializing in science, logic and human rights in public policy, and author of numerous articles on these topics.

——————————————–

Paul Driessen hat zu diesem Beitrag den folgenden treffenden Kommentar geschrieben:

Für ein vermeintliches Medium bzgl. Forschung und Bildung, welches fast 92,2% aller Suchanfragen steuert, ist dieser Sachverhalt nicht einfach nur verwerflich. Er ist regelrecht gefährlich für eine freie, funktionierende, moderne demokratische Gesellschaft und die Welt. Besonders inakzeptabel ist, dass diese „Suchmaschine“ sich eines öffentlichen Internet-Systems bedient, welches von Regierungs-Agenturen mit den Dollars der Steuerzahler erschaffen worden ist – mit dem Ziel der Sicherstellung des freien Meinungsaustausches.

Link: http://icecap.us/index.php/go/political-climate vom 31. August 2019

Ein PDF dazu gibt es hier: Google discriminates against conservatives and climate skeptics

Übersetzt von Chris Frey EIKE