Smart Grids nehmen 35 Prozent mehr Ökostrom auf

Wer in Smart Grid keinen Sinn sieht, zeigt nur keine Geduld, auf den Fortschritt zu warten

Ein „intelligenter“ Zähler soll jedoch enorme Vorteile bieten. Nur für wen, muss sich noch herausstellen.
Zum Beispiel ist er ein Energie-weg-Fresser. Und er frisst vorwiegend nachhaltige Energie, welche bekanntermaßen mangels Rechnungslegung von Wind und Sonne nichts kostet und immer öfter im Überfluss durch die Leitungen fließt, sofern diese nicht gerade durch veralteten, dreckigen und langsam fließenden Strom verstopft sind.

Smart Grids lassen überschüssigen GREEN-Strom im Ortsnetz

In der Vor-EEG-Zeit war Strom zwar billig, galt aber trotzdem als zu wertvoll, um ihn als Heizmaterial zu missbrauchen und selbst die elektrischen Nachtspeicheröfen wurden deshalb aussortiert. Doch heutzutage fließt EEG-Strom wie im Paradies Wein und Honig, so viel, dass man den Überfluss – so man nicht Smart Grid hätte – aus dem Mittelspannungsnetz nutzlos abtransportieren müsste.
Im Artikel: EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze,
wurde das Problem der Spannungsanhebung in Netzen durch die unkontrollierte EEG-Vorrangeinspeisung erklärt. Es führt dazu, dass die Versorger für viel Geld ihre Netze mit „intelligenten“ Ortsnetz-Trafos umrüsten müssen (was die Hersteller freut). Wobei sich die „Intelligenz“ darauf beschränkt, dass man innerhalb eines kleinen Bereiches durch einen steuerbaren Stufenschalter das Übersetzungsverhältnis verstellen kann.
Zwar ist es teuer (weshalb es in den Lokalzeitungen von Versorgern oft als „Zukunftsertüchtigung“ vermittelt wird), bringt aber wenig, schon gar nicht eine wirkliche Problemlösung. Dafür müssen ganz andere Kaliber an „Netzintelligenz“ her. Und diese – zusätzlich erforderliche Intelligenz – erbringen die Smart Grid-Zähler.
Wie bekannt, ist „die Intelligenz“ in Bayern besonders groß und so betrieben die bayerischen Lechwerke ein Pilotprojekt in Wertachau zur Belegung der enormen Vorteile intelligenter Smart-Grid Zähler(*innen).
EnerIgate messenger 09.08.2017: [1] Smart Grids nehmen 35 Prozent mehr Ökostrom auf
… Im Ergebnis konnte schließlich 35 Prozent mehr lokaler Ökostrom ins Netz fließen. Insbesondere an sonnigen Tagen sorgte der Smart Operator dafür, dass sonst überschüssiger Strom im Ortsnetz blieb und nicht über das regionale Mittelspannungsnetz abtransportiert werden musste …

Dort „vernichten“ ihn zusätzliche Verbraucher

Das „fließen lokalen Ökostromes im Ortsnetz“ gelingt, indem man ihn dort ganz einfach gezielt „vernichtet“. An Intelligenz benötigt man dazu viele Strom verbrauchende Geräte, welche sich nicht nach der Intelligenz des Besitzers ausrichten, sondern sich bedingungslos den Zwängen der EEG-Einspeisung unterwerfen. Leider sind dies oft teure Neuanschaffungen:
[1] Des Weiteren konnte bis zu 20 Prozent der Last in den Haushalten durch die intelligenten Geräte verschoben werden. Das größte Potenzial boten dabei die Batterie- und Wärmespeicher sowie E-Auto-Ladeboxen …,
und weniger die preiswerten (und vorhandenen) Massegeräte
[1] … Im Bereich der Haushaltsgeräte, der sogenannten Weißen Ware, sei das Lastverschiebungspotenzial laut den Projektergebnissen hingegen gering.

Ein „Smart Operator“ lenkt die Sklaven der Überschussvernichtung

Eindeutig sind es nicht die angeblich intelligenten Smart Grid, welche den Verbrauchsfluss lenken, sondern eine Zentrale.
[1] Der Smart Operator verfügt über einen sich selbst optimierenden Algorithmus, der vor Ort die verschiedenen Bausteine des Ortsnetzes so steuert, dass das Netz optimal genutzt wird. Einflussfaktoren für den Steueralgorithmus waren in dem Projekt etwa Lastprofile der Haushalte sowie Wetterprognosen und zu erwartende Einspeisemengen aus Erneuerbarenanlagen. Auf Basis dieser Werte stimmte der Smart Operator Lasten, Aufnahmefähigkeit und Speichermöglichkeiten im Stromnetz aufeinander ab. So konnten erfolgreich erzeugungsbedingte Spannungsspitzen im Netz geglättet und die Aufnahmekapazität für erneuerbare Energien erhöht werden.

Man ahnt, für wen sich die neue Intelligenz auf jeden Fall lohnt

[1] An dem Projekt in Wertachau nahmen 115 der dortigen 125 Haushalte teil. Insgesamt tauschten die Lechwerke 160 herkömmliche Zähler durch Smart Meter aus. In 23 Haushalten kamen zudem intelligente Haushaltsgeräte zum Einsatz, die in das Smart Grid integriert wurden. Dabei handelte es sich um Wasch- und Geschirrspüler, Wäschetrockner, Batteriespeicher, Wärmepumpen und Ladeboxen für Elektroautos. Die intelligenten Geräte kommunizierten dabei untereinander über ein eigens aufgebautes Glasfasernetz. Zudem speisten 23 Fotovoltaikanlagen in das intelligente Netz ein. Ein regelbarer Ortsnetztransformator sorgte überdies dafür, dass die Spannungsgrenzen im Netz eingehalten wurden.

Bezahlen muss es auf jeden Fall auch der Normalverbraucher, welcher dadurch mehr Kosten als Nutzen hat

Was die bayerischen Lechwerke in ihrer Studie ermittelten, ist längst bekannt. Bereits im Jahr 2011 wurde berichtet:
ELEKTRONIK, 14.09.2011: Kosten oft höher als Einsparung: »Smart Metering« unter Beschuss
… Die aufkommenden »intelligenten« Elektrizitätszähler sind ins Kreuzfeuer der Kritik geraten. Viele Kunden der Energieversorger sind verärgert, weil sie damit nicht wie erwartet weniger, sondern mehr für elektrische Energie bezahlen müssen. Die detaillierten Daten, die »smart meter« aufnehmen, lassen außerdem die Datenschützer Alarm schlagen. In vielen Staaten der Welt regt sich Widerstand in Form von Internetforen und Bürgerinitiativen.
Die Herstellung und der Einbau der neuen Elektrizitätszähler kosten einiges Geld. Dazu kommt ihre Stromversorgung rund um die Uhr. Wie die Deutsche Energie-Agentur ermittelt hat, liegen die Anschaffungs- und Einbaukosten für die „smart meter“ deutlich höher als die dadurch ermöglichten Kosteneinsparungen: Je nach Anbieter werden einmalig 35 Euro bis 100 Euro und jährlich zwischen 60 Euro und 240 Euro in Rechnung gestellt. Dem stehen im Mittel optimistisch gerechnete Einsparungen von 9 bis 42 Euro gegenüber. Zu einem ähnlich vernichtenden Urteil kommt eine 76-seitige, in Österreich durchgeführte Studie.
Das erreichbare Energieeinsparungspotential liegt gerade mal bei einigen Prozent – ein Tropfen auf den heißen Stein. Dem stehen erheblicher technischer Aufwand und hohe Kosten gegenüber. Letztlich läuft es auf das Prinzip heraus „Warum einfach, wenn es auch kompliziert geht?“
Intelligente Zähler sparen nicht automatisch Energie ein. Sie sparen bei den EVUs Kosten für Investitionen in Kraftwerksleistung und bringen ihnen mehr Geld ein durch höhere kWh-Preise. Den Nutzen haben die Großen, den Schaden die Kleinen. Das Argument „Umweltschonung“ ist nur vorgeschoben, es ist mehr oder weniger Augenwischerei.

elektronik.net 05.06.2013: Feldstudie: Smart Meter senken Strombedarf leicht:
Elektronische Stromzähler haben in Deutschland bisher gewisse Anlaufprobleme. Neben dem Datenschutz stellt sich auch die Frage, wie weit sie überhaupt zum Energiesparen beitragen. RWE hat nun Ergebnisse eine Studie in Mülheim veröffentlicht, wo nahezu jeder Haushalt ein Smart Meter hat.
Grundlage der Studie ist das Projekt »Mülheim zählt«, bei dem von 2008 bis 2012 mehr als 100.000 Smart Meter in der Stadt installiert wurden. Damit ist Mühlheim praktisch komplett mit solchen Zählern ausgestattet.
Das Projekt hat 30 Millionen Euro gekostet und wurde von RWE finanziert. Die Smart Meter sowie die Visualisierungssoftware wurden dabei kostenlos zur Verfügung gestellt. Dabei gibt RWE an, dass so ein Smart Meter rund 10 mal teurer als ein Analog-Zähler ist …
Sollte der Verbraucher diesen Preis also selbst tragen, dürfte es eine ganze Weile dauern, bis die Anschaffungskosten wieder ausgeglichen sind. So bemängeln Kritiker der Smart Meter dann auch häufig, dass die Kosten in keinem Verhältnis zur eingesparten Energie stehen.

Zu dieser Sorge lässt sich nachtragen: Unsere „Vordenker“ und auch die um ihre Kunden (un-)besorgten EVUs sind dabei, das Verhältnis in die gewünschte Richtung zu bringen. Der Strom wird noch so teuer werden, dass sich wirklich jede (noch so geringe) Einsparung lohnt.

Vertrauen ist gut, Kontrolle besser

In einer Firmenzeitschrift war zu lesen, dass die Smart-Meter in Brasilien genutzt werden, um in den Haushalten die gemeldet Anzahl Personen und den Verbrauch zu kontrollieren. Damit wird „Stromklau“ entdeckt, das Abzapfen des Stromes vor dem Zähler – eine in Brasilien scheinbar nicht seltene Form der „Stromgewinnung“.
China arbeitet bereits an der Realisierung der mit solcher (und der Internetüberwachung) möglichen Zukunft:
Frankfurter Allgemeine 22.11.2017: Nationales Punktesystem China plant die totale Überwachung
Mit einem gigantischen Punktesystem wollen Chinas Kommunisten jeden einzelnen Bürger zu sozialistisch-tugendhafter Folgsamkeit zwingen. Regierungskritiker werden bestraft.
Die Pläne von Chinas Regierung, mit einem „Sozialkreditpunktesystem“ die rund 1,4 Milliarden Einwohner der Volksrepublik zu einem vorgeschriebenen sozialen Verhalten zu zwingen, sehen laut Berichten von Staatsmedien erstmals auch Strafen für Wohlhabende vor und gehen damit weit über ihr bisher bekanntes Ausmaß hinaus.
So sollen in der im April neu geschaffenen Verwaltungszone Xiongan nahe Peking, die unter direkter Kontrolle der chinesischen Zentralregierung steht und als persönliches Prestigeprojekt von Präsident
Xi Jinping gilt, unter anderem diejenigen Bürger mit Minuspunkten bestraft werden, die „allein in einer großen Wohnung“ leben, wogegen „Familien, die gemeinsam in kleinen Wohnungen“ leben, Pluspunkte erhalten sollen.
Dies berichtet das Nachrichtenportal „The Paper“, das zur staatseigenen Shanghai United Media Group gehört und unter Aufsicht der Kommunistischen Partei steht. Nach den Plänen in Xiongan, die an die Volkskommunen unter Mao erinnern, in denen harte Feldarbeit mit Pluspunkten belohnt wurde, wird ein Bewertungssystem eingeführt. Dieses untersucht den Angaben zufolge „Gesetzestreue, moralisches Wohlverhalten, soziales Engagement, Aktivitäten im öffentlichen Interesse und Umweltschutz“ jedes einzelnen Bürgers. Abweichungen von sozialen und moralischen Normen werden bestraft. Dem Bericht zufolge soll in Xiongan dazu auch das Fahren ausländischer Oberklasseautos zählen.
Verstoßen die neuen Einwohner gegen die detaillierten Verhaltensregeln, erhalten sie laut dem Bericht neben einem Verbot für den Erwerb von Wohnungen auch keine Schulplätze für ihre Kinder und dürfen keiner Arbeit nachgehen. So soll unter anderem Immobilienspekulation unterbunden und Umweltbewusstsein erzwungen werden. Laut „The Paper“ werden zum Beispiel 100 Punkte von dem persönlichen Bonitätskonto abgezogen, wenn ein Bürger nicht „freiwillig“ beim Pflanzen von Bäumen mithilft.
In vielen Provinzen gibt es für Bürger schon heute empfindliche Strafen bei Fehlverhalten. In der östlichen Provinz Zhejiang, in dessen Hauptstadt Hangzhou Alibaba seinen Sitz hat, liegt der Punktestand jedes Bürgers jedem Internetnutzer auf einer Regierungswebsite offen. „Nicht ehrliches Verhalten“ wird in der Provinz mit Sippenhaft und Freiheitsbeschränkungen geahndet.

Bei uns macht man es übergangsweise mit CO2-Zertifikaten, erst später mit Ethikräten

Die Tendenz, den Untertanen lenken zu wollen, um ihm und der Welt Gutes zu tun, gibt es auch bei uns. Ein Teil davon ist der bestimmt bald drastisch verteuerte CO2-Preis:
EIKE 18. November 2017: Die Kür Macrons zum neuen Klimapräsidenten kann Deutschland zusätzlich (mindestens) 22,5 Milliarden EURO pro Jahr kosten,
aber auch der wieder zunehmende Einflussversuch von „Gutmenschen“, die für sich beanspruchen, mittels theologischer Methoden die Zukunftssorgen der späteren Generationen zu kennen und daraus ableiten, welches Verhalten heute zur Lösung erforderlich ist:
Klimaretter.Info 23. November 2017: Ethikrat soll Klimawandel thematisieren
Eine: … Postdoktorantin der Forschergruppe „Climate Change and Security“ (CLISEC) der Universität Hamburg an den Schnittstellen von Umwelt-, Sicherheits- und Machtpolitik sowie in den Transformations- und Anthropozänstudien …
durfte ihre Sicht der Klimadiskussion auf dem Blog unserer Politikberaterin zum Klima präsentieren
Klimaretter.Info: … Angesichts der Bedrohungsszenarien für den menschlichen Lebensraum und der gesamtgesellschaftlichen Konsequenzen überrascht es, dass den Erkenntnissen der Klima- und Erdsystemwissenschaftler … bisher wenig Beachtung geschenkt wurde.
Doch scheint die Institution
(Anm.: Der Ethikrat) geradezu prädestiniert, sich den klimapolitischen Herausforderungen zu stellen, da sie sich selbst das Ziel gesetzt hat, sich mit den „großen Fragen des Lebens“ zu befassen, auf die es „keine einfachen Antworten“ gibt.
… Sollte sich der Ethikrat des Themenkreises von gesellschaftlichem (Klima-)Wandel und Verantwortung annehmen, wären vorrangig zu debattierende Fragen unter anderem der Umgang mit wissenschaftlichen Erkenntnissen und die Erfassung von Bedeutung und Tragweite unseres (Nicht-)Handelns.
… Dies hätte unter anderem zum Ergebnis, dass der Fokus von scheinbar fernen Vorhersagen, fernab liegenden Tragödien sowie abstrakten Grenzwerten maximaler Treibhausgasemissionen auf uns Menschen im Hier und Jetzt gelenkt, unsere Gefühle und Vorstellungen in den Mittelpunkt gerückt und wir ein Stück mehr in die Gestaltung der Zukunft miteinbezogen würden …

Quellen
[1] EnerIgate messenger 09.08.2017: Smart Grids nehmen 35 Prozent mehr Ökostrom auf
[2] EIKE, 14.11.2017: Das Smartmeter – Zwangsbeglückung und Visionen




Änderungen des Meeres­spiegels und Klima auf Fidschi: totale Falsch­informa­tionen von COP23

Der Gedanke, dass der Meeresspiegel jetzt schnell steigt, stammt vom IPCC, wo Computermodelle kreiert wurden, die einen solchen raschen Anstieg zeigen, zusammen mit einer demnächst einsetzenden „Beschleunigung“ desselben (welcher mit jedem neuen IPCC-Bericht unmittelbarer prophezeit wird und der jetzt sehr bald kommen soll). Es wurden sogar Daten manipuliert, damit diese die Vorgabe des IPCC stützen (www.ijesi.org||Volume 6 Issue 8|| August 2017 || PP. 48-51).

In wahrer Wissenschaft muss man die realen Fakten erkunden, so, wie sie vor Ort beobachtet oder durch validierte Experimente gegeben werden. Auf den Malediven, in Bangladesh und Südindien gibt es sehr klare zu beobachtende Fakten, welche während der letzten 40 bis 50 Jahre stabile Meeresspiegel-Bedingungen belegen (http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.

Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven. Hiermit als Einführung ist es jetzt an der Zeit, Fakten und Fiktion zu erkunden bzgl. der Änderung des Meeresspiegels bei den Fidschi-Inseln.

Im März 2017 führten wir extensive Untersuchungen bzgl. des Meeresspiegels auf den Fidschi-Inseln durch, und wir konnten dabei sehr detailliert die Änderungen des Meeresspiegels während der letzten 500 Jahre rekonstruieren (überraschenderweise hatte keine Studie zuvor diese entscheidende Periode zum Thema, welche für das Verständnis dessen, was heute vor sich geht, so wichtig ist). Unsere Studie enthält auch eine detaillierte Aufzeichnung der Küsten-Morphologie, hoch präzise Nivellierung, Datierung von 17 Stichproben mittels des C14-Verfahrens und Aufzeichnung des Wachstums der Korallen hinsichtlich der dieses Wachstum bestimmenden Tiefe unter der Wasseroberfläche bei Niedrigwasser.

Wir haben unsere Analyse der Tidenmesspunkte auf den Fidschi-Inseln veröffentlicht (nicht direkte Messung eines Meeresspiegel-Anstiegs, sondern eine lokalspezifische Verdichtung und Ozean-Dynamik), ebenso wie Küstenerosion (nicht durch den Anstieg des Meeresspiegels, sondern durch menschliche Fehler) und gemessener und aufgezeichneter Meeresspiegel-Änderungen (https://doi.org/10.15344/2456-351X/2017/137).

Es stellte sich heraus, dass der Meeresspiegel bei den Fidschi-Inseln während der letzten 200 Jahre praktisch stabil geblieben ist. Allerdings wurden zwei geringe Änderungen beobachtet. Der Meeresspiegel schien Anfang des 19. Jahrhunderts um etwa 30 cm höher gelegen zu haben. Kurz nach dem Jahr 1950 fiel der Meeresspiegel um etwa 10 cm, was zum Absterben vieler Korallen führte, die bis zu ihrem Minimum-Niveau von 40 cm unter der Wasseroberfläche gewachsen waren. Während der restlichen 50 bis 70 Jahre kann nachgewiesen werden, dass der Meeresspiegel absolut stabil war, belegt durch Korallen, welche an vielen verschiedenen Stellen beobachtet gezwungen waren, sich horizontal auszubreiten in so genannte Mikro-Atolle.

Diese Dokumentation der Stabilität des Meeresspiegels während der letzten 50 bis 70 Jahre ist von fundamentaler Bedeutung, weil damit das gesamte Gerede über einen rapide steigenden Meeresspiegel als Falschinformation und Fake News entlarvt wird (importiert aus Modellanalysen).

In der Wissenschaft mag es unterschiedliche Ansichten und Interpretationen geben. Das ist normal und Bestandteil vitaler wissenschaftlicher Fortschritte. Allerdings müssen beobachtete/gemessene Fakten immer über Modellanalysen stehen. Im Falle Fidschi haben wir da etwas außerordentlich Aussagekräftiges, nämlich das Korallenwachstum zu Mikro-Atollen – und Korallen lügen nicht.

Wenn der Präsident von COP23, Premierminister der Fidschi-Inseln Frank Bainimarama feststellt, dass „der Klimawandel augenfällig“ ist und dass der „Anstieg des Meeresspiegels ein Faktum ist“, dann bezieht er sich in Wirklichkeit nicht auf wirklich stattfindende Vorgänge auf den Fidschi-Inseln, sondern auf Fake News, getrieben von bestimmten Agenden.

Was Klimawandel betrifft, so sind in Fidschi keinerlei Änderungstrends beobachtet worden. Im Jahre 2016 zog der Wirbelsturm Winston über das Gebiet hinweg und richtete große Schäden an. Allerdings war dies ein Wetterphänomen, nichts anderes. Im langzeitlichen Trend nehmen tropische Zyklone im Pazifik im Zeitraum 1961 bis 2017 weder an Anzahl noch an Stärke zu. Schlussfolgerung: Es gibt keine größere Klimaänderung oder eine Zunahme von Extremwetter im Gebiet der Fidschi-Inseln.

Was Änderungen des Meeresspiegels betrifft, haben Tidenmessungen nicht die Qualität, um als Indikator eines gegenwärtigen Anstiegs des Meeresspiegels herangezogen werden zu können. Küstenerosion ist kein allgemeiner Vorgang auf den Fidschi-Inseln, und wo es doch dazu kommt, kann man nachweisen, dass die Ursache hierfür ein falscher Umgang der Menschen mit der Küste ist. Aufschlussreichere Beweise liefert die Analyse der küstennahen Morphologie und des Korallenwachstums an 12 verschiedenen Stellen auf den Fidschi-Inseln. Der Meeresspiegel ist während der letzten 50 bis 70 Jahre perfekt stabil geblieben. Schlussfolgerung: Alles Gerede um einen rapide steigenden Meeresspiegel bei den Fidschi-Inseln ist nichts weiter als Falschinformation und Fake News.

Dies ließ mich einen „offenen Brief“ an den Präsidenten von COP23, den Premierminister Frank Bainimarama der Fidschi-Inseln schreiben, in welchem ich auf die wirklichen beobachteten Fakten hinwies: Kein Anstieg des Meeresspiegels, sondern dessen absolute Stabilität während der letzten 50 bis 70 Jahre. Auch drängte ich ihn in dem Brief zu „zurück zur Natur“, indem Beweise vor Ort im Mittelpunkt stehen sollten und nicht irgendwelche Modelle und Gedanken, getrieben von politischen und/oder religiösen Agenden.

Link: (https://tallbloke.wordpress.com/2017/11/14/nils-axel-morner-open-letter-to-the-cop23-president/).

Prof. Dr. Nils-Axel Mörner, Geologe & Geophysiker, Spezialist bzgl. Änderungen des Meeresspiegels




Diesel-Verteufelung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (8)

Bild 1. Fortschritt: In den 20er Jahren kostete so ein kleiner „Volks-Flitzer“ 1995,- Mark, wog 320 kg und kam 500 km weit. Hypermoderne E-Mobile kosten heute bis zu 100.000,- €, wiegen 2.000+ kg und kommen realistisch gerechnet etwas mehr als 300-350 km weit


In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Nicht wenige der Studien, die das behaupten, basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil zeigte sich anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Im jetzigen achten Teil wird darauf eingegangen, wie winzig die Bereiche nahe der wenigen Hauptstraßen sind, in denen es tatsächlich zu Überschreitungen von Grenzwerten kommt.
Das Auspuffrohr des Autos ist 25 Mal tödlicher als das Auto selbst“
Dies behauptete Jon McNeill, Teslas Verantwortlichem für den weltweiten Absatz, am 22. Dezember 2016 in einem Interview mit Hongkongs TVB Pearl [TSLA]. Würde man diese Aussage auf Deutschland mit seinen rund 3.500 Verkehrstoten (2015) umrechnen, so wären dies 87.500 Todesfälle durch Autoabgase. Diese groteske Zahl übertrifft selbst die Hetzparolen der DUH noch um fast eine Größenordnung. Sie zeigt vor allem eins: Was DUH und Konsorten bei uns treiben, passt nahtlos in die Marketingstrategie des einen oder anderen „fortschrittlichen“ Konzerns, insbesondere solcher aus den USA und Japan. Sie treibt nicht die Sorge um unsere Gesundheit um, sondern der dringende Wunsch, die zu Schmutzfinken deklarierten Wettbewerber vom Markt zu verdrängen. Umweltfrevel, welche für die Gewinnung der Rohstoffe für die tonnenschweren Batterien begangen werden, fallen ebenso aus der Betrachtung heraus wie die Tatsache, dass aufgrund des hohen Kohleanteils am elektrischen Strom die Emissionen lediglich verlagert werden und dann am Kraftwerksschornstein statt am Kfz-Auspuff entstehen. Mit dieser Schmutzkampagne waren insbesondere die Vertreter US-amerikanischer Interessen besonders erfolgreich. Über von ihnen beeinflusste Organisationen wie das US-Umweltministerium EPA sowie die WHO haben sie es geschafft, der EU und über diese auch Deutschland die absurd niedrigen NO2-Grenzwerte aufzuschwätzen, mit deren Hilfe Politik und Medien gemeinsam versuchen, unserer Automobilindustrie den Garaus zu machen.
Die Mär von der flächendeckenden Vergiftung der Stadtluft

Bei so gut wie allen Meldungen in den Medien wird suggeriert, dass die „zu hohen“ Immissionswerte an einigen wenigen Messstationen einiger Großstädte gleichzusetzen wären mit der breit angelegten Vergiftung so gut wie aller Bewohner dieser Städte. Diese Kampagnen haben eine fatale Breitenwirkung: Zigtausendfach finden sich deshalb in Kommentarspalten und Blogs entsprechende Meinungen wie z.B.: „Fakt ist, daß diese Motoren leider auch schädliche Gase auspusten. An diesen Gasen verrecken allein in Deutschland jedes Jahr bis zu 15 000 Menschen (in Europa sind es rund 400 000). Die Frage lautet also: was verlierst Du lieber, wenn Du zwischen Deinem Arbeitsplatz und Deinem Leben wählen mußt?“ [BLOG]. Befeuert werden solche Meinungen hochamtlich u.a. durch farblich raffiniert gestaltete Grafikdarstellungen, wo die deutschen Ballungszentren von giftgrün-gelblichen Schleiern NO2 belasteter Luft überzogen erscheinen. Die Manipulation wird auch durch eine passende Legende unterstützt, aus der nicht erkennbar wird, wo die Grenzwerte verlaufen, Bild 2.

Bild 2. Angsterzeugend: In dieser UBA-Grafik überziehen großflächige NO2-Schleier in giftgrün-gelblichen Farbtönen die industriellen und städtischen Ballungszentren vom Rhein-Main-Gebiet über Stuttgart bis München (Grafik: UBA)

Derartiges Material wird dankbar von der Lückenpresse aufgegriffen und – erforderlichenfalls nach „kreativer Abwandlung“ – zur Angsterzeugung eingesetzt, wie das Beispiel eines Berichts im „SpiegelOnline“ [SPIE] mit dem Titel „Gesundheitsrisiko Stickoxid Wo Luft in Deutschland krank macht“ zeigt. Nach dem Titel geht es in der Einleitung im gleichen Tonfall weiter: „Im Herbst und Winter droht dicke Luft in Deutschlands Städten. Zwar gibt es weniger Feinstaub, doch die Stickoxid-Grenzwerte werden vielerorts überschritten. Der große Überblick”, gefolgt von einer erschreckenden Deutschland-Karte, die in satten roten und gelben Warnfarben geradezu glüht, Bild 3.

Bild 3. Fakten? Wer braucht schon Fakten, wenn man die gewünschte Botschaft viel einfacher durch Farben direkt am Verstand vorbei ins Unterbewusstsein transportieren kann (Grafik: [SPIE])

Zu diesem Bild gibt es weder Bildunterschrift noch Legende noch Quellenangabe, lediglich einen diskreten Vermerk „Bundesumweltamt“. Letzteres ist möglicherweise als Quellenangabe gedacht, nur gibt es dieses Amt in Deutschland nirgendwo, stattdessen ein Umweltbundesamt (UBA). So schlampig geht es dann auch gleich weiter, denn erst wenn man das Video aufruft, erfährt man, dass es um Feinstaub und nicht um Stickoxide geht, wie es die Überschrift ja eigentlich erwarten ließe. Ein weiterer Beweis für die Recherchequalität von Lückenpresse-Berichten zu Umweltthemen. Hauptsache, man hat den Lesern die rechte Stickoxid-Furcht eingejagt.

Das Fatale an solchen Darstellungen, die zigfach überall in den Medien kursieren, ist die hierdurch vermittelte optische Botschaft, die da lautet: Der gesundheitsschädliche Dreck ist überall in unseren Ballungsgebieten in der Luft, wir müssen dringend etwas dagegen unternehmen. Dabei sprechen die Tatsachen eine ganz andere Sprache.

Betroffen sind nur winzige Teilbereiche

Die Fakten sehen nämlich völlig anders aus. Einen sehr guten Beweis hierfür liefert die bereits im letzten Beitrag angeführte umfassende und mehrjährige Untersuchung des Bayerischen Landesamts für Umwelt über die Abgasemissionen und -immissionen in einer Reihe bayrischer Großstädte [BLFU]. Aus den aufgeführten Beispielen wurde die Landshuter Allee in München ausgewählt, die ein tägliches Verkehrsaufkommen von bis zu 142.000 Fahrzeugen hat, ein Wert, der nur von einigen besonders stark befahrenen Autobahnen übertroffen wird. Aus diesem Grund gehört ein Abschnitt dieser Straße mit weitgehend geschlossener Randbebauung zu den „Hot Spots“ mit den höchsten NO2-Immissionswerten in ganz Deutschland. Allerdings ist dieser Abschnitt insgesamt nur vielleicht einen Kilometer lang. Eine Farbdarstellung der dort gemessenen bzw. aus Messwerten per Computermodell errechneten NO2-Jahresmittelwerte zeigt Bild 4.

Bild 4. Darstellung der Jahresmittelwerte der NO2-Konzentration im Bereich des am stärksten beaufschlagten Abschnitts der Landshuter Allee in München für das Jahr 2011 (Grafik: [BLFU])

Schon auf den ersten Blick ist zu sehen, dass sich die wirklich hohen Grenzwertüberschreitungen auf ein ziemlich schmales Band entlang eines Teils der Landshuter Allee beschränken. Bereits in den Seitenstraßen fallen die Werte sehr schnell unter den Grenzwert von 40 µg/m3 ab. In Hinterhöfen bzw. hinter geschlossenen Gebäudefronten liegen sie grundsätzlich im zulässigen Bereich. Der Maßstab am unteren Bildrand belegt, dass der Bereich, in dem der Grenzwert überschritten wird, selbst in die Seitenstraßen hinein nur an wenigen Stellen mehr als 100 Meter breit ist. Die betroffene Strecke ist insgesamt vielleicht einen Kilometer lang. Mehr nicht. Wie schnell der Abfall der NO2-Konzentration in den Seitenstraßen erfolgt, zeigt Bild 5.

Bild 5. Messungen in den Seitenstraßen belegen, dass die NO2-Befrachtung schon nach wenigen Dutzend Metern unter den gesetzlichen Grenzwert absinkt (Grafik: [BLFU])

Das Gebiet im Bereich der Landshuter Allee, in dem die NO2-Grenzwerte tatsächlich überschritten werden, ist demnach im Vergleich zur Größe der Stadt München geradezu winzig. Um dies auch optisch besser zu verdeutlichen, wurde Bild 4 so überarbeitet, dass nur noch die Bereiche oberhalb des Grenzwerts farblich hervorgehoben sind, Bild 6.

Bild 6. Bei dieser Kopie des Bildes 4 wurden alle Bereiche, in denen die NO2-Grenzwerte unterhalb des Grenzwerts liegen, entfärbt (Grafik: [BLFU])

Mit Bild 6 wird optisch noch besser verdeutlicht, wie klein das Gebiet im Bereich der Landshuter Allee mit NO2-Werten über dem Grenzwert tatsächlich ist. Nach Entfärbung der unkritischen Bereiche verbleibt nur noch ein schmales Band mit einigen kurzen Seitenästen. Dessen Größe kann man realistisch mit vielleicht 200 x 1.000 m ansetzen (die Karte in Bild 4 bzw. Bild 6 umfasst nur die nördliche Hälfte des betroffenen Straßensegments). Das wären 0,2 Quadratkilometer. In München gibt es nur noch eine weitere Stelle, an der der Grenzwert überschritten wird, und zwar am Stachus. Wenn wir für das dort betroffene Gebiet eine Fläche von 0,1 km2 annehmen, so wird der NO2-Grenzwert in München auf einer Fläche von lediglich 0,3 km2 überschritten. Da München eine Gesamtfläche von ca. 311 km2 hat, betrifft dies lediglich ein Tausendstel bzw. 0,1 % des gesamten Stadtgebiets. Schätzen wir aufgrund dieser Flächen die Zahl der betroffenen Anwohner ein, so kann man in Neuhausen (Landshuter Allee) mit seiner Bevölkerungsdichte von rund 7.700 EW/km2 von etwa 1500 Personen ausgehen. Am Stachus kommt man bei einem Mittelwert von 10.000 EW/km2 auf weitere etwa 1.000 Anwohner. In der Summe geht es also um 2.500 Münchner, die in Stadtbereichen mit straßenseitigen NO2-Werten über dem Grenzwert wohnen. Bei einer Einwohnerzahl von rund 1,45 Mio. ist dies ein Anteil von 0,172 %.
In ganz Bayern gibt es insgesamt nur noch vier weitere Hot-Spots, die alle in deutlich kleineren Städten liegen, so dass man hier von weitaus geringeren betroffenen Flächen und Einwohnerdichten ausgehen kann. Es erscheint gerechtfertigt, hier von insgesamt vielleicht weiteren 2.500 Betroffenen auszugehen, so dass die Gesamtzahl für Bayern mit rund 5.000 angesetzt werden kann. Bei einer Gesamt-Einwohnerzahl von ca. 12,9 Mio. geht es also um ganze 0,04 % der Bevölkerung, die überhaupt von NO2-Grenzwertüberschreitungen betroffen sind. Es darf davon ausgegangen werden, dass diese Zahlen von der Größenordnung her auch für die gesamte Bundesrepublik Deutschland gelten. Vergleicht man dies mit den optischen Botschaften der Bilder 2 und 3, so erkennt man deutlich, in welch geradezu ungeheuerlichem Ausmaß unser Volk und unsere Industrie hier – und das ist noch sehr zurückhaltend formuliert – von den Medien und den Behörden manipuliert und betrogen werden.
Die „übersehene“ Senkrechte
Bei der hier vorgestellten überschlägigen Kalkulation des von Grenzwertüberschreitungen betroffenen Anteils der Bevölkerung wurde ein weiterer wichtiger Aspekt noch ausgespart, obwohl er von erheblicher Bedeutung ist: Die Höhe der Wohnung über dem Erdboden. Obwohl die Häuser in den betroffenen Wohngebieten typischerweise eine fünf- oder sechsgeschossige Bauweise aufweisen, werden Immissionsmesswerte grundsätzlich nur auf Erdgeschossniveau erfasst. Dabei ist doch davon auszugehen, dass die schnelle Verdünnung, die man bereits in der Horizontalen mit zunehmender Entfernung von der Straße feststellen kann, sich auch nach oben hin zur freien Atmosphäre vollzieht. Den entsprechenden Beweis liefert Bild 7 [KOCH].

Bild 7. Messstelle Stuttgart am Neckartor. Der Jahresmittelwert für NO2 liegt auf Straßenniveau bei 78 µg/m↑3, auf dem Dach dagegen bei nur noch 20 µg/m↑3 (Grafik: [KOCH])

Man kann davon ausgehen, dass die Abnahme der NO2-Konzentration in vertikaler Richtung in erster Näherung mit dem gleichen mathematischen Ansatz beschrieben werden kann wie diejenige in horizontaler Richtung. Mithilfe einer logarithmischen Funktion kann man nach Anpassung der entsprechenden Parameter den Konzentrationsverlauf entlang der Fassade eines mehrstöckigen Gebäudes in Abhängigkeit von der Konzentration auf dem üblichen Messniveau nachbilden, Bild 8 und Bild 9.

Bild 8. Verlauf der vertikalen NO2-Konzentration entlang der Fassade eines mehrstöckigen Gebäudes bei einem Pegel auf Straßenniveau von ca. 80 µg/m↑3


Bild 9. Verlauf der vertikalen NO2-Konzentration entlang der Fassade eines mehrstöckigen Gebäudes bei einem Pegel auf Straßenniveau von ca. 60 µg/m↑3


Wie aus Bild 8 ersichtlich, sinkt bei einem auf Straßenniveau gemessenen Ausgangswert von etwas über 80 µg/m3der NO2-Gehalt bereits bei der 2. Etage auf einen Wert knapp über dem Grenzwert und liegt ab der 3. Etage sicher unterhalb davon. Bei einem Ausgangswert von 60 µg/m3 wird der Grenzwert sogar schon ab der 1. Etage nicht mehr überschritten. Hierzu ist anzumerken, dass im Jahre 2016 in ganz Deutschland nur an zwei Messstationen Jahresmittelwerte von mehr als 79 µg/m3 und an lediglich sechs weiteren Stellen Werte von mehr als 59 µg/m3 registriert wurden [UBA]. Man kann daher davon ausgehen, dass an den insgesamt 66 Messstellen, an denen der Grenzwert überhaupt „gerissen“ wird, die Bewohner fast aller Etagen ab dem 1. Stock nicht von Grenzwertüberschreitungen der Außenluft betroffen waren. Da die Bebauung gerade der Straßen, in denen die Messwerte über dem Grenzwert liegen, in der Regel fünf- bis sechsgeschossig ausgeführt sein dürfte, kann man unterstellen, dass dort höchstens 30-40 % der Bewohner mit einer Außenluft zu tun haben, die oberhalb des aktuellen Grenzwerts liegt. Somit kann der im vorigen Abschnitt ermittelte Prozentsatz an betroffenen Bewohnern um den Faktor 0,3 bis 0,4 reduziert werden. Es dürfte daher gerechtfertigt sein, von einem Wert zwischen 0,01 % und 0,02 % der Bevölkerung auszugehen.
Warum nur will man mit Atombomben auf Spatzen schießen?
Warum wird wegen einer so überschaubaren Zahl wirklich Betroffener dann ein derartiger Aufstand veranstaltet? Medien und Politik überschlagen sich derzeit geradezu in dem Versuch, in trauter Einheit über die NO2-Abgasdiskussion den Diesel und danach die gesamte klassische Individualmobilität der Bürger zu vernichten. Deshalb wird so getan, als sei ein Großteil der Bevölkerung in unseren Städten gesundheitlich durch Dieselabgase gefährdet, obwohl die Realität doch völlig anders aussieht. Es geht in ganz Deutschland um vielleicht 15.000 Personen, die in Bereichen leben, in denen die NO2-Werte der Außenluft dauerhaft über dem (sowieso schon willkürlich viel zu tief angesetzten) Grenzwert von 40 µg/m3 liegen. Zur „Behebung“ durch Umstellung auf das Etappenziel Elektromobilität werden gigantische volkswirtschaftliche Schäden in Kauf genommen. Allein bei VW summieren sich die Zusatzkosten inzwischen auf ca. 100 Mrd. €, ein Großteil davon für die überhastete und sinnlose Umstellung der Entwicklungsaktivitäten sowie der Produktion auf die Totgeburt Elektromobilität. Die anderen deutschen Kfz-Hersteller dürften zusammen ähnlich hohe Beträge fehlinvestieren. Unsere wichtigste Schlüsselindustrie wird dadurch in ein 200 bis 250 Mrd. teures Abenteuer geprügelt. Niemand scheint zu bedenken, dass unsere Volkswirtschaft vom Export abhängt und dass E-Mobile noch auf Jahrzehnte hinaus in den Ländern der 2. und 3. Welt keine Abnehmer finden werden, weil es dafür keine Infrastruktur und oft noch nicht einmal eine zuverlässige Stromversorgung gibt.
Zweiter Leidtragender ist die Bevölkerung. Die knapp 15 Millionen deutschen Dieselbesitzer werden als Folge der Anti-Diesel-Hysterie durch Wertverlust ihrer Fahrzeuge enteignet. Setzt man den erlittenen Wertverlust auch nur mit 3.000 € an, so werden die Besitzer mit rund 40 Mrd. € für etwas bestraft, was ihnen die gleiche Politik, die jetzt in Bonn über das Ende des Verbrenners streitet, jahrelang als erstrebenswert aufgeschwätzt hat. Der gesamte volkswirtschaftliche Schaden liegt demnach schon allein aufgrund dieser beiden Positionen irgendwo zwischen 240 und 300 Mrd. €. In der Realität ist er sogar noch erheblich höher, wie in einem späteren Kapitel noch ausgeführt wird.
Man schmeißt also mehr als 250 Mrd. € sowie die Zukunft unserer wichtigsten Exportbranche zum Fenster hinaus, nur um die angebliche „Vergiftung“ von vielleicht 15.000 Einwohnern zu verhindern. Es wäre weitaus billiger, allen diese Personen einen Daueraufenthalt in einem Luxushotel ihrer Wahl zu finanzieren. Wesentlich einfacher und effizienter wäre es beispielsweise, die tatsächlich betroffenen Bewohner durch entsprechende Prämien zum Wegzug zu bewegen und den Vermietern die temporären Mietausfälle zu ersetzen. Das Ganze wäre nämlich nur zeitweilig zu sehen, denn in wenigen Jahren wird sich das „Abgasproblem“ dank der neuen Abgastechnologien (EURO 6d) sowieso in Luft aufgelöst haben, Bild 10.

Bild 10. Bei konsequenter Einführung der neuesten EURO 6d-Abgasreinigungstechnologie würden die NO2-Immissionen an der Messstelle „Am Neckartor“ in Stuttgart von derzeit 82 µg/m↑3 weit unter den Grenzwert absinken (Grafik: [KOCH])

Dogmen statt Existenzvorsorge
Gerade am Thema Dieselabgase kann man durch kritische Analyse einfach zugänglicher Fakten ganz leicht beweisen, in welchem Ausmaß hier die Realität ignoriert wird, um der Bevölkerung und der Wirtschaft ideologische Dogmen grüner Salonkommunisten aufzuzwingen, statt Existenzvorsorge zu betreiben. Triebkraft hierfür ist die inzwischen alles durchdringende Klimahysterie. Für diese Ideologen in Politik und Medien ist die Individualmobilität nur ein Nebenkriegsschauplatz. Sie verwenden hier jedoch die gleichen Methoden der Manipulation, des Totschweigens kritischer Stimmen und der Verbreitung bewusster Falschaussagen wie bei der CO2-Diskussion. Nur kann ihnen dies beim Thema Diesel viel einfacher und schneller nachgewiesen werden als beim Klima, weil die Zusammenhänge einfacher sind und man sich nicht so einfach hinter ganzen Gebirgen komplexer mathematischer Gleichungen verstecken kann wie bei Klimamodellen. Die Medien spielen dieses schmutzige Spiel voller Inbrunst mit, die wenigen realistischen Stimmen werden durch Lautstärke und Totschlagsargumente wie „Dieselabgase töten“ einfach übertönt. Neben den öffentlich-rechtlichen Sendern spielen hier auch einige „fortschrittliche“ Publikationen – unter ihnen nicht zuletzt der „Spiegel“ – eine besonders negative Rolle. Deshalb wurden hier deren Manipulationstechniken speziell gewürdigt. Der Anspruch dieser Blätter, besonders kritisch-investigativ zu sein, ist nichts als ein Feigenblatt. Bezüglich ideologischer Verbohrtheit und der Bereitschaft zur Manipulation stehen sie der „Bild-Zeitung“ nicht im Geringsten nach. Sie verwenden nur kleinere Buchstaben bei den Überschriften und schreiben etwas mehr Text.
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau sowie ihren Spießgesellen bei den Printmedien präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „Jamaika“-Koalition ist dafür ein sehr schlechtes Omen.
Fred F. Mueller
Demnächst folgt Teil 9
Quellen

[BLFU] https://www.lfu.bayern.de/luft/luftreinhalteplanung_verkehr/nox_projekt/index.htm

[BLOG] https://groups.google.com/forum/#!topic/de.soc.umwelt/7dCudiLAQOc%5B1-25%5D
[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf
[SPIE] http://www.spiegel.de/wissenschaft/mensch/stickoxid-wo-luft-in-deutschland-krank-macht-a-1120859.html
[TSLA] http://teslamag.de/news/abgasemissionen25-mal-auto-tesla-fuehrungskraft-11242
[UBA] http://www.umweltbundesamt.de/sites/default/files/medien/358/dokumente/no2_2016.pdf




Wir befinden uns nicht in einer grünen Energierevolution, sondern in einer grünen Energiekrise

Durch die Kombination der neuen Nationalen Energie-Garantie (NEG) des Bundes und der damit verbundenen Emissionsverpflichtung wird die Kernenergie jedoch ins Gespräch gebracht.
Wiederholt haben wir bereits geschrieben, dass Kernenergie die einzige eigenständige Stromerzeugungsquelle ist, die Strom auf Abruf liefern kann, ohne dabei CO2-Emissionen zu erzeugen. Aus der Sicht eines Stromversorgers ist die Kernkraft eine Quelle, die offensichtlich in der Lage ist, sowohl ihre NEG-Verpflichtung als auch ihre Emissionsverpflichtungen zu erfüllen, sofern eine solche Wahl verfügbar wäre.
Als Dr. Alan Finkel [Australiens Chief Scienstist ~ Wissenschaftsminister] seine Einhorn- und Feenstaub-Bilanz über Australiens Debatten über erneuerbare Energien zusammenstellte, gelang es ihm, die Kernkraft in zwei kurzen Absätzen abzutun. [Genaue Quelle nicht angegeben, aber hier zum Thema im Sidney Morning Herald vom 1.09.2017]
Jetzt, wo Zuverlässigkeit im Mittelpunkt der Energiepolitik des NEG steht [nach dem CET – clean energy target, mit festgelegten % Anteilen, ~ Zertifikate], werden Quellen, die uns unabhängig von der Tageszeit oder dem Wetter zu 100% mit Strom versorgen können, zwangsläufig Aufmerksamkeit erregen. Fügen Sie eine Verpflichtung (zusammen mit ausreichenden Strafen) hinzu, um diese Energie zu liefern, ohne CO2-Emissionen zu erzeugen – und der Grund für Kernkraft in Australien wird offensichtlich und zwingend.
Die Franzosen nutzen die Kernenergie, um rund 75% ihrer Elektrizität zu erzeugen, und sie zahlen etwa die Hälfte dessen, was der Strom den Endkunden in Südaustralien kostet. Jeder der behauptet, Strom aus Kernkraft wäre teuer, hat offensichtlich nicht aufgepasst.
 
Ein paar Beiträge vorher, berichteten wir über einen der führenden Öko-Krieger Amerikas, Michael Shellenberger und seinem Ansichtswandel.
Michael hatte sich leidenschaftlich für Wind und Sonne entschieden, nun plädiert er stattdessen für eine atomare Energiezukunft, weil nur letztere verlässlich Energie liefert, während erstere ein kindischer Unsinn ist.
Hier wird er von Alan Jones interviewt (Podcast, unten mit anschließender Transkription). Für diejenigen mit gutem Internet [und Englischkenntnissen] ist der Podcast die Mühe wert.
 
Der Betrug mit Erneuerbarer Energie
Podcast von „Alan Jones Breakfast Show”, 17 October 2017

  • bitte nutzen Sie den u.g. Link zum Original

 
 
Hier das Transcript zur Radiosendung
Alan Jones: Ich habe Ihnen letzte Woche gesagt, dass dieser Kollege, John Barilaro, der stellvertretende Ministerpräsident von New South Wales, sich zur Energiefrage geäußert hat, was Hoffnung erweckt. Er sprach viele richtige Dinge an, vor allem, um es einfach zu sagen, dass unser Problem nicht die Ressourcen sind. Wir sind der größte Energieexporteur der Welt, der größte Kohleexporteur der Welt. Und wir sind dabei, der größte Gasexporteur der Welt zu werden. Und wir haben alles exportier und nichts für uns selbst behalten. …
Ich möchte das Gespräch auf Jon Barilaro bringen [stellvertr. Premier, Minister für Wirtschaft und kleine u. mittlere Unternehmen, Minister New South Wales] der im Mai dieses Jahres einen antrag für Kernkraft vorbrachte, der im Legislativrat des Oberhauses von New South Wales einstimmig abgeschmettert wurde. … die Medien triumphierten…. Sein gesunder Menschenverstand hatte ihn dazu gebracht, schon im Mai zu sagen, dass wir Atomkraft in New South Wales etablieren sollten. Im vergangenen Jahr betrieben 30 Länder weltweit 550 Atomreaktoren zur Stromerzeugung, in 15 Ländern waren 60 Atomkraftwerke im Bau, nach Information des Nuclear Energy Institute, allein in China sind 20 Kernkraftwerke im Bau.
Wir besitzen 40% der Uranreserven der Welt und wir selbst haben keine Kernkraftwerke, außer Sie wollen die medizinische Einrichtung in Lucas Heights als Atomreaktor bezeichnen. Wir nutzen weiter Kohle und Gas und Solar und nichts von Uran und doch haben wir eine Energiekrise. Wenn die Labour Party bis 2030 die Hälfte unseres Stroms aus erneuerbaren Energien beziehen will, wird das etwa 100 Milliarden Dollar kosten, einhunderttausend Millionen in neuen Wind-, Geothermie- und Solarkapazitäten. Frydenberg und Turnbull sprechen heute in Canberra über eine neue Energiepolitik und reden immer noch über erneuerbare Energien. Wir würden die 10-fache Anzahl an Windturbinen benötigen, 11.000 zusätzliche. Das würde 65 Milliarden kosten, aber es ist illegal, einen Atomreaktor in Australien zu betreiben.
Russland, die USA und Japan bauen neue Reaktoren. In Frankreich haben Kommunalpolitiker lange darum gekämpft, den nächsten Atomreaktor in ihrer Region bauen zu lassen, wegen der Arbeitsplätze und des Handels, den sie zwangsläufig fördern. Wir sind ein Witz. … und unser dämliches New South Wales Oberhaus und das Parlament in Canberra beschließen, gegen die Errichtung der Kernenergie vorzugehen und prahlen damit, dass dies eine Niederlage für den stellvertretenden Ministerpräsidenten Barilaro ist. … bezüglich Energie, ahnungslos.
Mehr als die Hälfte der Welt hat Zugang zu Strom aus Kernspaltung. Die Vereinigten Staaten erzeugen etwa 30% der weltweiten Kernenergie. Über 5% der gesamten Elektrizität des Planeten wird aus Kernreaktoren erzeugt und wenn wir weiter wachsen und eine große Grundlastversorgung für die Eisen-, Aluminiumindustrie und Raffinerien und für die allgemeine Industrie haben wollen, müssen wir entweder die Anzahl der Kohlekraftwerke erhöhen oder auf Kernkraft wechseln. Natürlich könnten wir beides [KK und EE] nutzen, das würde Energiesicherheit schaffen. Die südaustralische Royal Commission in Nuclear Power schätzte, dass ein Großreaktor 9,3 Milliarden kosten würde.
Wir sind das einzige G20-Land ohne Atomkraft und der ideale Ort für künftige Reaktoren wäre Südaustralien. Aber der Finkel-Bericht ignorierte die Atomenergie als Option und drängte auf immer mehr erneuerbare Energien. So soll Victoria 25% aus erneuerbaren Energien bis 2025 beziehen, Südaustralien 50%, ACT 100%, Queensland 50%, und damit wir gehen pleite durch erneuerbare Energien, während andere Länder eine Mischung von Energiequellen haben und neue Kohlekraftwerke bauen und wie gesagt, 60 Atomanlagen im Bau in 15 Ländern. In China sind 583 Kohlekraftwerke im Bau oder geplant, 271 in Indien, 145 in Indonesien, 71 in der Türkei, 84 in Vietnam, 43 in Japan, keine einzigen in Australien. Die meisten dieser Kohlekraftwerke werden australische Kohle nutzen.
Zurück zur Kernkraft. Einer der weltweit führenden Umweltaktivisten der neuen Generation, hat das Experiment zur Erneuerbaren Energie mit Wind und Sonne als gescheitert erklärt. Michael Shellenberger ist ein ehemaliger Befürworter und Berater von Barack Obama für Erneuerbare, als dieser Präsident war. Er ist jetzt ein globaler Champion für die Kernenergie, die, wie er sagt, die einzige Möglichkeit sei, Kohle und Gas weltweit zu ersetzen. Er ist für uns am Telefon aus Berkeley, Kalifornien. Michael Shellenberger, danke für Ihre Zeit und einen guten Morgen.
Michael Shellenberger:  Danke, dass Sie mich in der Show haben.
Alan Jones: Bitte sagen Sie uns, dass wir nicht die einzigen Menschen sind, die völlig dumm sind. Wir sind hier, die Leute schreiben mir jeden Tag, wir haben 40% der Uranreserven der Welt. Wir haben kein Kernkraftwerk, keinen Atomreaktor, keinen Strom aus den riesigen Uranvorkommen. Ich denke, wir nutzen unseren Verstand nicht, nicht wahr?
Michael Shellenberger: Ja, Australien ist leider einer der schlechtesten Akteure, wenn es um saubere Energie geht. Nur Deutschland agiert wirklich noch schlechter, sie versuchen ihre Kernkraftwerke auslaufen zu lassen und ihre Luftverschmutzung nimmt seit drei Jahren jedes Jahr zu. Also, wenn es Ihnen um die natürliche Umwelt geht, wenn Sie sich für saubere Luft interessieren, und wenn Sie sich für die Dinge interessieren, über die Sie sprachen, die zuverlässige Stromversorgung, dann brauchen wir wesentlich mehr Kernkraftwerke.
Alan Jones:Ich bin mir sicher, dass Sie unser politisches System hier verstehen, wir sind eine Föderation, wir haben eine Reihe von Staaten, Queensland hat eine eigene Regierung, New South Wales, Victoria und so weiter, und dann natürlich eine Bundesregierung in Canberra, aber wir haben einen stellvertretenden Ministerpräsidenten in New South Wales, der ein Prachtkerl ist, ein kleiner Geschäftsmann aus dem Busch. Und natürlich stieg er in ein Fettnäpfen, weil er sich für Kernenergie einsetzte, und dann sagte er zu mir: „Es scheint mir, dass politische Korrektheit und unsere Besessenheit, das Risiko einer unmittelbaren Ablehnung zu minimieren …“, so John Barilaro. Behindert uns über Lösungen sprechen, weil sie in einigen Teilen der Community unpopulär sind. Wenn wir dies zulassen, werden wir nur risikoscheuer und werden uns wahrscheinlich nicht mit Lösungen beschäftigen, die uns in Australien und New South Wales zugutekommen würden. Das ist so, nicht wahr?“
Michael Shellenberger: Das ist genau richtig. Es ist diese Aversion gegen Risiken, denke ich, aber jede größere Studie der letzten 40 Jahre hat ergeben, dass Atomkraft der sicherste Weg ist, um zuverlässigen Strom zu erzeugen. Sie haben nicht die Risiken, die mit Kohle und fossilen Brennstoffen verbunden sind, sowohl in Bezug auf den Abbau von Gruben als auch auf die Luftverschmutzung, und die Unfälle, die jedem Sorgen machen, sie haben kaum Auswirkungen auf das Leben der Menschen. Tschernobyl, die Weltgesundheitsorganisation und die Vereinten Nationen sagen, dass nach 100 Jahren weniger als 200 Menschen durch diesen Unfall getötet wurden. Und Fukushima, die Kernschmelzen werden niemanden töten, und mittlerweile haben wir sieben Millionen Menschen pro Jahr, die vorzeitig an Luftverschmutzung sterben, Hunderte, die bei Erdgasexplosionen sterben, in Kohlebergwerke kollabieren, also für Leute, die wirklich risikoscheu sind, die beste Wette.
Alan Jones: Absolut, übrigens sollte ich meinen Zuhörern sagen, Michael Shellenberger wird im November hier sein, um ein Umdenken über Atomkraft zu fördern, und ich sage zu Michael, viel Glück, viel Glück, denn sie haben dicke Wände zu durchbrechen. Aber Sie sagen in Bezug auf Wind und Sonne zu Recht, dass diese im besten Fall back-up brauchen und sie [Wind und Solar] verdoppeln die Stromkosten und haben große Umweltauswirkungen.
Michael Shellenberger: Ja, das ist wirklich das Schlimmste für die Umwelt und es ist leicht zu verstehen.
Alan Jones: Hör einfach auf, hör bitte auf.Michael, bitte hör auf. Es gibt Leute, die uns in Canberra zuhören, Mr. Malcolm Turnbull können Sie zuhören? Und Josh Frydenberg, können Sie sich anhören, was dieser Mann über Sonne und Wind sagt, über das was Sie heute zur Energiepolitik argumentieren werden. Sie haben gerade gesagt, sie sind wirklich was für die Umwelt?
Michael Shellenberger:  Sie sind das Schlimmste, wirklich, alle erneuerbaren Energien sind das. Der Grund ist leicht zu verstehen, in dem Sinne, dass die Brennstoffe sehr verdünnt sind, sie sind sehr diffus, und man muss eine riesige Menge Land mit Windkraftanlagen und Solarzellen abdecken, um ausreichende Mengen ihrer Energie zu sammeln. Also braucht es 150-mal mehr Land, um die gleiche Menge an Energie aus der Sonne zu produzieren wie Atomkraft. Es braucht 750 Mal mehr Land, um die gleiche Menge Strom aus Wind zu erzeugen wie Atomkraft. All das, die benötigten Materialien, der Stahl, der Beton, all die Dinge, um die Sie sich als Umweltschützer sorgen, fünf bis sieben Mal mehr von ihnen werden für Wind und Sonne benötigt als mit Atomkraft.
Und die Solarindustrie produziert riesige Mengen an Giftmüll. Die Sonnenkollektoren enthalten Cadmium, Chrom, Blei, was giftige Schwermetalle sind, die sich nie umwandeln. Das sind Elemente, und wenn sie entsorgt werden, sind es in der Regel arme Leute in armen Ländern, die die Panels auseinander reißen, die Kunststoffe abbrennen und giftige Chemikalien inhalieren. Sie produzieren zwei- bis dreihundert Mal mehr Giftmüll als Kernkraftwerke, letzere die einzige Möglichkeit, Strom zu erzeugen, auch wenn potenziell schädliche Abfälle zurückbleiben. Natürlich sind die nuklearen Abfälle so gut eingeschlossen, dass niemand jemals durch die Strahlung aus Atomabfällen geschädigt wurde.
Alan Jones: Erstaunlich, erstaunlich. Ich möchte nur zu den Menschen sagen, die das kritisieren,… ich sollte Michael sagen … sorry , Sie dort zu unterbrechen … dass Abbott von Menschen kritisiert wird, dass er seine Ansichten über all dies ändert. Der Mann mit dem ich hier spreche, Michael Shellenberger, der im Times-Magazin ein Held der Umwelt im Jahr 2008 genannt wurde, und Sie sagen: „Wie die meisten Leute habe ich ziemlich anti-nuklear angefangen. Ich habe es mir anders überlegt, als ich gemerkt habe, dass man eine moderne Wirtschaft nicht mit Solar und Wind betreiben kann. „
Michael Shellenberger: Ja, und irgendwie ist es mir peinlich, wie lange ich brauchte, um meine Meinung zu ändern. Ich war anti-nuklear, ich half tatsächlich in meinen Zwanzigern, ein Lager für radioaktive Abfälle in Kalifornien zu blockieren. Es ist eine Religion, Sie wollen die Menschheit mit der natürlichen Umwelt harmonisieren. Die Wahrheit ist, dass die natürliche Umwelt … wenn Sie die natürliche Umwelt schützen wollen, müssen wir weniger davon verwenden, und das bedeutet, dass Sie sich zu energiereichen Brennstoffen bewegen, Dinge wie Uran, … sie brauchen nur eine kleine Menge davon, eine Cola-Dose mit Uran, das ist genügend Treibstoff, um Sie Ihr ganzes Leben lang zu versorgen. Es geht um die Energiedichte, und das gleiche gilt für die Luftverschmutzung, die negativen Folgen. Atom übertrifft alle diese Energiequellen. Sie haben erwähnt, dass Solar und Wind ein back-up benötigen. Ein besserer Ausdruck dafür ist, dass Solar- und Windenergie nur 20 bis 30% der Zeit Strom erzeugen. Tatsächlich sind es die fossilen Brennstoffe, die die meiste Arbeit leisten.
Alan Jones: Ja.
Michael Shellenberger: Solar und Wind bringen viel Chaos in Ihr elektrisches System. Es ist sporadisch, es ist unberechenbar, und deshalb müssen Sie … alle Ihre fossilen Brennstoffe pflegen. Sie müssen bereit sein, sie mit einem Knopfdruck ein- und auszuschalten, wenn die Sonne hinter einer Wolke steht oder der Wind aufhört zu blasen. Das andere Problem ist, dass Sie zu viel Windenergie bekommen, wenn Sie es nicht brauchen, wie mitten in der Nacht. Solar und Wind, es scheint, als wären sie dazu eingerichtet, billige, saubere und zuverlässige Energie zu zerstören.
Alan Jones: Erstaunlich, wir haben eine Regierung in Australien – wir haben eine Regierung, die nie aufhört, über dieses Zeug zu reden. Sie haben uns Vorträge darüber gehalten, wie Atomwaffen durch Umweltkampagnen verhindert werden, aber ihre Unwissenheit überwiegt, nicht wahr?
Michael Shellenberger: Ja, sie sind falsche Umweltschützer. Sie müssen daran denken, dass es in den 1960er Jahren echte Naturschützer gab, die die Kernkraft liebten und die Kernkraft förderten, weil sie verstanden, dass dies die einzige Alternative zu fossilen Brennstoffen und Staudämmen ist, welche auch enorme Auswirkungen auf Landschaften haben. Was geschah, war, dass es eine kleinere Gruppe von anti-menschlichen sogenannten Umweltschützern gab, die Kernkraft ablehnten, gerade weil es so viel billige und reichlich vorhandene Energie lieferte, und sie dachten: „Nun, wenn wir den Krebs der „Mensch“ heißt stoppen wollen, müssen wir seine Energieversorgung beschneiden. „Aber sie haben sich geirrt, denn wenn man die negativen Auswirkungen der Menschheit wirklich reduzieren will, muss man in Städten leben. Wir verbrauchen mehr Energie in den Städten, wir brauchen mehr Energie für unsere Landwirtschaft, für den Anbau von Lebensmitteln, und es stellt sich heraus, dass der Energieverbrauch tatsächlich sehr stark mit dem Umweltschutz zusammenhängt. Wir brauchen viel Energie, um die natürliche Welt zu schützen.
Alan Jones: Michael, in Australien es ist illegal, einen Atomreaktor zu betreiben.
Michael Shellenberger: Sie haben wirklich einige verrückte Anti-Atom-Leute da unten.
Alan Jones: Nein, wir haben ein paar verrückte Leute Punkt, das kann ich Ihnen sagen, Michael, bitte erklären Sie unseren Hörern, während uns die Zeit davonläuft, wieso 30 Länder im letzten Jahr 450 Kernreaktoren zur Stromerzeugung betrieben haben. In 15 Ländern sind 60 Nuklearkraftwerke im Bau. Wir haben 40% des Urans der Welt und wir hören Anti-Atom Menschen. Wie erklären Sie sich das?
Michael Shellenberger: Junge, das wird viel länger dauern als wir noch Zeit haben.
Alan Jones: Ich sag Ihnen was, wenn Sie uns in diesem Land besuchen, werden wir Sie wieder sprechen. Wir können nicht genug von Ihnen hören. Es ist an der Zeit, dass wir eine gute gesunde Portion gesunden Menschenverstand einsetzen und ich danke Ihnen, dass Sie sich mit uns heute Morgen unterhalten haben.
Michael Shellenberger: Mit Vergnügen, danke, dass Sie mich dabei hatten.
Alan Jones: Keine Ursache, dafür sind wir da. Es ist Spiel, Satz und Match. Wie ich schon sagte, konkurrieren lokale Politiker in Frankreich darum, dass das nächste Kernkraftwerk in ihrem Wahlkreis gebaut wird, wegen der Jobs und des Handels, die sie zwangsläufig fördern. Wir sind ein internationaler Scherz, 40% der Uranreserven der Welt, 30 Länder betreiben 450 Kernreaktoren, 60 Atomkraftwerke im Bau und wir haben nichts.
Hier der Podcast von 2GB
In diesem TED TALK von Juni 2016 auf dem TEDSummit, hören Sie noch mehr über den gesunden Menschenverstand von Michael Shellenberger.
 
Erschienen auf Stopthesethings vom 30.10.2017
Übersetzt durch Andreeas Demmig
https://stopthesethings.com/2017/10/30/americas-top-green-michael-shellenberger-pushes-nuclear-future-calls-wind-solar-the-worst-for-the-enviroment/

STT: Michael Shellenberger sagt, es sei Zeit, Wind und Sonne zu „nukezieren“
 
Weitere Links: Wie die Angst  vor Kernkraft der Umwelt schadet
Video des Aufmacherbildes
„Wir befinden uns nicht in einer grünen Energierevolution, sondern in einer grünen Energiekrise“, sagt Klimapolitikexperte Michael Shellenberger.
https://www.ted.com/talks/michael_shellenberger_how_fear_of_nuclear_power_is_hurting_the_environment?language=de
Geboren16. Juni 1971 (Alter 46)
BücherBreak ThroughBreak Through: Why We Can’t Leave Saving the Planet to Environmentalists
 




Der Nachweis eines menschengemachten Klimawandels ist nicht erbracht. Eine erkenntnistheoretische Kritik

Ab 2020 sollen zunächst die Industrieländer jährlich 100 Milliarden US$ für den Umbau der Energieversorgung, aber auch zur Beseitigung von durch den Klimawandel verursachten Schäden zur Verfügung stellen. Ein Großteil dieser Gelder soll voraussichtlich als privatwirtschaftliche Investitionen in die Entwicklungsländer fließen und nur ein vergleichsweise geringer Anteil aus öffentlichen Quellen für die schon heute notwendige Behebung von klimabedingten Schäden.[2]
Natürlich werden die Politiker der Industrieländer die öffentlichen Gelder nicht aus der eigenen Tasche zahlen, sondern werden die Steuerzahler zur Kasse bitten. Und was die privatwirtschaftlichen Investitionen angeht, bräuchte es kein Abkommen, wenn sie sich bereits heute rechnen würden. Stattdessen werden durch Regulierung und Subventionen Anreize geschaffen, sodass private Produzenten in ihrer Verfügungsfreiheit eingeschränkt und Steuerzahler zur Ader gelassen werden. Zudem fordert der Internationale Währungsfonds eine CO2-Steuer[3], obgleich die Netto-Steuerzahler bereits heute durch Energiesteuern und -umlagen, Kfz-Steuern oder Regulierungsvorschriften beim Wohnungsbau stark belastet werden.
Sollten die Bürger zu dem Schluss gelangen, dass die Politiker keine stichhaltigen Beweise anführen können für diese massiven Eingriffe in ihr Vermögen und ihre Freiheit, wäre das eine Katastrophe für die Politiker und eine Industrie, die mittlerweile nicht mehr von Kunden lebt, sondern sich von Steuergeldern und Regulierung ernährt: Von Windrädern über Elektroautos bis hin zu Leuchtmitteln und Styropor-Wärmedämmplatten – und den Klimakonferenzen selbst.
Auf die wissenschaftliche Methode kommt es an
Will man feststellen, ob es einen Klimawandel gibt, welche Ursachen er hat, welche Konsequenzen er haben wird, und ob man ihn verhindern oder die Konsequenzen abmildern kann, sind verschiedene wissenschaftliche Methoden denkbar: die der Naturwissenschaft, der Ökonomik, der Mathematik, der Logik und der Geschichtswissenschaft. Jeder dieser Wissenschaftszweige hat seine eigene Methode, um Erkenntnisse zu gewinnen.
Da der Gegenstand dieser Untersuchung der Klimawandel ist, ist zunächst mit dem Begriff des Klimas zu beginnen: Das Klima[4] ist das 30-jährige Mittel diverser Wetterwerte wie Temperatur, Windrichtung und -geschwindigtkeit, Luftfeuchtigkeit, Niederschlagsart und -menge, Wolkenbedeckung etc. Es ist kein Rechenprodukt der Anwendung von Formeln, die konstante Relationen angeben, sondern es handelt sich um historische (Durchschnitts-)Daten, die gemessen wurden, es ist: eine Statistik. Der österreichische Ökonom Ludwig von Mises (1881 – 1973) schrieb über statistische Daten:

„Erfahrung ist immer Erfahrung der Vergangenheit. Erfahrung und Geschichte liegen nie in der Zukunft. Diese Binsenweisheit müsste nicht wiederholt werden, wenn es nicht das Problem der Prognosen der Statistiker gäbe …[5] Die Statistik ist die Beschreibung von Phänomenen, die nicht durch regelmäßige Einheitlichkeit gekennzeichnet sind, in Zahlenausdrücken. Soweit es eine erkennbare Regelmäßigkeit in der Abfolge von Phänomenen gibt, ist es nicht nötig, zur Statistik zu greifen. … Statistik ist daher eine spezifische Methode der Geschichtsschreibung. … Sie handelt von der Vergangenheit und nicht von der Zukunft. Wie jede andere Erfahrung von der Vergangenheit kann sie gelegentlich wichtige Dienste bei der Zukunftsplanung leisten, aber sie sagt nichts aus, das direkt für die Zukunft gültig ist.“

Und weiter:

„Es gibt nicht so etwas wie statistische Gesetze. Die Leute greifen zu statistischen Methoden genau deshalb, weil sie nicht in der Lage sind, in der Verkettung und Abfolge von Geschehnissen eine Regelmäßigkeit zu erkennen.“[6]

Wenn eine Statistik zum Beispiel zeigt, dass auf A in 95% der Fälle B folgt und in 5% der Fälle C, heißt das, dass kein vollkommenes Wissen über A vorliegt. A müsste in A1 und A2 zerlegt werden, und wenn sich feststellen ließe, dass auf A1 immer B und auf A2 immer C folgen würde, dann läge vollkommenes Wissen vor.[7]
Naturwissenschaft
Ein naturwissenschaftlicher Beweis kann durch eine Statistik also nicht erbracht werden. Der Grund:

Die Welt der Naturwissenschaften ist das Gebiet, in dem der menschliche Geist durchaus fähig ist, konstante Beziehungen zwischen Elementen zu entdecken.[8] Im Bereich der Physik und der Chemie gibt es … konstante Beziehungen zwischen Größen, und der Mensch ist fähig, diese konstanten Beziehungen mit hinreichender Genauigkeit in Laborexperimenten zu erkennen.[9]

Allerdings betont Mises: Selbst die Naturwissenschaften können keine „exakten“ Ergebnisse liefern. Er schreibt:

Laborexperimente und Beobachtung von äußeren Phänomenen erlauben den Naturwissenschaften Messungen und die Quantifizierung des Wissens. … Heute leugnet niemand mehr, dass wegen der Unzulänglichkeit unserer Sinne Messungen niemals vollkommen und genau in der umfassenden Bedeutung des Begriffs sind. Sie liefern mehr oder weniger genaue Annäherungswerte. Übrigens zeigt die Heisenbergsche Unschärferelation, dass es Beziehungen gibt, die überhaupt nicht mehr gemessen werden können. Es gibt in unserer Beschreibung der Naturphänomene keine quantitative Exaktheit. Doch sind die Näherungswerte, die physikalische und chemische Gegenstände liefern, für die praktischen Zwecke im Großen und Ganzen genügend. Die Welt der Technologie ist eine Welt der annähernden Messung und der annähernden quantitativen Bestimmtheit.[10]

Obwohl selbst die Naturwissenschaften kein sicheres Wissen liefern können, genießen sie doch großes Vertrauen. Zu Recht: Sie haben viele für die Praxis taugliche Erkenntnisse hervorgebracht. Dank der Laborexperimente: Durch sie lassen sich konstante Relationen aufzeigen, sie sind beliebig wiederholbar.
Spezifisches Verstehen
Sofern konstante Relationen – wie bei den Naturwissenschaften – nicht festgestellt werden können, wie etwa bei der Interpretation von Geschichtsdaten oder bei der Voraussage künftiger Ereignisse (also der Geschichte der Zukunft), wenden Menschen die Methoden des spezifischen Verstehens an.

[Verstehen] ist die Methode, die alle Historiker und auch alle anderen Menschen stets anwenden, wenn es um die Interpretation vergangener Ereignisse der Menschheitsgeschichte und um die Voraussage künftiger Ereignisse geht. Die Entdeckung und Abgrenzung des Verstehens war eine der wichtigsten Beiträge der modernen Erkenntnistheorie. … Der Anwendungsbereich von Verstehen ist das geistige Begreifen von Phänomenen, die nicht vollkommen mit den Mitteln der Logik, der Mathematik, der Praxeologie und der Naturwissenschaften aufgeklärt werden können, insoweit sie von diesen Wissenschaften eben nicht erklärt werden können. Es [das Verstehen, A. d. V.] darf den Lehren dieser anderen Bereiche der Wissenschaften [Logik, Naturwissenschaft, Mathematik und Ökonomie] nie widersprechen.[11]

Da Verstehen das Interpretieren historischer Ereignisse ist, kann es niemals Ergebnisse hervorbringen, die von allen Menschen akzeptiert werden (müssten). Selbst wenn zwei Personen völlig darüber übereinstimmen, dass die Daten korrekt sind und ihr Denken nicht den Lehren der anderen Wissenschaften widerspricht, so können sie doch in ihrem Verstehen der Daten zu unterschiedlichen Ergebnissen gelangen. Sie mögen darin übereinstimmen, dass die Faktoren a, b und c allesamt einen Einfluss auf das historische Ereignis E hatten; aber nichtsdestotrotz können sie völlig uneins darüber sein, welche Relevanz diese Faktoren im Hinblick auf das Ereignis hatten. Soweit Verstehen darauf abzielt, jedem der Faktoren eine Relevanz beizumessen, steht es unter dem Einfluss subjektiver Bewertung. Dabei handelt es sich nicht um Werturteile, sie drücken keine Präferenzen aus, es handelt sich um Relevanzurteile.[12] Neben den Historikern verwenden auch die Psychologen oder die Ethnologen die Methode des spezifischen Verstehens, sofern sie sich mit der Interpretation historischer Daten menschlichen Verhaltens befassen.[13]
Verstehen ist also die Methode, die sich mit dem Begreifen komplexer Phänomene befasst und mit der Voraussage der Zukunft in komplexen Systemen. Die Daten, die von komplexen Phänomenen gewonnen werden, können jedoch niemals eine Theorie beweisen oder widerlegen.[14] In den Naturwissenschaften und in der Naturgeschichte hat Verstehen an sich nichts zu suchen.[15] Die Methode der Naturwissenschaften ist die Überprüfung von konstanten Relationen durch Experimente.
Ist Klima-Prognose eine Naturwissenschaft?
Die erste Frage, die sich stellt, lautet also: Womit haben wir es bei der Klimaforschung zu tun? Mit der Naturwissenschaft? Oder mit Prognosen, die unter Zuhilfenahme der Methode des Verstehens erstellt werden? Schauen wir uns dazu an, was in der Klimaforschung passiert.
Die direkte Wirkung von CO2 in einem geschlossenen System in Bezug auf die Temperatur ist wohl etablierte Physik, die auf Labor-Ergebnissen basiert und angeblich seit über einem Jahrhundert bekannt ist.[16] Soweit es um diese Laborerkenntnis geht, dürfen wir also von „harter“ Naturwissenschaft sprechen. Die Erde ist aber kein geschlossenes System. Es leben auf ihr „Verbrenner“[17], also Menschen und Tiere, die CO2 emittieren, und es gibt Pflanzen, die – um im Bild zu bleiben – sozusagen den Gegenprozess der Verbrennung betreiben: Vermittels Photosynthese bauen sie ihre körperliche Struktur aus dem in der Luft vorhandenen CO2 auf und nutzen hierzu die Energie des Sonnenlichts und emittieren Sauerstoff.
So geht denn auch die US-Behörde NASA (National Aeronautics and Space Administration) davon aus, dass eine Zunahme an CO2 in der Atmosphäre zu einem vermehrten Pflanzenwachstum führte.[18]Andere, die Temperatur und das Wetter beeinflussende Faktoren sind zum Beispiel: Sonnenaktivität, Luftfeuchte, Wolkenbedeckung oder Niederschlag. Während es also innerhalb eines Laborexperiments naturwissenschaftlich korrekt wäre, zu sagen, ein erhöhter CO2-Ausstoß führt zu einer Zunahme der Temperatur, handelt es sich bei einer Aussage über ein komplexes System mit Rückkopplungen (Feedback), das nicht durch konstante Relationen beschrieben werden kann, nicht mehr um eine naturwissenschaftliche Aussage, sondern um eine Prognose, bei der die Methode des Verstehensangewendet wird.
Gäbe es beim Klima, das ja das Resultat von Durchschnitten des Wetters ist, konstante Relationen, so müsste ja auch das Wetter über einen längeren Zeitraum exakt vorausgesagt werden können. Aber jeder von uns weiß aus persönlicher Erfahrung, dass das Wetter nur über sehr kurze Zeiträume und auch nicht immer sehr exakt vorausgesagt werden kann. Was die Klima-Wissenschaftler des IPCC (Intergovernmental Panel on Climate Change, sogenannter Weltklimarat) tun, ist, dass sie Relevanzurteile abgeben, wie dies Historiker tun oder Alltagsmenschen bei ihrer Einschätzung der Zukunft: Da ihnen die konstanten Relationen nicht bekannt sind, geben sie Relevanzurteile ab. Die Klima-Wissenschaftler wissen, dass die Faktoren Temperatur, CO2, Wolkenbildung, Sonnenaktivität, Luftfeuchte etc. zusammenwirken und so die Daten hervorbringen, die sie später in ihrer Statistik Klima nennen, ihnen sind jedoch konstante Relationen des Zusammenwirkens dieser Faktoren unbekannt. Sie können sie nur anhand von Modellen einschätzen.
Klimaforschung kann die Methoden der Naturwissenschaften anwenden, insoweit es möglich ist, hinsichtlich einzelner Phänomene in Laborexperimenten konstante Relationen festzustellen, aber hinsichtlich des Gesamt-Phänomens Erd-Klima nicht, weil es sich um ein komplexes Phänomen mit Rückkoppelungen handelt. Ein Klima-Modell kann niemals durch ein Laborexperiment überprüft werden. Diese Unsicherheit oder dieses Abweichen von der naturwissenschaftlichen Methode der Überprüfung im Experiment und der daraus folgenden Sicherheit wird auch mehr oder weniger unumwunden zugegeben: „Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt.“[19]
So verwundert es auch nicht, dass die Klimaforscher ihre Modelle ständig korrigieren. In den Modellen probieren sie aus, den verschiedenen klimarelevanten Faktoren unterschiedliche Relevanz beizumessen. Diese Modelle werden dann daran überprüft, ob sie Klima-Phänomene der Vergangenheit erklären können beziehungsweise, wenn genug Zeit vergangen ist, ob sie Klima-Phänomene voraussagen konnten. Bislang ist dies nicht gut gelungen, wie das nachfolgende Beispiel zeigt. „Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können“, zitiert die Schweizer Weltwoche in ihrer 39. Ausgabe den Klimawissenschaftler Myles Allen von der University of Oxford, einen Mitautor einer Studie, die im Fachmagazin Nature Geoscience publiziert wurde.
Die Computermodelle lägen falsch, weil grundlegende klimatische Zusammenhänge in der Atmosphäre nicht bekannt gewesen oder nicht verstanden worden seien. Die Wissenschaftler seien nunmehr zu dem Schluss gekommen, dass die Menschheit weit mehr CO2 als bisher angenommen ausstoßen dürfe, bis sich die Erde mutmaßlich um 1,5 Grad erwärmt, und zwar fast viermal (!) mehr. Während die Partei der Klimaskeptiker dies als weiteren Beleg für einen Fehler der Klima-Alarmisten sieht, interpretiert der Studien Co-Autor Pierre Friedlingstein das Ergebnis als eine wirklich gute Nachricht. Denn ohne die Verlangsamung wäre das Vorhaben, die Erwärmung auf 1,5 Grad zu begrenzen, wohl unrealistisch gewesen, meint er.
Aber selbst wenn die Klimaforscher ihre Modelle ständig verbessern, wie wir bereits oben gesagt haben: Die Daten, die von komplexen Phänomenen gewonnen werden, können niemals eine Theorie beweisen oder widerlegen.[20] Selbst wenn die Modelle immer besser würden, also immer mehr durch gemessene Daten bestätigt, würde ebenso wenig Naturwissenschaft angewendet wie etwa Kopernikus oder Keppler Naturwissenschaft anwendeten, als sie die Umlaufbahn der Erde zunächst in der Kreisform und dann der Ellipse beschrieben. Die Geschichte der Astronomie als harte Naturwissenschaft begann erst mit den von Newton formulierten Gesetzmäßigkeiten, die der Überprüfung durch Laborexperimente standhielten.[21]
Und so ist es nicht verwunderlich, wenn die NASA auf ihrer Homepage meint, dass sich die IPCC Wissenschaftler nicht sicher seien, ob die menschliche Aktivität in den vergangenen 50 Jahren zu einem Temperaturanstieg des Weltklimas geführt habe. Die Wissenschaftler würden aber die Wahrscheinlichkeithierfür bei über 95% sehen.[22] Daraus glaubt man, schlussfolgern zu können, dass auch in Zukunft menschliche Aktivität für den Temperaturanstieg ursächlich sein wird – und der Temperaturanstieg durch menschliches Verhalten veränderbar ist. Im Einzelnen wird die Quantifizierung der Wahrscheinlichkeit durch das IPCC wie folgt beschrieben: „Die Wahrscheinlichkeit eines Ergebnisses bewertet, wie wahrscheinlich es ist, dass dieses Ergebnis eintritt. Sie wird in einer sprachlich kalibrierten Skala angegeben, welche auf quantifizierten Wahrscheinlichkeiten beruht. … Grundlage dieser Quantifizierung können Berechnungen auf Grundlage von in-situ-Daten, Satellitendaten oder Simulationen oder Auswertung von Experteninterviews sein.“[23]
Klima-Prognose ist eine Interpretation historischer Daten
Da wir nun wissen, dass sich die Klimaforschung der Methode des spezifischen Verstehens bedient, können wir verstehen, wieso keine sicheren Voraussagen möglich sind. Und wir wissen, dass das Verstehen nie den Lehren der anderen Wissensbereiche (Logik, Naturwissenschaft, Mathematik und Ökonomie) widersprechen darf. Deshalb können wir nun auch überprüfen, ob die Aussage des IPCC, dass mit einer Wahrscheinlichkeit von über 95% der Mensch ursächlich für die Erwärmung der letzten 50 Jahre sei, den Lehren anderer Wissenschaftsbereiche widerspricht.
Was sagen Wahrscheinlichkeits-Angaben aus?
Bei den 95% handelt es sich um die Angabe einer Wahrscheinlichkeit, und über Wahrscheinlichkeiten stehen uns Erkenntnisse aus der Logik und der Mathematik zur Verfügung. Es gibt grundsätzlich zwei Arten von Wahrscheinlichkeiten: Klassen-Wahrscheinlichkeit („Class Probability“) und Einzelfall-Wahrscheinlichkeit („Case Probability“)
Klassen-Wahrscheinlichkeit
Im Falle der Klassen-Wahrscheinlichkeit wissen wir im Hinblick auf den Untersuchungsgegenstand alles über das Verhalten einer ganzen Klasse von Ereignissen, aber über ein konkretes, einzelnes Ereignis wissen wir nichts, außer dass es zu dieser Klasse gehört.[24] Wir kennen den Ereignisraum, also alle Ereignisse, die geschehen können, es ist uns aber nicht möglich, eine Voraussage über ein konkretes, einzelnes Ereignis zu machen. Berühmtes Beispiel ist der Würfel-Wurf: Wir wissen, dass nur Würfe von eins bis sechs möglich sind, können bei einem konkreten Wurf aber nichts voraussagen, außer dass er innerhalb dieser Klasse von eins bis sechs liegen wird.
Die Wahrscheinlichkeitsrechnung bietet uns eine Möglichkeit, diese Form von unzureichendem Wissen in Symbolen der mathematischen Terminologie auszudrücken, jedoch ohne dass sie unser Wissen über das Phänomen vertiefen oder ergänzen würde. Es handelt sich dabei lediglich um eine Übersetzung in die Sprache der Mathematik. Die Wahrscheinlichkeitsrechnung wiederholt in algebraischer Sprache, was wir vorher schon wussten:[25] Es wird eine Zahl von eins bis sechs gewürfelt werden, wir wissen aber nicht, welche genau. Ludwig von Mises sagte deshalb, dass der große Mathematiker Blaise Pascal (1623 – 1662) seinem Zeitgenossen Chevalier de Méré (1607 – 1684) einen großen Gefallen getan hätte, wenn er ihn nach Hause geschickt hätte, als de Méré mit einem Würfelspielproblem zu Pascal kam. Pascal hätte freiweg zugegeben sollen, dass die Mathematik ihm bei seinem Würfelspielproblem nicht weiterhelfen kann, als dass sie ihm das in mathematischen Symbolen beschreibt, was er vorher auch schon wusste.[26]
Nicht zu verwechseln ist die Klassen-Wahrscheinlichkeit mit der relativen Häufigkeit. Bei der relativen Häufigkeit handelt es sich nicht wie bei der Klassen-Wahrscheinlichkeit um die mathematische Formulierung unvollständigen Wissens in Bezug auf ein Phänomen, bei dem wir bereits vorher theoretisch und a priori das Verhalten einer ganzen Klasse von Ereignissen kennen, aber nichts über ein einzelnes Ereignis wissen, außer dass es Teil der Klasse ist. Sondern es handelt sich bei der relativen Häufigkeit um eine Aufzeichnung von Daten und Ins-Verhältnis-Setzen: Wenn Sie 100 mal einen Würfel werfen, und sie würfeln 26 mal die sechs, so würde in der Mathematik die Wahrscheinlichkeit dennoch nicht mit der relativen Häufigkeit von 26% angegeben, sondern weiterhin mit 1/6 (ca. 16,7%).[27] Die relative Häufigkeit ist das Ergebnis der Aufzeichnung und Auswertung historischer Daten und hat insofern nichts zu tun mit der Klassen-Wahrscheinlichkeit.
Einzelfall-Wahrscheinlichkeit
Bei der Einzelfall-Wahrscheinlichkeit kennen wir im Hinblick auf ein konkretes Ereignis in der Zukunft einige beeinflussende Faktoren, aber es gibt andere Faktoren, die wir nicht kennen oder über deren Auswirkungen wir nicht genau Bescheid wissen.[28] Ein gutes Beispiel ist, wenn sie das Ergebnis eines Fußball-Spieles voraussagen wollen. Verstehen basiert immer auf unvollständigem Wissen. Sie, verehrte Leser, kennen im Fußballsport einige Einfluss nehmende Faktoren (Leistung einzelner Spieler, Heimspiel oder Auswärtsspiel, Ergebnisse vergangener Partien), aber sie können unmöglich alle Faktoren kennen, die Einfluss auf das Ergebnis haben, oder welche Relevanz die Spielstärke eines bestimmten Spielers bei der kommenden Partie haben wird. Sie können sich unmöglich im Vorhinein sicher sein, dass sie sich nicht bezüglich der Relevanz eines der Einflussfaktoren geirrt haben, oder dass sie nicht einige Faktoren, die im Nachhinein eine Rolle gespielt haben (der Schiedsrichter hatte einen schlechten Tag), übersehen haben.
Einzelfall-Wahrscheinlichkeit hat mit der Klassen-Wahrscheinlichkeit nichts gemeinsam, außer dass es sich bei beiden um Formen des unvollständigen, lückenhaften Wissens handelt. Bei der Einzelfall-Wahrscheinlichkeit ist ein numerischer Ausdruck nicht möglich. Sie können nicht sagen, die Fußballmannschaft A wird die Partie mit einer Wahrscheinlichkeit von 95% gewinnen, weil sie es nicht berechnen können. Wenn jemand sagt, er sei der Meinung, ein Fußballspiel gehe zu 95% für die Fußballmannschaft A aus, dann hat er das nicht berechnet, sondern er bedient sich einer Metapher: Er vergleicht die Gewinnchancen der Fußballmannschaft A mit den Gewinnchancen eines Teilnehmers an einem Lotteriespiel, der 95 von 100 Losen hält und bei dem eines der 100 Lose gewinnt. Er ist der Meinung, dass in einem solchen Fall die 95% uns etwas Substantielles über den Ausgang des einen Einzelfalles sagen könnte, den er gerade betrachtet. (Dass dies nicht der Fall ist, braucht nicht wiederholt zu werden.)[29]
Auch in der Naturwissenschaft verbietet es sich im Übrigen, eine Wahrscheinlichkeit über die mögliche Richtigkeit einer Hypothese anzugeben. Naturwissenschaftliche Hypothesen sind stets vorläufige Aussagen.[30] Alles, was über sie gesagt werden kann, ist, ob die Hypothesen mit logischen Prinzipien und den Ergebnissen von Experimenten übereinstimmen oder nicht. Sie erweisen sich dann entweder als falsch oder als nicht-falsch (nach dem heutigen Stand der Erfahrungen).
Die 95%-Aussage des IPCC
Bei der 95%-Aussage[31] des IPCC handelt es sich nicht um (Klassen-)Wahrscheinlichkeit. Denn die mathematische (Klassen-)Wahrscheinlichkeit ist, wie oben gezeigt wurde, ein theoretisches Konzept, bei dem uns von vornherein das Verhalten der ganzen Klasse von Ereignissen bekannt ist, wir bezüglich des in-Frage-stehenden Ereignisses aber nichts wissen, außer dass es Teil dieser Klasse ist. Die (Klassen-)Wahrscheinlichkeit ist auch keine Prognose der relativen Häufigkeit und schon gar keine Voraussage eines Einzelfalles. Mit historischen Daten kann eine Wahrscheinlichkeit nicht formuliert werden, sondern höchstens eine relative Häufigkeit ermittelt werden.
Zwar konvergiert die relative Häufigkeit (bei unendlich vielen Daten) gegen die (Klassen-)Wahrscheinlichkeit. Letztere können wir aber nur wissen, wenn wir die (Klassen-)Wahrscheinlichkeit vorher schon kennen, und das wiederum können wir nur in dem Falle, in dem wir bereits vorher alles über das Verhalten einer ganzen Klasse von Ereignissen wissen. Fehlt uns dieses Wissen, kann die relative Häufigkeit bestenfalls einen Trend anzeigen, aber keine Wahrscheinlichkeit. Die Geschichte lehrt uns aber, dass sich Trends, die sich in der Vergangenheit zeigten, ändern können, oft oder fast immer änderten und sogar in unmittelbarer Zukunft ändern können.[32]
Bei der 95%-Aussage des IPCC handelt es sich um die Angabe einer Einzelfall-Wahrscheinlichkeit auf Grund gemessener Daten. Dem IPCC sind im Hinblick auf den Klimawandel einige beeinflussende Faktoren bekannt, aber es gibt andere Faktoren, die es nicht kennt, oder über deren Auswirkungen es nicht genau Bescheid weiß.[33] Oben wurde bereits gezeigt, dass sich im Falle der Einzelfall-Wahrscheinlichkeit die Verwendung von Zahlenausdrücken verbietet.[34] Bei der 95%-Aussage handelt es sich also nicht um einen mathematischen Ausdruck für eine (Klassen-)Wahrscheinlichkeit, sondern um eine schwache intuitive Analogie, eine Metapher: Das IPCC meint, dass es sich im Hinblick auf seine These vom menschengemachten Klimawandel so sicher ist, wie sich ein Lotterieteilnehmer sicher sein würde, der über 95% der Lose verfügt. Aber auch hierzu haben wir bereits oben gezeigt, dass uns – selbst im Falle der Klassen-Wahrscheinlichkeit – diese 95% nichts Substanzielles über einen betrachteten Einzelfall sagen können, außer dass wir nicht sicher sind, ob das Gewinnerlos dabei ist.
Im Übrigen mögen die 95% manchen an den juristischen Terminus erinnern, dass jemand mit „an Sicherheit grenzender Wahrscheinlichkeit“ von einem gewissen Sachverhalt überzeugt sei. Aber an Sicherheit grenzende Wahrscheinlichkeit bedeutet, dass es „keine vernünftigen Zweifel“ mehr geben darf. Verfügt jemand aber über 95 von 100 Losen, so sind durchaus vernünftige Zweifel angebracht, ob das Gewinnerlos dabei ist! Um in der Metapher zu bleiben: Würden Richter sich mit 95% Sicherheit zufriedengeben, würde einer von 20 Verurteilten zu Unrecht im Gefängnis sitzen. Und würden Sie eine Fluggesellschaft als „sicher“ bezeichnen, bei der bei einem von 20 Flügen ein Flugzeug abstürzt?[35]
Als Ergebnis der bisherigen Untersuchung können wir festhalten: Die Klimaforscher wenden im Hinblick auf Klima-Historie, -Prognosen und -Modelle nicht die Methoden der Naturwissenschaft an, sondern die Methode des Verstehens komplexer Phänomene.[36] Zu einer sicheren Voraussage können sie damit nicht gelangen. Und wir wissen weiter, dass sich die Wissenschaftler mit ihrer Zu-95%-sicher-Aussage in einen eklatanten Widerspruch zu Denkgesetzen begeben. Die Anwendung des mathematischen Ausdruckes ist falsch, weil es sich hier um keinen Fall der Klassen-Wahrscheinlichkeit handelt. Im Bereich des Verstehens ist die Aussage falsch, weil die Einzelfall-Wahrscheinlichkeit denklogisch keine numerischen Ausdrücke zulassen kann, weil man sie nicht berechnen kann.
Klimaleugner und Klimasünder sind keine wissenschaftlichen Begriffe; sie dienen dem politischen Meinungskampf
Durch die Zuordnung der Klimawissenschaft zum Verstehen wird nun auch klar, warum ein so reger Streit herrscht um den menschengemachten Klimawandel. Es werden unwissenschaftliche Begriffe verwendet, die aus den Bereichen der Moral stammen – wie „Klimaleugner“ oder „Klimasünder“. Oder haben Sie schon einmal davon gehört, dass im naturwissenschaftlichen Diskurs Einstein als „Zeitleugner“ oder „Schwerkraftsünder“ bezeichnet wurde? Von Seiten der Klima-Alarmisten möchte man sich jeder weiteren wissenschaftlichen Diskussion versperren, und die Seite der „Klimaskeptiker“ erprobt sich ständig darin, die Annahmen der Klima-Alarmisten zu falsifizieren.
Im Bereich des Verstehens kann es keine einzig richtige Aussage geben
Da wir nun aber wissen, dass die Prognosen der Klimawissenschaftler zum Bereich des spezifischen Verstehens gehören, können wir ganz gelassen anerkennen, dass zwei Klimawissenschaftler im Hinblick auf die Daten völlig übereinstimmen können und auch im Hinblick darauf, dass die Relevanz, die sie gewissen Einflussfaktoren beimessen, weder naturgesetzlichen noch mathematischen oder logischen Regeln widersprechen, und dass sie trotzdem zu unterschiedlichen Prognosen gelangen können. Ebenso kann ein und derselbe Klimawissenschaftler zu zwei verschiedenen Zeitpunkten zu unterschiedlichen Ergebnissen gelangen, ohne sich selbst in Widerspruch zu begeben.
Die wirtschaftlichen Prognosen des Weltklimarates
Soweit es um die Klimadaten geht, haben wir also für Klarheit gesorgt. Aber wie sieht es mit den wirtschaftlichen Prognosen aus? In einem auf der IPCC-Webseite veröffentlichten Report beschäftigen sich die Autoren mit den Auswirkungen des Klimawandels auf das Bruttoinlandsprodukt.[37] Berühmtheit erlangt hat der Stern-Report des britischen Wissenschaftlers Nicolas Stern, der im Kern aussagt, dass der Klimawandel jährlich rund 5% des Welt-BIPs (also der Summe aller BIPs) kosten wird, wohingegen er die Kosten des Gegensteuerns mit 2% jährlich ansetzt.[38]
Der britische Wissenschafts-Journalist Matt Ridley kritisiert Sterns Bericht, weil Stern bei der Berechnung der Auswirkungen des Klimawandels sehr niedrige Zinssätze bei der Abzinsung verwende und so zu sehr hohen Zukunftswerten von Schäden beziehungsweise Kosten komme. Zudem kritisiert Ridley, dass der Stern-Report von einem sehr hohen Lebensstandard unserer Enkelkinder in der Zukunft ausgeht. Und auch die IPCC Szenarien sähen vor, dass die Menschen im Jahr 2100 auf so viel Wirtschaftswachstum zurückblicken würden, dass ihr Wohlstand im Durchschnitt vier bis 18-mal so hoch sein würde wie heute.[39] Diese Prognosen des Wirtschaftswachstums beeinflussen freilich auch die Prognose der Kosten von Schäden und der künftigen CO2-Emissionen.
Wer hat nun Recht? Nicolas Stern und das IPCC oder Matt Ridley? Um die Antwort zu finden, lassen Sie uns zunächst mit der Frage beginnen: Was ist überhaupt das BIP? Das Statistische Bundesamt weiß:

„Das Bruttoinlandsprodukt (BIP) ist ein Maß für die wirtschaftliche Leistung einer Volkswirtschaft in einem bestimmten Zeitraum. Es misst den Wert der im Inland hergestellten Waren und Dienstleistungen (Wertschöpfung), soweit diese nicht als Vorleistungen für die Produktion anderer Waren und Dienstleistungen verwendet werden.“

Wert kann nicht gemessen werden
Das BIP misst also angeblich den Wert von Waren und Dienstleistungen in einer Volkswirtschaft. Alleine: Wert kann nicht gemessen werden. Mises schreibt dazu:

Wert ist nicht intrinsisch, Wert ist nicht in Dingen. Er ist in uns; es ist die Art und Weise wie der Mensch auf die Bedingungen der Umwelt reagiert.[40] … Werten heißt A gegenüber B vorziehen. … Ebenso wie es keinen Standard und keine Messung von sexueller Liebe, von Freundschaft oder von Sympathie oder ästhetischem Genuss gibt, gibt es keine Messung des Wertes von Handelsgütern. … Es gibt keine Methode, eine Wert-Einheit zu schaffen. … In einer Marktwirtschaft gibt es Geldpreise. Wirtschaftsrechnung ist Rechnung in Form von Geldpreisen. Die unterschiedlichen Mengen der Güter und Dienstleistungen gehen in diese Wirtschaftsrechnung mit den Geldpreisen ein, für die sie am Markt gekauft und verkauft werden können … .[41]

Wenn man Wert aber nicht messen kann, was ist dann vom BIP zu halten? Dazu sei erneut Mises zitiert:

Es ist möglich, die Summe des Einkommens oder Vermögens mehrerer Personen in Geldpreisen auszudrücken. Aber es ist Unsinn, ein National-Einkommen oder Volks-Vermögen zu berechnen. Sobald wir beginnen, Erwägungen anzustellen, die einem Menschen fremd sind, der innerhalb der Marktwirtschaft handelt, hilft uns Geldrechnung nicht mehr weiter. … Wenn in einer Wirtschaftsrechnung ein Vorrat von Kartoffeln mit 100 US$ bewertet wird, ist die Idee, die dahintersteckt, dass man diesen Vorrat für diesen Preis verkaufen oder ersetzen kann. … Aber was ist die Bedeutung einer Berechnung des Volksvermögens? Was ist die Bedeutung des Ergebnisses der Berechnung? Was muss in eine solche Berechnung einfließen und was muss außen vorgelassen werden? Wäre es falsch oder richtig, den „Wert“ des Klimas des Landes einfließen zu lassen oder die angeborenen und erworbenen Befähigungen der Bewohner? Der Kaufmann kann seine Güter in Geld eintauschen, aber ein Volk kann das nicht.
Die Geld-Ausdrücke wie sie beim Handel und in der Wirtschaftsrechnung Verwendung finden, sind Geldpreise, das heißt Umtauschkurse zwischen Geld und anderen Gütern und Dienstleistungen. Preise werden nicht in Geld gemessen; Preise bestehen aus Geld. Preise sind entweder Preise der Vergangenheit oder erwartete Preise in der Zukunft. Ein Preis ist notwendigerweise ein historisches Datum, entweder der Vergangenheit oder der Zukunft. Es ist nichts an Preisen, das es erlauben würde, sie für die Messung von physikalischen oder chemischen Phänomenen heranzuziehen.[42]

Es ist also sinnlos, wenn Sie ihr Vermögen und das Ihres Nachbarn, das ein jeder für sich in Geldpreisen errechnet hat, addieren, wenn Sie nicht vorhaben, gemeinsam am Markt zu handeln. Sie können Wohlstand nicht messen. Einem Italiener mögen sein mildes Klima und die gute Landesküche sehr viel wert sein, aber wie wollen Sie dies in eine ökonomische Kalkulation einfließen lassen? Natürlich werden die meisten Menschen darin übereinstimmen, dass der Wohlstand heute größer ist als noch vor 100 Jahren. Es gibt mehr Kapitalgüter (Fabriken, technische Anlagen, Minen, Elektrizitätswerke), und es stehen vielen Menschen viel mehr Konsumgüter (Autos, Wohnungen, Lebensmittel, Frisörbesuche etc.) zur Verfügung als damals. Alleine, sie können diese Wohlstandszunahme nicht numerisch messen und unterschiedliche Menschen bewerten wirtschaftlichen Fortschritt unterschiedlich. So mag dem zurückgezogenen Bio-Bauern der Bau einer neuen Autobahn ein Unwert sein, während der Pendler, der die Autobahn nutzen möchte, sie durchaus als Wert ansieht. Und auch ein und derselbe Mensch kann ein und denselben Gegenstand zu unterschiedlichen Zeitpunkten unterschiedlich bewerten.
Der nächste Begriff, den uns das statistische Bundesamt bei seiner Beschreibung des BIP zuwirft, ist der Begriff der Volkswirtschaft. Aber bei der Volkswirtschaft handelt es sich lediglich um eine theoretische Fiktion, die im Widerspruch zu den Lehren der Ökonomik steht:

„Die Marktwirtschaft als solche respektiert keine politischen Grenzen. Ihr Bereich ist die Welt.[43]… Es ist nicht „Amerika“, das Champagner von „Frankreich“ kauft. Es handelt sich immer um einen individuellen Amerikaner der ihn von einem individuellen Franzosen kauft. … Solange es noch Handlungsspielräume für Individuen gibt, soweit es privaten Besitz und Handel mit Gütern und Dienstleistungen gibt, gibt es keine Volkswirtschaft. Nur wenn es eine völlige Regierungskontrolle anstelle der Wahlmöglichkeiten der Individuen gibt, gibt es eine Volkswirtschaft als reale Einheit.“[44]

Von Preisänderungen kann nicht auf Kaufkraftänderungen geschlossen werden
Ein weiteres Problem besteht darin, dass sich die Wissenschaftler bei BIP-Prognosen mit der Kaufkraft von Geld befassen. Ihre Berechnungen seien inflations- oder kaufkraftbereinigt. Alleine, das ist ökonomisch gesehen nicht möglich.

„Alle Methoden, die vorgeschlagen werden, um die Änderungen der Kaufkraft einer Geldeinheit zu messen, basieren, mehr oder weniger unbeabsichtigt, auf der illusorischen Einbildung eines unsterblichen und unveränderbaren Wesens, das vermittels eines unabänderlichen Standards die Menge der Befriedigung festlegt, die ihm eine Geldeinheit bringt. … Nur wenn Menschen die gleichen Dinge immer gleich bewerten würden, könnten wir Preisänderungen als einen Ausdruck der Änderung der Kaufkraft des Geldes ansehen.“[45]

Wenn das IPCC oder der Stern-Report die Kosten des Klimawandels also im Hinblick darauf errechnen, welche Werte künftige Schäden, künftige Einkommen oder künftige Aggregate von BIPs haben werden, können wir im Hinblick auf diese Berechnungen sagen, dass sie im Widerspruch zu den Lehren der Ökonomik stehen, dass man Wert nicht messen kann, dass es eine Volkswirtschaft im ökonomischen Sinne nicht gibt, und dass es daher auch widersinnig ist, das Aggregat der BIPs zu bilden, um eine Welt-Wirtschaftsleistung zu berechnen. Die Berechnungen des IPCC sind also insofern als falsch zu bezeichnen, weil sie den Lehren der Ökonomik widersprechen. Freilich könnte man – im Rahmen des Verstehens – Schäden oder die Kosten von Maßnahmen zu deren Verhinderung anhand von heutigen Marktpreisen schätzen, und man könnte auch schätzen, wie die Marktpreise von Schäden oder Maßnahmen zu deren Verhinderung in der Zukunft sein werden. Man kann solche Geldpreise von Schäden und Maßnahmen zu deren Verhinderung aber eben nicht ökonomisch berechnen, Kaufkraft nicht messen, und die Angabe von Schäden und Kosten im Verhältnis zu einem BIP kann keinen Sinn machen, wenn das BIP keinen Sinn macht.
Die IPCC Annahmen widersprechen den Lehren der Ökonomie und Denkgesetzen
Zusammenfassend können wir sagen, dass die Wissenschaftler des IPCC auf Grund historischer Daten und bekannter naturwissenschaftlicher Relationen vermuten, dass die Menschen durch die Emission von CO2 zu einem Klimawandel beigetragen haben. Sicher sind sie sich nicht. Sie meinen auch, dass durch den Klimawandel Schäden entstehen können; die Werte, die die Menschen diesen Schäden beimessen und beimessen werden, können sie aber nicht berechnen. Sie sind zudem der Ansicht, dass diese Schäden, wenn nicht verhindert, so doch abgemildert werden könnten. Sicher können sie sich auch hier nicht sein, wenn sie sich schon unsicher darüber sind, ob der Mensch ursächlich zum Klimawandel beigetragen hat. Und sofern Wissenschaftler Zwangsabgaben und Regulierung vorschlagen, also staatliche Ge- und Verbote, um die als möglich und abwendbar angesehenen Schäden zu verhindern oder abzumildern, ist dies im Übrigen eine ethische Wertung, die natürlich nicht wissenschaftlich ist, sondern lediglich etwas über die Einstellungen der Wissenschaftler zu Zwangsmaßnahmen aussagt.
Zwangsabgaben und Regulierung gegen Bürger sind auf Grund der Annahmen der IPCC-Wissenschaftler nicht gerechtfertigt
Wie also mit dem Problem umgehen? Der Ökonom Murray Rothbard (1926 – 1995) meinte:[46]

Wenn eine Partei einer anderen durch eine Handlung [wie etwa die Emission von CO2] einen Schaden zufügt, und wenn dies vor Gericht oder in einem Schiedsgerichtsverfahren mit an Sicherheit grenzender Wahrscheinlichkeit bewiesen werden kann, dann stünden der geschädigten Partei Abwehr- und Schadensersatzansprüche zu. Es dürften aber keine vernünftigen Zweifel mehr verbleiben, dass das Verhalten des Schädigers den Schaden bewirkt hat. Wenn nicht alle vernünftigen Zweifel ausgeräumt werden können, ist es jedoch bei Weitem besser, einen Schädiger nicht zu verurteilen, anstatt unsererseits jemandem absichtlich Schaden zuzufügen. Der Grundsatz des Hippokratischen Eides: ‚tue zumindest niemandem ein Leid an‘, muss auch für jeden gelten, der Recht anwendet oder vollzieht.

Es ist aber gerade nicht so, dass das IPCC oder die NASA einen menschengemachten Klimawandel mit an Sicherheit grenzender Wahrscheinlichkeit nachweisen können. Die Angabe einer numerischen Wahrscheinlichkeit widerspricht Denkgesetzen: Die metaphorisch mit 95% angegebene Sicherheit könnte in keinem gerichtlichen Verfahren als Kausalitäts-Beweis dienen; man gelangte schon gar nicht zu der Frage, ob vernünftige Zweifel verblieben, weil der Beweisbelastete schon nach eigener Aussage vorbringt, dass gewichtige Zweifel bestehen.
Die Berechnung der voraussichtlichen Schadenshöhe und der Kosten der Gefahrenabwehr hätten sich die Wissenschaftler des IPCC daher sparen können. Da sie aber nun einmal durchgeführt wurden, können wir hierzu sagen, dass die Berechnungen im Widerspruch zu den Gesetzen der Ökonomik stehen und deshalb falsch sind.
Die Ergebnisse der Klimaforschung können eine Besteuerung von Bürgern daher nicht rechtfertigen. Damit den Bürgern kein weiterer Schaden entsteht, wären die bestehenden Steuern und Subventionen, die mit dem menschengemachten Klimawandel begründet wurden, umgehend abzuschaffen. Und keinesfalls können Steuererhöhungen, neue Steuern oder neue Subventionen gerechtfertigt werden.
[1] bmub/weltklimakonferenz-2017-in-bonn/
[2] https://de.wikipedia.org/wiki/%C3%9Cbereinkommen_von_Paris
[3] http://www.imf.org/external/pubs/ft/sdn/2016/sdn1601.pdf
[4] https://de.wikipedia.org/wiki/Klima#Definition_des_Klimas
[5] Ludwig von Mises, Die Letztbegründung der Ökonomik (2016), S. 69.
[6] A.a.O., S. 81 f.
[7] Vgl. a.a.O., S. 82.
[8] A.a.O., S. 83.
[9] Ludwig von Mises, Human Action (1949), pg. 55.
[10] Die Letztbegründung der Ökonomik, S. 91.
[11] Human Action, pg. 50.
[12] Diese Passage ist teilweise eine recht freie Übersetzung einer Passage aus Human Action, pg. 57.
[13] Vgl. a.a.O., pg. 50.
[14] Vgl. a.a.O., pg. 51.
[15] Vgl. a.a.O., pg. 58.
[16] Vgl.: https://mises.org/library/skeptics-case; vgl. auch: https://www.youtube.com/watch?v=kwtt51gvaJQ
[17] Sogenannte aerobe Atmung.
[18] https://climate.nasa.gov/causes/
[19] https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[20] Vgl. a.a.O., pg. 51.
[21] Vgl. a.a.O., pg. 58 f.
[22] https://climate.nasa.gov/evidence/
[23] https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess
[24] Vgl. a.a.O., pg. 107.
[25] A.a.O., pg. 108.
[26] A.a.O., pg. 106.
[27] Bei unendlich vielen Würfelwürfen würde die relative Häufigkeit allerdings fast sicher gegen die Wahrscheinlichkeit konvergieren, wie Bernoulli beobachtet hat und wie dies später auch in der Wahrscheinlichkeitstheorie mathematisch formuliert wurde, vgl. https://de.wikipedia.org/wiki/Gesetz_der_gro%C3%9Fen_Zahlen#Schwaches_Gesetz_f.C3.BCr_relative_H.C3.A4ufigkeiten
[28] A.a.O., pg. 110.
[29] Vgl. hierzu: a.a.O., pg. 114 f.
[30] Vgl. Ludwig von Mises, die Letztbegründung der Ökonomik, S. 101, mit Hinweis auf den Falsifikationismus nach Karl Popper.
[31] Das IPCC sagt zwar, dass es die Wahrscheinlichkeit über 95% einschätzt, da aber auch 95,00001% über 95% ist, kann hier aus Vereinfachungsgründen 95% angenommen werden. Immerhin sagt das IPCC ja nicht, dass es sich zu über 96% sicher wäre.
[32] Vgl. a.a.O., S. 100.
[33] Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt. Da diese Komplexität bedeutet, dass Erkenntnisse über die im Erdsystem herrschenden Prozesse bisher nicht mit absoluter Sicherheit beschrieben und erklärt werden können, ist es notwendig, diese Unsicherheit zu quantifizieren.https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[34] Die mathematische Metapher wurde laut Wikipedia aus folgendem Grunde verwendet: Häufig wird in der politischen Diskussion eine subjektive Beschreibung von Unsicherheiten gewählt. Das bedeutet, dass in Aussagen die Klassifizierungen „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ verwendet werden, die sich jedoch in ihrer Bedeutung von Person zu Person und von Interpretation zu Interpretation unterscheiden. Damit wird Außenstehenden ein unklares Bild der Faktenlage und der objektiven Ergebnisse vermittelt. Dies kann [nicht?] das Ziel der Verwendung sein (wie bei der Kontroverse um die globale Erwärmung) und sollte daher vermieden bzw. unterbunden werden.https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[35] Ja, wenn bei einem von 20 Flügen ein Flugzeug abstürzt, hieße dies, dass bei 95% der Flüge kein Flugzeug abstürzt.
[36] Einem ähnlichen Fehler unterliegen die Ökonometriker, die versuchen anhand wirtschaftlicher Daten die Zukunft der wirtschaftlichen Entwicklung vorauszusagen. Erstens schaffen sie es mit der Methode des Verstehens nicht und zweitens stehen ihre Voraussagen im Widerspruch zu den Lehren der Ökonomik.
[37] https://www.ipcc.ch/pdf/assessment-report/ar5/wg2/WGIIAR5-Chap10_FINAL.pdf
[38] https://en.wikipedia.org/wiki/Stern_Review#Summary_of_the_Review.27s_main_conclusions
[39] Matt Ridley, The Rational Optimist (2010), pg. 331. Vgl. Hierzu: https://de.wikipedia.org/wiki/Stern-Report
[40] Human Action, pg. 96.
[41] A.a.O, pg. 205 f.
[42] A.a.O., pg. 208.
[43] A.a.O., pg. 319.
[44] A.a.O., pg. 323.
[45] A.a.O., pg. 221.
[46] Murray Rothbard, Law, Property Rights, and Air Pollution, 1982, https://mises.org/library/law-property-rights-and-air-pollution
Dr. Andreas Tiedtke ist Rechtsanwalt und Unternehmer.
Der Beitrag erschien zuerst auf der Website des Ludwig van Mises Institut Deutschland