Ohne Energie keine Zivilisation Deutschland: Mit Vollgas in die Steinzeit

Bild rechts: Fortschritt 2050: Ultramoderne, rostfreie, garantiert carbonfrei hergestellte Messerklinge Marke „Flintstone“

Bei früheren Kreuzzügen ging es vorgeblich darum, das heilige Land von „den Heiden“ zu befreien. Heutzutage sind wir moderner. Die „Heiden“ werden mit Gummibärchen und Selfies willkommen geheißen, als Beelzebub haben wir stattdessen das CO2 ausgemacht, von dem die Welt und ihr Klima befreit werden müssen. Letzteres wurde im Dezember 2015 auf der denkwürdigen „Welt-Klimakonferenz“ COP21 in Paris beschlossen. Die Bundesregierung will dabei den Vorreiter geben und hat deshalb am 9. März 2016 der Unterzeichnung dieses „Klimaschutzabkommens“ zugestimmt. Die Unterzeichnungszeremonie soll am 22. April 2016, dem „Tag der Erde“, in New York stattfinden. Umweltministerin Barbara Hendricks betont, dass Deutschland damit zu den Erstunterzeichnern gehören werde. Schon am 19. März 2016 präsentierte sie der Nation einen Katalog von 89 Maßnahmenvorschlägen für den deutschen „Klimaschutzplan 2050“ und kündigte den weiteren „klimafreundlichen Umbau von Wirtschaft und Gesellschaft“ mit dem Ziel der „Treibhausgasneutralität“ an. Worin unterscheidet sich dies von gesellschaftspolitischen Ansätzen früherer Jahrtausende?

Ohne Energie keine Zivilisation

In der Geschichte der Menschheit haben nur wenige Herrscher bewusst auf eine Verelendung des eigenen Volkes hingearbeitet. Es gab natürlich jede Menge unfähiger Fürsten und Könige, doch hat kaum jemand von diesen ernsthaft versucht, einmal erreichte zivilisatorische Errungenschaften für seine eigenen Leute rückgängig zu machen. Im Gegenteil: Sieht man sich die Geschichte von Hochzivilisationen an, so sind Fortschritte für die Masse der Bevölkerung untrennbar mit der Verfügbarkeit von zusätzlicher Nahrung und Energie verbunden. Das Große an Karl dem Großen war nicht das Massaker an den Sachsen, sondern die Einführung der Dreifelderwirtschaft. Das dadurch verbesserte Nahrungsangebot kam letztlich allen zugute, und das war das entscheidende. Den herrschenden Klassen ging es nämlich auch schon vor Jahrtausenden gut, wie das Sterbealter  ägyptischer Pharaonenmumien oder die Grabinschriften römischer Patrizier unschwer beweisen. Die weit überwiegende Masse der Bevölkerung jedoch fristete selbst noch im 16. Jahrhundert ein kärgliches Dasein, das von Mühsal, Entbehrungen, Siechtum und frühem Tod geprägt war. Eltern mussten oft vier von fünf Kindern begraben, die durchschnittliche Lebenserwartung lag bis 1700 auch in Deutschland bei 30 Jahren, teilweise sogar noch darunter. Als einzige Energiequellen standen Reit- und Zugtiere sowie in geringem Umfang Wind- und Wassermühlen zur Verfügung.

Den Anstoß zu einer modernen Zivilisation, welche auch der Bevölkerung in ihrer Breite merklich zugute kam, gaben erst die Kohlegewinnung und die damit verknüpfte Einführung der Dampfmaschine ab etwa 1720. Damit erschloss sich die Menschheit den Zugriff auf thermische, mechanische und schließlich auch elektrische Energie in einem Ausmaß, das sich vorher niemand hatte vorstellen können. Dokumentieren lässt sich dies an zwei entscheidenden Kenngrößen: Der Zunahme des Ausstoßes an CO2 durch Verbrennung von fossilen Rohstoffen einerseits und der Zunahme der Lebenserwartung der breiten Bevölkerung andererseits, Bild 1. Nur die reichliche Verfügbarkeit von Energie ermöglichte die Entwicklung unserer modernen technischen Zivilisation mit den Errungenschaften für die gesamte Bevölkerung, die wir heute kennen und als selbstverständlich empfinden.


Bild 1. Erst die Verfügbarkeit von reichlicher und bezahlbarer Energie ermöglichte die Entwicklung der modernen technischen Zivilisation, wie wir sie heute kennen. Vereinfachte linearisierte Darstellung. Daten: [CDIA, LEBE, BPB] (Grafik: eigene Berechnungen)

Weltweit gelten diese Gesetzmäßigkeiten übrigens auch heute noch. Nach wie vor verfügen Millionen von Menschen nicht über die Energieressourcen, die ihnen unseren Lebensstandard ermöglichen würden. Das zeigt sich beispielsweise, wenn man die Lebenserwartung in verschiedenen Ländern mit dem jeweiligen Pro-Kopf-Ausstoß an CO2 in einem Diagramm aufträgt, Bild 2.

 

Bild 2. Zusammenhang zwischen Verfügbarkeit von Energie, ausgedrückt durch den nationalen Pro-Kopf-Ausstoß an CO2, und der durchschnittlichen Lebenserwartung. Daten: [CDIA, LEBE] (Grafik: eigene Berechnungen) 

Zivilisatorisches Niveau, ausgedrückt durch die mittlere Lebenserwartung, und die Verfügbarkeit von (fossiler) Energie sind daher nach wie vor eng verknüpft. Bei den CO2-Ausreißern nach oben handelt es sich meist um Länder mit überreichlichen Ressourcen an Öl und Gas sowie vergleichsweise geringer Bevölkerungszahl wie Katar, Brunei, Oman oder Trinidad und Tobago. In anderen Fällen dürfte es sich um kleine Inselnationen mit weit überdurchschnittlichem Flugverkehrsaufkommen durch Tourismus handeln. Deutschland liegt ebenso wie die meisten seiner Nachbarländer im Bereich zwischen 7-11 t CO2/Kopf und Jahr.

 

Energieverweigerung bedeutet Massenmord

Allen politischen Akteure, die heute publikumswirksam den weitgehenden oder vollständigen Verzicht auf die Verbrennung fossiler Rohstoffe predigen, müsste eigentlich klar sein, dass es nicht darum gehen darf, der Menschheit die Verfügbarkeit von Energie zu verwehren. Das liefe auf Massenmord in einem Ausmaß hinaus, wie es in der ganzen Menschheitsgeschichte bisher nicht dagewesen ist. Betroffen wären nicht nur die Länder der 3. Welt, sondern auch die Industrienationen, denn deren Infrastruktur und auch die gesundheitliche Robustheit der Bevölkerung sind viel empfindlicher als in Ländern der 3.Welt. Mit dem Technologieniveau des 16. Jahrhunderts könnte Deutschland nicht einmal die Hälfte seiner heutigen Bevölkerung ernähren. Wir hätten „Bio“ für die Reichen und Hungertod für die Massen. Ganz wie früher.

Diejenigen, die uns den Verzicht auf fossile Ressourcen predigen, müssen daher die Frage beantworten, welche Alternativen sie der Menschheit als Ersatz anbieten wollen. Die vielfach angepriesenen „erneuerbaren“ Energien wie Solar- und Windenergie sind hierzu untauglich [ELHI, IVAN, TASM], nicht zuletzt auch deshalb, weil es derzeit keine technisch wie wirtschaftlich vertretbaren Lösungen für die erforderliche Energiespeicherung gibt. Alle derzeit propagierten Konzepte stecken in den Kinderschuhen. Keine einzige hat sich bisher als ausreichend praxistauglich erwiesen, im Gegenteil: Diverse hochgelobte Inselprojekte wie El Hierro, Tasmanien oder die eine oder andere Nordseeinsel haben sich bisher stets als teure Flops erwiesen.

Als einzige andere Alternative bliebe dann noch die Kernenergie. Diese wird jedoch im Augenblick von den meisten selbst ernannten „progressiven Kräften“ mit aller Leidenschaft bekämpft. „Alternativloser“ Verzicht, wie er teilweise propagiert wird, hätte gerade bei den Ärmsten der Armen katastrophale Auswirkungen. Letztlich ist es egal, ob jemand umweltpolitisch oder kirchlich ausgerichtet ist oder schlicht und undifferenziert gegen „Sozialkapitalismus“ wettert: Er sollte sich hier und jetzt klarmachen, dass er der Weltbevölkerung von aktuell rund 7,4 Mrd. Menschen Wege anbieten muss, an günstige Energie zu gelangen, sonst gibt es mehr Opfer ideologischer Verblendung als jemals zuvor in der Geschichte.

 

Die Utopie einer deutschen „Treibhausgasneutralität“

Bis vor einigen Monaten verfolgte die Bundesregierung noch vorrangig das Ziel, die deutschen CO2-Emissionen bis zum Jahr 2020 auf 625 Mio. Tonnen/Jahr zu senken. Dieses wurde insbesondere im Rahmen von EU-Vereinbarungen propagiert. Ein Blick auf die tatsächliche Entwicklung zeigt jedoch, dass der Rückgang bereits weit oberhalb dieser Zielmarke zum Stillstand gekommen ist, Bild 3.

Bild 3. Der Rückgang der deutschen CO2-Emissionen ist faktisch zum Stillstand gekommen. Das für 2020 angestrebte Ziel dürfte um rund 190 Mio. t/a verfehlt werden. Daten: [STAT], eigene Berechnungen. 

Betrachtet man die Trendlinie, so dürfte das Ziel sogar um rund 190 Mio. t CO2/a verfehlt werden. Das entspricht glatten 30 %. Hierbei muss man noch ins Kalkül ziehen, dass wir in 2014 und 2015 zwei vergleichsweise milde Jahre in Folge hatten, was eine entsprechende Verringerung der heizungsbedingten CO2-Emissionen zur Folge hatte [AGEV]. Während man in ökopolitischen Kreisen lautstark über die „Verhagelung“ der CO2-Bilanz aufgrund des „zu kalten“ Jahres 2015 klagte, zeigt der Blick auf das langjährige Mittel 1981-2010, dass nicht nur das extrem milde Jahr 2014 mit 2453 sogenannten Gradtagen (was das ist? hier), sondern auch das angeblich zu kalte Jahr 2015 mit 2852 Gradtagen immer noch unterhalb des Durchschnitts von 2.993 Gradtagen lagen. Zudem war das Jahr 2015 außergewöhnlich sonnen- und windreich, was zu einem massiven Anstieg vor allem beim Windstrom (+ 50 % !) wie auch bei der Fotovoltaik (+ 7%) führte. All dies zusammen hatte entsprechende Auswirkungen auf die CO2-Emissionen. Realistisch betrachtet waren 2014 und 2015 also Ausnahmejahre mit außergewöhnlich niedrigen CO2-Emissionen.

Bei nüchterner Betrachtung der Zahlen zur Entwicklung der deutschen CO2-Emissionen kommt man zu dem Schluss, dass schon die bisherige Politik der Bundesregierung bezüglich der Verringerung der deutschen CO2-Emissionen gescheitert ist. Mit den üblichen Mitteln politischer und wirtschaftlicher Lenkung und Anreizbildung steckt man hier offensichtlich in der Sackgasse. Normalerweise müsste die Politik in einer solchen Situation einen Rückzieher machen. Im heute „alternativlos“gewordenen Deutschland ist die Reaktion jedoch eine andere.

 

Die Vision einer deutschen „Treibhausgasneutralität“

Doch beflügelt vom erfolgreichen Verlauf des großen Klimarettungs-Jamborees in Paris hat sich die Bundesregierung in Person der Ministerin Hendricks stattdessen jetzt noch viel ambitioniertere Ziele gesteckt. Zwar sind konkrete Zahlenwerke noch nicht veröffentlicht, doch sollen schon bis Mitte 2016 gesetzliche Vorgaben erarbeitet werden, welche den CO2-Ausstoss Deutschlands bis zum Jahre 2050 um rund 85 % drücken sollen. Wichtige Eckpunkte des „Klimaschutzplans 2050“ sind bereits bekannt [EIKE] und lassen Schlimmes befürchten.

So soll im Autoland Deutschland, wo etwa jeder siebte Industriearbeitsplatz direkt oder indirekt am Automobil hängt, der Verkauf von Verbrennungsmotoren für den Einsatz bei Transport und Verkehr schon ab 2030 verboten werden. Da die Modellpolitik der Hersteller über lange Zeiträume geplant werden muss, bedeutet dies mehr oder weniger das Aus für wesentliche Teile der Branche innerhalb der nächsten paar Jahre. Hausbesitzer sollen durch „Straf-Grundsteuern“ und eine Umstellungspflicht auf „EE-Heizungen“ zu unrentablen Investitionen in angebliche „Energiesparmaßnahmen“ gezwungen werden. Zusätzlich flankiert werden soll dies durch Brennstoffsteuern auf Öl- und Gasheizungen. Innerorts soll das Verkehrstempo grundsätzlich auf 30 km/h begrenzt werden, für Autobahnen sollen 120 km/h gelten. Die Stromproduktion soll verringert werden. Ein besonderes „Schmankerl“ ist hierbei die beabsichtigte Beendigung des Kohleeinsatzes in Kraftwerken bereits ab 2035. Da die Kernenergie sogar noch früher, nämlich bis 2022 auslaufen soll, wäre Deutschland bezüglich seiner Stromversorgung dann weitgehend auf Windmühlen, Solarpaneele, Biomasse und etwas Wasserkraft beschränkt. Zur Stabilisierung der Netze stünde lediglich noch ein wenig Erdgas zur Verfügung Die Blaupause hierfür liefert unter anderem ein jetzt bereits verabschiedetes Gesetz für das Land Berlin [EWBE, EWB2], siehe Bild 4.

Bild 4. Die vom Land Berlin im Rahmen seiner Klimaschutzgesetzgebung festgelegten Maßnahmen sehen bis 2050 eine Reduzierung der CO2- Emissionen um 85 % vor (Grafik: [KLNB])

 

Utopische Vorstellungen beim Strom

Unterzieht man die bis jetzt bekannten Eckdaten der Politik beispielsweise bezüglich der Stromerzeugung einem Plausibilitätstest, so stellt man schnell fest, dass es sich hier um politische Vorgaben handelt, die in der Realität gar nicht umsetzbar wären. Das beginnt bereits mit der aktuell von verschiedenen Quellen erwarteten Verringerung der Stromproduktion von rund 10 % seit 1990 bis zum Jahr 2050, Bild 5.


Bild 5. Laut aktuellen Daten von AGEB und Prognosen von Statista wird eine Rückgang der Stromproduktion von 1990 bis 2050 um ca. 10 % erwartet (Daten: [AGE2, STA2] 

Als Begründung für die allgemein erwarteten Reduzierungen bei der Stromerzeugung werden u.a. Effizienzsteigerungen und der Einsatz „smarter“ Energieverteilungstechnologien angeführt. „Smarte“ Netze sollen dafür sorgen, dass Strom vorrangig dann genutzt wird, wenn er aufgrund geeigneter Wetterlagen reichlicher vorhanden und damit billiger ist. Das ist so weltfremd, dass man sich fragen muss, welchen Leuten man denn da das Steuerrad für das Land übergeben hat. Bei einigermaßen realistischer Betrachtung gibt es nämlich weder im privaten noch im gewerblichen Bereich viele Möglichkeit, zeitlich „flexibel“ auf ein erratisch schwankendes Stromangebot zu reagieren. Im Privatbereich ist es der Lebensrhythmus der Bewohner, der festlegt, wann gebadet, gekocht oder der Fernseher eingeschaltet wird, und es ist schlechterdings kaum vorstellbar, dass ein Bundesligaspiel oder ein Boxwettkampf um eine Stunde verzögert würden, weil dann billigerer Windstrom zur Verfügung stünde. Auch im gewerblichen Bereich mit seinen synchronisierten Abläufen ist die Vorstellung, tausende Mitarbeiter Däumchen drehen zu lassen, weil bei den Windmühlen gerade Flaute herrscht, so aberwitzig, dass man darüber gar nicht zu diskutieren braucht. Dass dennoch selbst große Unternehmen der Energiebranche in teuren Werbekampagnen suggerieren, in Zukunft werde sich der Verbrauch anders als bisher nach dem Angebot richten, sollte eigentlich strafrechtliche Konsequenzen nach sich ziehen.

 

Hinweg mit den fossilen Energien?

Der Gesamtenergieverbrauch Deutschlands im Jahre 2015 erreichte 13.306 Petajoule (PJ) [AGEB], was in etwa 3.700 TWh entspricht. Hiervon stammten lediglich 1670 PJ bzw. ca. 460 TWh (12,5 %) aus „erneuerbarer“ Energieerzeugung, der Rest von 3.240 TWh aus fossilen Energien bzw. aus Kernkraftwerken. Geht man davon aus, dass die Bundesregierung vorhat, den CO2-Ausstoss aus der Verbrennung fossiler Rohstoffe um 85 % zu reduzieren, so dürften im Jahre 2050 nur noch rund 158 Mio. Tonnen CO2 emittiert werden, siehe Bild 3. Bei der Verbrennung von Erdgas entstehen rund 219 g CO2/kWh [VDS]. Rechnet man diese Werte entsprechend um, so dürften 2050 noch maximal 2.600 PJ Energie aus Erdgas gewonnen werden. Erdgas wäre die einzige noch sinnvoll nutzbare Quelle, denn Kohle und Erdöl kämen wegen ihrer deutlich schlechteren CO2-Bilanz nicht infrage, Bild 6. Verglichen mit dem heutigen Gesamt-Energiebedarf der Nation müssten also zusätzliche 9.040 PJ bzw. 2.510 TWh allein durch Strom aus „sauberer EE-Erzeugung“ zur Verfügung gestellt werden, um auch nur den aktuellen Stand der Energieversorgung aufrechtzuerhalten. Hierfür kämen ausschließlich zwei Technologien infrage: Wind und Fotovoltaik. Alle anderen „EE“-Technologien sind faktisch bereits ausgereizt und können keine wesentlich höheren Beiträge als bisher liefern. Zusammen haben Wind und FV 2015 insgesamt 124,5 TWh Strom geliefert. Um auch noch den Rest zu erzeugen, müsste ihre Kapazität demnach um den Faktor 20 gesteigert werden. Da uns die „Energiewende“ bisher bereits mehr als eine halbe Billion € gekostet hat, kämen demnach Kosten von mehr als 10 Billionen € auf uns zu, nur um unseren heutigen Status im Bereich der Energieversorgung zu erhalten. Und das noch ohne Berücksichtigung der zusätzlich erforderlichen Investitionen in Infrastruktur.


Bild 6. Im Vergleich zu anderen fossilen Rohstoffen weist Erdgas die geringsten CO2-Emissionen auf (Grafik: [VDS])

 

Der „vergessene“ Strombedarf

Noch grotesker werden die Vorstellungen der Politik, wenn man sich ansieht, welcher zusätzliche Strombedarf allein schon durch die Umstellung einiger wichtiger Bereiche wie Verkehr und Heizung in Zukunft entstehen würde. Während die Politik und die „grünlinken“ Lobbyverbände und Thinktanks von einer Verringerung der Stromproduktion fabulieren, sähe die Realität ganz anders aus. Allein die Umstellung des PKW-Verkehrs auf E-Mobile würde einen zusätzlichen Strombedarf von mindestens 135 TWh bedingen, das sind gut 20 % der derzeitigen Jahresproduktion von 647 TWh [AGE2]. Hinzu kommt der gewerbliche Verkehr, denn man müsste ja auch LKW, Busse und evtl. Schiffe auf E-Antriebe umstellen. Hierfür müssten jährlich weitere 64 TWh Strom bereitgestellt werden. Vom Flugverkehr wollen wir in diesem Zusammenhang gar nicht erst reden.

Der eigentliche 400-Pfund-Gorilla des künftigen Stromverbrauchs lauert aber in den Bereichen Heizung, Warmwasser und industrieller Prozesswärme. Will man diese CO2-frei gestalten, so muss man von Gas oder Öl auf Elektrizität umstellen. Insgesamt benötigte Deutschland im Jahre 2015 866 Terawattstunden (TWh) an Erdgas [AGEB]. Hiervon wurden 384 TWh in Haushalten und Kleingewerben eingesetzt, 360 TWh in der Industrie und 110 TWh in Kraftwerken und Heizanlagen [AGEB]. Durch Strom ersetzbar sind etwa 66 % des Anteils der Haushalte. (Der Einsatz von Wärmepumpen ist nur im Bereich von Niedertemperaturanwendungen wie Heizung und Warmwasser sinnvoll). Der Energiebedarf einer Wärmepumpenheizung liegt bei rund 1/3 dessen, den die bisherige Heizung benötigte [FAWA]. Der zusätzliche Bedarf an elektrischer Energie für die Wärmepumpen kann in etwa auf jährlich rund 200 TWh geschätzt werden (Erdgas und Erdöl zusammen). Bei den industriellen Anwendungen lassen sich wegen des meist deutlich höheren Temperaturniveaus grob geschätzt nicht mehr als 20 % einsparen, so dass hier wiederum ein zusätzlicher jährlicher Strombedarf von 290 TWh erforderlich wäre. Noch außen vorgelassen wurden bei dieser Betrachtung das leichte Heizöl in der Industrie sowie der Einsatz von Kohle bzw. Koks in der Stahlerzeugung.

Zählt man diesen zusätzlichen Strombedarf einmal zusammen, so landet man bei insgesamt 690 TWh/ a. Zusammen mit den bereits jetzt erzeugten 647 TWh/a müsste unser Kraftwerkspark daher 2050 insgesamt 1.340 TWh bereitstellen, das sind über200 % mehr als heute. Die Differenz zu den „offiziös“ verbreiteten Planzahlen ist auf gut Deutsch erschreckend.

 

Großangriff auf die Hausbesitzer

Hinzu kommt die Frage, welche Kosten denn zusätzlich noch auf unsere Bevölkerung zukämen, beispielsweise durch die Umstellung der Heizsysteme. Wie Bild 7 zeigt, haben unsere Häuslebauer in den letzten Jahren in erster Linie auf Erdgas- und daneben auf Erdölheizungen gesetzt.


Bild 7. Bei den Heizungen dominieren mit deutlichem Abstand Erdgas und Erdöl (Grafik: [AGEV]) 

Der Einsatz von Fernwärme dürfte wegen des gesetzlichen Drucks zur Reduzierung von CO2-Emissionen in den nächsten Jahren drastisch zurückgehen. Fernwärme- und Heizkraftwerke funktionieren nur mit Verbrennungsprozessen, und die Ressourcen an Pellets und Biomasse sind bereits heute nahezu ausgereizt. Man mag sich gar nicht vorstellen, was es bedeutet, wenn der Staat darangeht, die Besitzer von rund 29 Mio. bestens funktionierender und teils sogar hochmoderner Heizungsanlagen (19 Mio. Erdgas-, 10 Mio. Ölheizungen, Zahlen nach [AGEV]) zu zwingen, für schätzungsweise kumulierte 700-750 Mrd. € auf elektrisch betriebene Wärmepumpensysteme umzustellen [HEIZ, HEI2]. Hinzu kommen noch weitere staatlich verordnete „energetische Sanierungsmaßnahmen“. Wenn dann auch noch die Zinsen anziehen, dürfte so mancher Häuslebauer aufgeben müssen. Industriebetriebe dürften in Scharen abwandern. Auf Deutschland werden wohl noch sehr „interessante Zeiten“ zukommen.

Fred F. Mueller

 

Quellen

[AGEB] Energieverbrauch in Deutschland im Jahr 2015. ageb_jahresbericht2015_20160317_final

[AGE2] http://www.ag-energiebilanzen.de/index.php?article_id=29&fileName=20160128_brd_stromerzeugung1990-2015.pdf

[AGEV] Energieverbrauch in Deutschland. Daten für das 1.- 4. Quartal 2015. Arbeitsgemeinschaft Energiebilanzen e.V.

[BPB] http://www.bpb.de/politik/grundfragen/deutsche-verhaeltnisse-eine-sozialkunde/138003/historischer-rueckblick?p=all

[BURN] http://www.welt.de/politik/deutschland/article122939590/Die-Frau-die-bei-der-CDU-Burning-Barbara-heisst.html

[CDIA] http://cdiac.ornl.gov/trends/emis/meth_reg.html

[EWBE] Senatsverwaltung für Stadtentwicklung und Umwelt. Entwurf eines Gesetzes zur Umsetzung der Energiewende und zur Förderung des Klimaschutzes in Berlin (Berliner Energiewendegesetz – EWG Bln)

[EWB2] http://www.berliner-e-agentur.de/news/land-berlin-beschliesst-energiewendegesetz

[HEIZ] http://www.heizsparer.de/heizung/heizungssysteme/heizungsvergleich/heizungsvergleich-einfamilienhaus

[HEI2] http://www.co2-emissionen-vergleichen.de/Heizungsvergleich/CO2-Vergleich-Heizung.html

[KLNB] http://www.stadtentwicklung.berlin.de/umwelt/klimaschutz/studie_klimaneutrales_berlin/

[EIKE] http://www.eike-klima-energie.eu/news-cache/klimaschutzplan-2050-morgenthauplan-20/

[ELHI] http://www.eike-klima-energie.eu/energie-anzeige/100-ee-millionengrab-el-hierro-windenergie-unreif-fuer-die-insel/

[IVAN] http://www.eike-klima-energie.eu/news-cache/ivanpah-das-groesste-us-solarprojekt-koennte-gezwungen-werden-abzuschalten/

[LEBE] http://www.lebenserwartung.info/index-Dateien/ledeu.htm

[STAT] http://de.statista.com/statistik/daten/studie/2275/umfrage/hoehe-der-co2-emissionen-in-deutschland-seit-1990/

[STA2] http://de.statista.com/statistik/daten/studie/182020/umfrage/prognose-zur-bruttostromerzeugung-in-deutschland-bis-2050/

[TASM] http://www.eike-klima-energie.eu/news-cache/inseln-sind-mit-dem-versuch-gescheitert-sich-zu-100-mit-gruener-energie-zu-versorgen-und-kehrten-zurueck-zu-diesel/

[VDS] http://www.erdgas.ch/erdgas/umwelt/emissionswerte/

 




Beim „Klimaschutz“ wird die Freiheit der Wissenschaft an den Universitäten missachtet.

Sehr geehrter Herr Limburg, 

ich habe das Interview mit Ihnen zu Ihrem Promotionsvorhaben gelesen. Das Verhalten der Universität Leipzig ist in der Tat skandalös, würde an anderen Universitäten jedoch ähnlich ablaufen. Die von Ihnen beschriebene kritiklose Einheitsmeinung zahlreicher Wissenschaftler und Fakultäten und den Versuch, jeglichen Kritiker mundtot zu machen, kann ich aus meiner Erfahrung an der Universität XYZ leider bestätigen. In meiner Fachgruppe ist unter den Kollegen das Thema "CO2 bedingter Klimawandel" ein Axiom, über das jegliche Diskussion abgeblockt wird und bei der ein Ausscheren aus der Einheitsmeinung die vollständige Marginalisierung zur Folge hat. Da ich aus geologischer Sicht keine unterstützende Argumente für die von den Kollegen (unter denen freilich wenige Meteorologe sind, der Rest eine bunte Mischung von Geowissenschaftlern, die alle beim Thema Klimawandel aber keine Zweifel haben) vertretene Einheitsmeinung habe, sondern aus der Erdgeschichte eher widersprechende Sachverhalte kenne, werde ich bei der Kommissionsauswahl für Promotionen und Berufungen vollständig übergangen.

Dass der Versuch der Gleichschaltung der Meinungen derart gut funktioniert, liegt vor allem an dem Dressurakt, der bei der Bewilligung von Drittmitteln ausgeübt wird: fehlt in DFG-Projekten der obligatorische Hinweis auf Klimawandel und das entsprechende Glaubensbekenntnis, dann ist der Antrag chancenlos. Ich stelle daher seit Jahren keine DFG-Anträge mehr. Wir leben ganz offensichtlich in einer Phase der „Normalwissenschaft“, wie Thomas Kuhn dies bezeichnet, in der Ergebnisse schon vor der Forschung feststehen. Forschung zum Thema Klimawandel ist gewissermassen zum „cargo-cult“ geworden, bei dem bislang die Geldmittel noch reichlich fliessen. Mich tröstet der Umstand, dass der Paradigmenwechsel irgendwann stattfinden wird. 

Beste Grüsse,

Ihr XYZ

Geologe




CO2 Lebensspender und Rohstofflieferant statt Klimakiller

Modell Erderwärmung

Die offizielle Klimapolitik will die anthropogenen CO2-Emissionen verringern, damit die Erde für uns Menschen bewohnbar bleibt. Dass diese Emissionen die Erderwärmung verursachen, ist zwar nicht be­wiesen, soll sich aber aus Klimasimulationsmodellen ergeben. Wie hat sich das Modell vom menschen-gemach­ten Klimawandel entwickeln können?

Vom Umweltschutz zum Klimaschutz

Die 1972 auf der Umweltkonferenz von Stockholm definierte Verpflichtung zum Umwelt­schutz wurde in die Notwendigkeit zum Klimaschutz umfunk­tioniert – und nicht nur aus wirklicher Sorge um das Klima.

Es gibt inzwischen eine umfangreiche Literatur in der behandelt wird, wie das Modell von der menschen­gemachten Erderwärmung entstanden ist, und wie es weltweit so verbreitet wurde, dass Medien und Poli­tik unter Zuarbeitung eines Teiles der Wissenschaft dieses Modell zu einem beherrschenden Zeitgeist entwickeln konnten. In diesem Kurzbericht können zur Begründung dieser Beurteilung nur einige Zitate von Helmut Bachmann [1] und Zbigniew Jaworowski [2] erwähnt werden. 

Aus [1]:   Die Idee, dass aus Deutschland stammende Wort Klimakatastrophe zu kommerzialisieren wurde 1986 in den USA geboren. Eine sich nähernde Katastrophe erzeugt Angst………. Um Ängste zu beseitigen, sind Menschen bereit alles zu tun. Dies war den Erfindern der Idee bekannt, das Wort Klimakatastrophe zu kommerzialisieren und zu einem lange andauernden Geschäft zu entwickeln. Um ein weltweites Geschäft mit der Angst aufzubauen, wurde eine Organisation benötigt. Dies wurde das IPCC“.

Aus [1]:  Prof. Dr. H. Stephen Schneider (Lead Author in Working Group of the IPCC) sagte 1989: „Deshalb müssen wir Schrecken einjagende Szenarien ankündigen, vereinfachende dramatische Sta­tements machen und wenig Erwähnung irgendwelcher Zweifel, die wir haben mögen, entlassen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und keine Zweifel am Gesagten. Je­der von uns Forschern muss entscheiden wie weit er eher ehrlich oder effektiv sein will.“

Aus [2]:  Mau­rice Strong, der Pate der modernen Umweltschutzbewegung und früherer Chefberater von UN-Ge­neralsekretär Kofi Annan hat offen von einer Verschwörungstheorie gesprochen. Strong war 1972 Generalsekretär der UN-Umweltkonferenz in Stockholm, auf der die weltweite Umweltbe­wegung begründet wurde, und er hat eine zentrale Rolle bei der Globalisierung ge­spielt. 20 Jahre spä­ter war Strong Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, wo auf sein Betreiben die Grund­lage für das Kioto-Protokoll gelegt wurde.  In einem Interview hat Strong  seine Denkweise offengelegt: „Was wäre, wenn eine kleine Gruppe von Weltführern zu dem Schluss kommen sollte, dass die Haupt­gefahr für die Erde von dem Ver­halten der reichen Länder ausginge? Und wenn die Welt überleben soll, müssten die reichen Länder ein Abkommen unter­zeichnen, um ihre eigene Umweltbelastung zu redu­zieren.  Wer­den sie dem zustimmen? Die Gruppe kommt zu dem Schluss: Nein! Die reichen Län­der wer­den nicht zustimmen. Sie wollen sich nicht verändern. Um den Planeten zu retten, beschließt die Gruppe: Besteht nicht die einzige Hoffnung für den Planeten darin, dass die industriali­sierten Zi­vilisationen kollabieren? Ist es nicht unsere Verantwortung, das zu bewir­ken? Die Gruppe von Welt­führern bildet eine Geheim­gesellschaft, um einen Wirtschaftszu­sammen­bruch herbeizuführen“. (Wood 1990)

Aus [1]:  Als das IPCC fertig konstruiert war, wurden alle entwickelten Staaten zu einem ‚Klima-Meeting’ durch die UNO nach Kyoto eingeladen. Dort wurde die menschengemachte  „Weltklima-                               katastrophe verkündet“.

Aus [2]:  Die Klimafrage wurde auch zu einer moralischen Frage. Gro Harlem Brundtland, die Sonderbeauftragte des UN-Generalsekretär für Klimawandel, sagte 2007 vor der UN Generalver­sammlung: „Es ist unverantwortlich, rücksichtslos und zutiefst unmoralisch, die Schwere der realen Gefahr des Klimawandels in Frage zu stellen.“!

Anthropogene Erderwärmung als Pseudoreligion

Das Modell eines anthropogenen Klimawandels infolge unserer CO2-Emissionen wurde weltweit von Medien und Politik einschließlich UNO und nachgeordneten Dienststellen so propagiert, dass seine Rich­tigkeit nicht mehr bezweifelt sondern allgemein anerkannt wird. Das gilt auch für Teile der Fachwissen­schaft, denn die dem IPCC gestellte Aufgabe lautete: „…..die weltweit vorgelegte wissenschaftliche ……..Literatur zu sichten, die für das Verständnis des Risikos eines vom Menschen herbeigeführten Kli­mawandels ……. bedeutsam ist.“  D.h. es war zu untersuchen, wie dieser Klimawandel wirkt, nicht je­doch, ob es ihn überhaupt gibt. Auch in Deutschland wird diese einseitige Beurteilung praktiziert, wie folgendes Beispiel demonstriert: Ulrich Berner und Hans-Jörg Streif  haben als Heraus­geber für die Bun­desanstalt für Geowissenschaften und Roh­stoffe (BGR),  das Niedersächsische Landesamt für Bodenfor­schung (NLfB) und das Institut für Geowissenschaftliche Gemeinschaftsaufgaben  (GGA), in dem Buch „Klimafakten, der Rückblick – ein Schlüs­sel für die Zukunft“ die Klimaent­wicklung von der geologischen Vergangenheit bis zur Gegenwart wis­senschaftlich analysiert. Sie haben an Hand der Fakten bewiesen, dass die angeblich von uns Men­schen verursachte Erderwärmung infolge unserer CO2-Emissionen nicht stattfindet. Diese amtlichen For­schungsergebnisse blieben unberücksichtigt. Und es ist weiterhin das Ziel der offiziellen Klimapolitik, unsere Emissionen von CO2 zu reduzieren, weil sonst unser Fortbestand ge­fährdet wäre.

Klimawandel !  Statt Computersimulationen, was wurde gemessen?

Die Umlaufbahn der Erde um die Sonne ändert sich und auch die Wärmestrahlung der Sonne ist nicht konstant. Deshalb kann das Klima der Erde nicht konstant sein, sondern ändert sich ebenso. Beispiels­weise bewirken die kurzperiodischen Sonnenfleckenzyklen im Rhythmus von Jahrzehnten wechselnde Abkühlungs- und Erwärmungsphasen, während langfristige Zyklen Eiszeiten verursachen. Klima­wandel sind folglich eine irdische Normalität. 

Bald nach der Erfindung des Thermometers wurde mit regelmäßi­gen Messungen begonnen, in England ab 1659, auf dem Kontinent ab 1700. Die Messwerte werden gra­phisch als ‚Ganglinie’ aufgetragen, so dass man die zeitliche Entwicklung der Temperatur leicht erkennt, und ebenso die kurzzeitigen Wechsel von Erwärmungs- und Abkühlungsphasen, wie das Beispiel der Station De Bilt  illustriert.

Zwischen 1706 und 2008 (=302 Jahre) hat diese Station insgesamt eine Erwärmung von 0,0047°C/a´302 = 1,42°C erfahren. Sie wurde durch die Rück-Erwärmung nach der Kleinen Eiszeit verursacht, die in den 63 Jahren zwischen 1805 und 1868 einen Anstieg von 0,0677°C/a erreicht hat, insgesamt also 4,27°C. Danach haben sich zwei Kalt- und zwei Warmphasen abgewechselt, wobei insgesamt eine leichte Ab­kühlung überwog, denn wärmer ist es bis 2008 nicht mehr geworden – trotz der um 1950 beginnenden verstärkten anthropo­genen CO2-Emissionen.

Die De-Bilt-Ganglinie zeigt auch, dass für eine sachgerechte Beurteilung der Klimaentwicklung keine kurzen Zeiträume zugrunde gelegt werden dürfen, denn sie können kein repräsentatives Bild ergeben. Wie der folgende Vergleich von vier Ganglinien sehr ungleicher Dauer demonstriert, sind die naturbe­ding­ten Wechsel von Erwärmungs- und Abkühlungsphasen erst bei einer Beobachtungszeit von einigen Jahr­zehnten zu erkennen:

1.) Ganglinie für 9000 Jahre: 4 größere Wechsel, dazwischen viele mittlere Wechsel

2.) Ganglinie für 1100 Jahre: Rückerwärmung nach Kleiner Eiszeit mit 4 mittleren Wechseln

3.) Ganglinie für 130 Jahre: zwischen 1880 und 2010 Wechsel von 4 Kaltphasen und 3 Warmphasen

4.) Daten für 33 Jahre von UAH MSU, RSS MSU, GISS, .NCDC, HadCRUT3: leichte Erwärmung                      

      bis 1909, danach leichte Abkühlung

Fazit: Warmphasen vor den CO2-Emissionen, Kaltphasen trotz der Emissionen; kein Einfluss der CO2-Emissionen erkennbar. 

CO2-Verbrauch

In der Ur-Atmosphäre hatte CO2 am Luftgemisch der Atmosphäre einen Anteil von ca. 10%, heute ist es nur noch mit 0,04% (= 400 ppm) beteiligt. Damit ist es zum Spurengas ge­worden. Wo sind die fehlenden 99,96% geblieben? Und nicht nur die, denn schon immer haben zusätzlich Vulkane und untermeerische Schlote CO2 gefördert; auch diese Mengen sind verschwunden. Beispielsweise emittiert der Ätna z.Zt. 35.000 t  täglich.

Die Natur hat CO2 sowohl für die Photosynthese der Pflanzen und damit als Baustoff der Biomasse als auch für die Bildung der anorganischen Sedimente gebraucht. Das CO2 wurde in der Kohle, im Erdöl und im Erdgas gebunden. Es diente außerdem als Rohstoff für die Herstellung von Se­dimentengesteinen, bei­spielsweise Kalkstein. Bei der Bildung von Kalkstein wurden sogar zwei Wege beschritten: Viele in den Ozeanen lebende Tierarten brauchten das CO2 zum Aufbau ihrer Körper und ihrer Skelette, und außerdem vereinigte sich das im Wasser gelöste CO2 mit dem im Wasser gelösten Kalzium zu Kalziumkarbonat. Wegen seiner geringen Löslichkeit sedimentierte es und wurde später zum Kalkstein. Die Natur hat also Sedimentgesteine und fossile Brennstoffe aus CO2 hergestellt, das damit dem CO2-Kreislauf entzogen wurde.

Mit der Bildung der Naturprodukte ging fast alles CO2 dem irdischen Kreislauf verloren – bis auf den kleinen Rest von gegenwärtig 0,04% als Anteil an der Atmosphäre, sowie dem Anteil, der im Wasser der Ozeane gelöst ist. Dieser Verbrauch ist immer noch wirksam und setzt sich fort, was zum Problem der Biosphäre werden kann: die Pflanzen brauchen zum Wachstum mindestens 150 ppm, wie die folgende TRCS–Grafik zeigt [3]. Beim Unterschreiten des Minimums können sich die Pflanzen nicht mehr ernäh­ren und der Tierwelt fehlt das Futter. Diese Entwicklung würde die Biosphäre negativ verändern.

Folgerungen

Der für die Bildung der Biomasse und der Sedimente benötigte naturbedingte Verbrauch des CO2 wird sich fortsetzen. Deshalb besteht die Gefahr, dass das für das Wachstum der Pflanzen erforderliche CO2-Minimum erreicht und unterschritten wird.  

Es ist gesicherte Tatsache, dass der CO2-Gehalt der Atmo­sphäre in der geologischen Vergangenheit sehr viel größer war als heute. Dies hat der Biosphäre nicht geschadet sondern genutzt, aber auch Eiszeiten mit ausgedehnten Vergletscherungen nicht verhindert.

Aus den Fakten ist zu folgern, dass die von der offiziellen Klimapolitik ge­forderte Be­grenzung der CO2-Emissio­nen kontrapro­duktiv ist. 

[1]  Helmut Bachmann: Interview in der Züricher Weltwoche vom 01.07.2009 

[2]  Zbigniew Jaworowski: „Nicht der Mensch, sondern die Sonne bestimmt unser Klima“, Fusion, H.1, 2010, S. 24-44

[3]  TRCS:  Hal Doiron, presentation on ICCC10 (Panel 13: “The Right Climate Stuff”)                                     

       ICCC10:  International Conference on Climate Change #10 in Washington DC, June 11-12, 2015 




US-Justizministerin will Klimaskepsis unter Strafe stellen

Der politische Wind wird härter. Bei uns, aber auch in den USA. Die Sprüche, mit denen der Anwärter auf die Präsidentschaftskandidatur der Republikaner, Donald Trump, derzeit die Medien der Welt unterhält, sind bisweilen nur schwer zu ertragen. Andererseits sitzen in der demokratisch geführten Regierung Obama offenbar auch Politiker, die eben mal die Verfassung aushebeln und das Recht auf freie Meinungsäußerung dort in Frage stellen wollen, wo es ihnen nicht passt, gerade so als wären sie Patenkinder von Recep Erdogan.

Justizministerin Loretta Lynch, ausgerechnet, hat jetzt vor dem Justizausschuss des Senats bekannt gegeben, dass sie in ihrem Haus eine denkwürdige Prüfung in Gang gebracht hat. Sie will allen Ernstes feststellen lassen, inwieweit es möglich ist, Personen, die den menschengemachten Klimawandel in Frage stellen, strafrechtlich zu verfolgen.

Ganzen Artikel lesen auf DONNER und Doria von Ulli Kulke

Anmerkung der Redaktion

Nach der Veröffentlichung des AfD Programmentwurfes herrscht blankes Entsetzen bei manchen "Klimaforschern". Z.B. bei Hans-Joachim Schellnhuber vom PIK, wie man hier sehen und hören kann. Da wird sofort mit dem Weltuntergang (zum Glück erst lange nach dem Ableben der heutigen Protagonisten) gedroht, wenn man statt den Modellen der Realität vertraue.

Es wird daher wohl nur eine Frage der Zeit sein, bis die AfD deshalb verboten wird. Zu hoch sind die Gewinne, die sich aus dem "Klimaschutz" ziehen lassen.




Fukushima-Evakuierung ohne Nutzen

Die Studie ergab, dass der Nutzen der Evakuierung sehr gering war. Als theoretisch gewonnene Lebenszeit wurden Werte zwischen einem und 21 Tagen ermittelt. Das ist viel zu wenig, um die körperliche, soziale und psychische Belastung durch die Evakuierung auch nur annähernd zu rechtfertigen — insbesondere bei den älteren Menschen, von denen viele früher gestorben sind, als zu erwarten gewesen wäre, hätte man sie weiter in ihren Heimatorten leben lassen. Auch die 1500 Patienten, die aus Krankenhäusern evakuiert wurden, waren besonders hart betroffen. Mindestens 21 ältere Patienten starben schon beim Transport an Unterkühlung oder Dehydrierung.

Auch in Hinblick auf die Katastrophe in Tschernobyl vor 30 Jahren kommt die Studie zu dem Schluss, dass nur bei 31.000 der damals 336.000 Evakuierten die Umsiedlung rational war, weil sie durch die erhöhte Strahlung statistisch mit einem um über 8 Monate verkürzten Leben hätten rechnen müssen.

Nach Angaben der Forscher verlieren Bewohner Londons durch die Luftverschmutzung im Durchschnitt 4,5 Monate ihres Lebens, also mindestens sechs Mal mehr als die Menschen in der Präfektur Fukushima. Eine Forderung, London zu evakuieren, wäre dennoch ziemlich absurd. Auch beim regelmäßigen Feinstaubalarm in Stuttgart hört man von deutschen Atomkraftgegnern niemals den Ruf nach einer Evakuierung der Stadt.

Keine ungewöhnliche Strahlenbelastung

Die Umsiedlungen in Japan kamen nicht von ungefähr. Die Gefährdung durch Radioaktivität wird gemeinhin erheblich überschätzt. Radioaktivität ist krebserregend. Aber wie wir wissen, sind auch viele andere Dinge krebserregend, etwa Alkohol, Wurst, Feinstaub, usw. Es kommt immer darauf an, wieviel man davon abbekommt. Genauso wie wir unbesorgt ein Wurstbrot essen können, brauchen wir uns bei einem gewissen Maß an Strahlung keine Sorgen zu machen. Und auch bei hoher Strahlenbelastung haben wir noch gute Chancen, unbeschadet davonzukommen. Die Strahlenwirkung ist inzwischen sehr gut erforscht. Insbesondere nach den Atombombenabwürfen auf Hiroshima und Nagasaki wurde über Jahrzehnte sehr genau untersucht, wie sich die Strahlung auf das Krebsrisiko auswirkt.

Selbst die Detonation einer Atombombe führt bei den Überlebenden nur zu einem geringen Anstieg des Krebsrisikos aufgrund der Strahlenbelastung. Nach Angaben des Bundesamts für Strahlenschutz wurden bis Ende 2007 in der Gruppe der 105.000 Überlebenden in Hiroshima und Nagasaki rund 850 zusätzliche, durch Strahlung verursachte Erkrankungen an soliden Tumoren beobachtet. Hinzu kommen etwa 85 Leukämietodesfälle. Insgesamt hat also bei weniger als einem Prozent der Betroffenen die Strahlenbelastung (meist einige Jahrzehnte später) zu einer Krebserkrankung geführt. Zum Vergleich: Rund 25 Prozent der Bevölkerung erkrankt irgendwann im Leben aus anderen Gründen an Krebs. Wichtig ist aber auch, dass sich bis zu einem gewissen Strahlungswert überhaupt keine Auswirkungen auf das Krebsrisiko zeigten. Es wurden Betroffene mit Belastungen zwischen Null und über 2000 Millisievert (mSv) erfasst. Dabei ergab sich für solide Tumoren in der Gruppe bis 100 mSv und bei Leukämien in der Gruppe bis 200 mSv kein statistisch signifikanter Anstieg. Der größte Anstieg ergab sich erwartungsgemäß bei der sehr kleinen Personengruppe mit extrem hoher Belastung von über 2000 mSv. Hier starben von 905 Betroffenen 20 an Leukämie.

Von solchen Dosen ist die Präfektur Fukushima weit entfernt. An den beiden am stärksten betroffenen Orten lag die Dosis im ersten Jahr laut WHO bei zwölf bis 25 mSv. Auch in Deutschland treten je nach Wohnort und Lebensstil Werte bis zehn mSv auf. Bei Arbeitern, die 2013 mit Sondergenehmigung in Iitate, einem der am stärksten belasteten Orte, arbeiteten und sich an fünf Tagen in der Woche jeweils zehn Stunden dort aufhielten wurden eine jährliche Dosis von durchschnittlich 1,73 und max. 3,6 mSv inklusive natürlicher Strahlung ermittelt. Das ist deutlich weniger als viele Menschen im Zuge von medizinischen Untersuchungen wie der Computertomographie erhalten. Eine Studie in den USAan knapp einer Million Menschen hat ergeben, dass 1,86 Prozent der Versicherten jährlich einer Strahlenwirkung von mehr als 20 mSv und 0,19 Prozent sogar mehr als 50 mSv durch medizinische Diagnostik ausgesetzt waren. Hochgerechnet ergibt sich, dass etwa vier Millionen Amerikaner jährlich mit mehr als 20 mSv belastet sind – jenem Wert, der in Japan als Grenzwert für die Evakuierung genommen wurde.

Wenn Aktivisten mit Geigerzählern rumlaufen

Vergleichsmessungen bei 216 Schülern in der Präfektur Fukushima (außerhalb der Evakuierungszone) an anderen Orten in Japan, Frankreich, Polen und Weißrussland, die im Jahr 2014 zwei Wochen lang ein Dosimeter trugen, ergaben 0,63 bis 0,97 mSv in Fukushima und 0,51 bis 1,10 mSv in den europäischen Orten. Das zeigt, wie lächerlich es ist, wenn irgendwelche Aktivisten europäischer NGOs in Japan mit Geigerzählern herumlaufen, um in irgendwelchen Ecken „erhöhte Strahlung“ aufzustöbern.

Auch die natürliche Hintergrundstrahlung, der Menschen an ihrem jeweiligen Wohnort ausgesetzt sind, ist sehr unterschiedlich. Im globalen Durchschnitt sind es 2,5 Millisievert pro Jahr. Es gibt aber auch Orte, wo es bis zu 260 mSv sind, die Strahlenbelastung also zehn bis 20 Mal so hoch ist wie in der Evakuierungszone um Fukushima. Ein erhöhtes Krebsrisiko konnte jedoch bisher auch dort nicht festgestellt werden. Insgesamt gibt es nach wie vor keine klaren Hinweise darauf, dass Belastungen unter 100 bis 200 mSv sich negativ auf die Gesundheit auswirken. Für Werte unter 100 mSv wird sogar eine positive Wirkung diskutiert. Eine umfassende Auswertung von Studien zur Wirkung niedrig dosierter Radioaktivität haben kürzlich koreanische Forscher vorgestellt.

Die „Atomkatastrophe“ von Fukushima hatte somit keinerlei negative Folgen für die Gesundheit der Bevölkerung, die Schutzmaßnahmen allerdings schon.

Thilo Spahl ist Diplom-Psychologe und lebt in Berlin. Er ist freier Wissenschaftsautor, Mitgründer des Freiblickinstituts und Novo-Argumente-Redakteur, wo dieser Beitrag zuerst veröffentlicht wurde.