Internationale Klimakonferenz am 15.6.12 in Berlin

Da jedoch mit der Fortsetzung der bisherigen Klimapolitik zu rechnen ist, laden wir Sie für den 15. Juni 2012 nach Berlin ein, um sich über die tatsächliche Bedrohungen durch CO2, den Klimawandel und der Klimapolitik zu informieren. Darüberhinaus wird erklärt, wie es zum heutigen Ökologismus kam und welche Industrien, Forscher und Berufsgruppen hier eine treibende Rolle gespielt haben. 
Anmeldung hier oder rechts auf das Banner "Internationale Klimakonferenz" drücken.

Programm 

Internationale Konferenz über Klimapolitik im Zeitalter der Nachhaltigkeit

Tryp Hotel Berlin, 15. Juni 2012
Registrierung der Teilnehmer
Tryp Hotel Berlin, Chausseestr. 33, 10115 Berlin (Mitte)
9.00 Uhr
Begrüßung
Wolfgang Müller
Geschäftsführer Berlin Manhattan Institut für Unternehmerische Freiheit
9.15 Uhr
Fakten-Check 2012 – Global-Temperatur, Meeresspiegel, Extremwetter, Gletscher und Polareis
Klaus Eckehard Puls
Dipl. Meteorologe, ehemaliger Leiter der Wetterämter Essen und Leipzig
9.45 Uhr
Wasser und CO2 verstehen – Physikochemische Eigenschaften der Erdoberflächenkomponenten
Dr. Gerhard Stehlik
Physikochemiker
10.45 Uhr Kaffeepause
11.15 Uhr
Aufgewärmter Malthusianismus: Von der Bevölkerungsbombe zur Kohlenstoff-Rationierung
Edgar Gärtner
Hydrobiologe, Wissenschaftsjournalist, Autor „Öko-Nihilismus“ (2007/2012)
12.15 Uhr
Fakten statt Emotionen – Klimapolitik ohne Katastrophe
Dr. Wolfgang Thüne
Ehemaliger Wettermoderator des ZDF und Autor
13.15 Uhr Gemeinsames Mittagessen
14.30 Uhr
Klimapolitik: Der späte Sieg der zentralen Planwirtschaft
Günter Ederer
Journalist, Filmproduzent, Buchautor, ehemaliger ZDF Auslandskorrespondent
16.00 Uhr Kaffeepause
16.30 Uhr
Wie die Wissenschaft ihre Unschuld verlor und ein Diener der Politik wurde
Dr. Sonja A. Boehmer-Christiansen
University of Hull (em.), Herausgeber “Energy and Environment”, Großbritannien
18.00 Uhr
Zahlen vs. Gefühl: CO2, Klima und der Mensch – Wer und was spielt welche Rolle
PD Dr. Dr. Eckhard Schulze
Dipl. Phys., Med. Physik, Tierärztliche Hochschule Hannover
19.00 Uhr
Schlussworte
Dr. Holger Thuss
Präsident EIKE
Anschließend Sektempfang
Die Veranstalter behalten sich das Recht auf kurzfristige Programmänderung vor.
Veranstaltet von: Europäische Institut für Klima und Energie (EIKE), Berlin Manhattan Institut (BMI), Haus der Zukunft Berlin – Internationales Institut für Deutschland- und Europapolitische Bildungsarbeit 




Textilfirmen verweigern Ökostrom-Umlage

Drei deutsche Textilunternehmen halten die Ökostrom-Umlage für verfassungswidrig und verweigern die weitere Zahlung. Nun warten sie auf Klagen der Stromversorger, wie der Gesamtverband der Textil- und Modeindustrie am Mittwoch mitteilte. „Wir sind bereit zu kämpfen und die Sache notfalls bis vor das Bundesverfassungsgericht in Karlsruhe zu bringen“, sagte Bernd Drechsel, Geschäftsführer der Textilveredelung Drechsel im oberfränkischen Selb. Er habe bereits die erste Mahnung seines Stromversorgers erhalten.
Weitere Details dazu finden Sie im Handelsblatt
Mit Dank an Spürnase A. Bauer




Kampagnenwissenschaft vom MPI aus Mainz: Alle zehn bis zwanzig Jahre ein Gau

Ein nuklearer GAU soll nach Studien der Mainzer Chemiker “im momentanen Kraftwerksbestand etwa einmal in 10 bis 20 Jahren auftreten können”. Er wäre damit 200mal wahrscheinlicher als Schätzungen der amerikanischen Zulassungskommission für Kernreaktoren (NRC) im Jahr 1990 ergeben haben. Die Einschätzung der NRC beruht auf recht komplexen Risikobetrachtungen; den Mainzern reicht eine einfache Rechnung, um die Wahrscheinlichkeit einer Kernschmelze zu ermitteln: Sie teilten laut Presseerklärung die Laufzeit aller Kernreaktoren weltweit von der Inbetriebnahme des ersten zivilen Reaktors bis heute durch die Zahl der bisherigen Kernschmelzen. Also Laufzeit bislang 14.500 Jahre, Zahl der Kernschmelzen vier – eine in Tschernobyl und drei in Fukushima. Ergebnis, konservativ aufgerundet: alle 5000 Reaktorjahre ein schwerer nuklearer Unfall mit erheblicher Freisetzung von Radioaktivität. Das ergibt einen GAU alle 10 bis 20 Jahre.
Auf dieser einfachen Rechnung, die man sich gut im gymnasialen Leistungskurs Mathematik vorstellen kann, beruht die zentrale Aussage der Mainzer Studie über die Wahrscheinlichkeit von schweren Reaktorunfällen. Damit haben sich die Chemiker allerdings auf sehr dünnes Eis begeben. Die Zahlen stimmen, wie häufig in der Statistik. Aber gibt das, was Autoren der Studie aus diesen Zahlen machen, auch die Wirklichkeit wieder?
Nein. Man kann zum Beispiel nicht einfach den Reaktorunfall von Tschernobyl mit dem der Fukushima-Reaktoren gleichsetzen. Im Tschernobyl-Reaktor ist der Reaktorkern praktisch explodiert, nicht geschmolzen. Eine Sicherheitshülle gab es nicht, so dass bei der Explosion große Mengen an radioaktivem Material freigesetzt wurden. Vor allem aber der Tschernobyl-Reaktor nicht repräsentativ für den vorhandenen Reaktorbestand. Um Aussagen über die Zukunft dieses Bestandes zu treffen, wie es die Mainzer tun, ist die Nuklearkatastrophe von Tschernobyl damit ungeeignet.
Bleiben die drei Kernschmelzen im Kraftwerk Fukushima 1. Gleicher Reaktortyp, gleiche Unfallursache, ähnlicher Verlauf – es spricht vieles dafür, diese drei Ereignisse als ein Ereignis zu behandeln. Dann wird die Mainzer Rechnung absurd. Außerdem sind auch die Fukushima-Reaktoren nur bedingt repräsentativ für den weltweiten Reaktorbestand. Ausgelöst wurde das schwere Unglück im japanischen Kraftwerk durch ein extrem starkes Erdbeben, gefolgt von einem extrem starken Tsunami. Das Erdbeben haben die Reaktoren überstanden; die Flutwelle deshalb nicht, weil die Anlage eklatante Sicherheitsmängel aufwies. Inzwischen haben Stresstest belegt, dass andere Reaktoren diese Mängel nicht haben. Den deutschen Reaktoren zum Beispiel hätten Erdbeben und Tsunami wie im Norden Japans keinen nennenswerten Schaden zugefügt.
Solche und andere Unterschiede zwischen Reaktoren ignorieren die Mainzer Forscher. Sie begründen dieses Vorgehen damit, dass es “auch in einem vermeintlich sicheren Reaktor zu einer Kernschmelze kommen kann”, weil man nicht alle möglichen Ursachen eines solchen Unfalls vorhersehen könne. Das ist zweifellos richtig, aber die Annahme von Nichtwissen macht schlecht begründete Vorhersagen nicht verlässlicher. An einer detaillierten Risikoanalyse führt kein Weg vorbei.
Alles zusammengenommen, können seriöse Wissenschaftlicher die Aussage “Ein GAU all zehn bis zwanzig Jahre” guten Gewissens nicht treffen. Das sollte einer “Kampagnenwissenschaft” á la Greenpeace vorbehalten bleiben.

Die Sache mit der “radioaktiven Verseuchung”

Im Abstract zu ihrem Papier schreiben die Mainzer Chemiker zu Beginn: “Schwere Reaktorunfälle in Kernkraftwerken sind selten, aber ihre Folgen katastrophal. Aber was bedeutet ‘selten’”? Die Frage ist beantwortet, allerdings ungenügend. Viel interessanter ist die Frage: Was bedeutet ‘katastrophal’? Auch hier machen es sich die Mainzer Chemiker leicht. Sie sehen als katastrophale Folge einer Kernschmelze eine “weit über Staatsgrenzen hinweg [reichende] radioaktive Verseuchung”. In Westeuropa wären davon, so das Ergebnis ihrer Computersimulationen, durchschnittlich 28 Millionen Menschen betroffen.
Mit diesem Computermodell ermitteln die Forscher, wie sich die bei einer Kernschmelze freigesetzten radioaktiven Gase – in diesem Fall Cäsium-137 und Jod-131 – ausbreiten. Die Menge der freigesetzten Gase bestimmen die Mainzer Forscher anhand der Mengen, die beim Tschernobyl-Unglück freigesetzt wurden. Da radioaktives Jod aufgrund seiner geringen Halbwertszeit sehr schnell verschwindet, beschränkten sie sich auf die Verteilung von Cäsium-137. Ergebnis ihrer Simulation: nur acht Prozent der radioaktiven Gase würden sich im Umkreis von 50 km um die Unglückstelle verteilen; über die Hälfte ginge innerhalb von 1.000 Kilometern nieder, und etwa ein Viertel würde weiter als 2.000 Kilometer transportiert.
Mit diesen Angaben haben die Mainzer vom Computer eine Reihe schöner Karten herstellen lassen. Darauf lässt sich das Ausmaß der radioaktiven Verseuchung ablesen, wenn mal wieder eines der Kernkraftwerke in Europa oder anderswo havariert. “Im weltweiten Vergleich”, so fasste die Rheinzeitung am 23. Mai zusammen, “tragen die Einwohner im dicht besiedelten Südwestdeutschland das größte Risiko einer radioaktiven Verseuchung.” Und der Zeitungsautor bemerkt ganz richtig, dass dies Wasser auf die Mühlen der Atomkritiker sein dürfte, die im grenznahen französischen Atomkraftwerk Cattenom ein “gewaltiges Gefahrenpotential” sähen.
Doch die schönen Computerkarten können nicht darüber hinwegtäuschen, dass sich die Mainzer Forscher, wie schon bei der Vorhersage künftiger GAUs, auch hier auf brüchigen Eis bewegen. Allererster Kritikpunkt: Es geht nicht an, die vom Tschernobyl-Reaktor freigesetzten Strahlungsmengen als Richtschnur zu nehmen, um mögliche Freisetzungen anderer Reaktortypen zu berechnen. Unfallursachen und –verläufe sind nicht vergleichbar. Das ist keine theoretische Frage, sondern praktisch nachweisbar.
Bislang gab es vier Kernschmelzen in Reaktoren, die nicht vom Tschernobyl-Typ sind: drei im Kraftwerk Fukushima und eine im amerikanischen Kraftwerk Three-Mile-Island (TMI). Letztere haben die Mainzer in ihrer Rechnung nicht berücksichtigt, da dort nur minimale Strahlung freigesetzt wurde. Kann man machen, wenn man ein wichtiges Argument ignorieren möchte: Im Gegensatz zum Tschernobyl-Reaktor sind Reaktoren wie man sie in den USA, Deutschland oder Frankreich findet, so ausgelegt, dass selbst im Fall einer Kernschmelze kein oder nur wenig radioaktives Material austreten kann. Keine Theorie, sondern belegt durch den havarierten TMI-Rektor.
Aber in Fukushima, war es da nicht viel schlimmer? Ein berechtigter Einwand. Dort wurde große Mengen an radioaktiven Jod- und Cäsiumgas freigesetzt. Die Ursachen sind bekannt; bei richtiger Auslegung wäre das nicht passiert. Aber was dort real passierte, nicht theoretisch, nicht im Computer, ist dennoch weit von dem entfernt, was die Mainzer Forscher ihren Simulationen zugrundelegen. Nach Angaben der japanischen Aufsichtsbehörde NISA lag der Gesamtbetrag der Freisetzungen von Jod-131 und Cäsium-137 in der Größenordnung von etwa 10% der in Tschernobyl freigesetzten Menge. Eine jüngere Schätzung von TEPCO beläuft sich auf etwa 15%.
Diese, verglichen mit Tschernobyl geringe Menge, stammt nicht von einem, sondern drei havarierten Reaktoren. Niemand ist daran gestorben. Nach jüngst veröffentlichten Untersuchungen der Weltgesundheitsorganisation (WHO) und des Wissenschaftlichen Ausschuss der UNO zur Untersuchung der Auswirkungen von atomarer Strahlung (UNSCEAR) haben die meisten Bewohner von Fukushima und benachbarter Bezirke Strahlendosen unterhalb von unbedenklichen 10 Millisievert (mSv) erhalten. An zwei Orten lag diese zwischen 20 und 50 mSv. Zum Vergleich: die natürliche Strahlenbelastung liegt meist um 2 bis 3 mSv, in etlichen Regionen von Brasilien, Südindien oder dem Iran liegt diese um das 10- bis 20fache höher, ohne gesundheitliche Beeinträchtigung der dort lebenden Bevölkerung. Fachleute gehen in inzwischen von so geringen möglichen Spätfolgen in Fukushima aus, dass diese nicht messbar sein werden.
Diese Werte gelten für die nähere Umgebung des Kraftwerks Fukushima. Von “radioaktiver Verseuchung” im Umkreis von 1000 bis 2000 km, wie sie die Mainzer berechnet haben, ist in diesen Untersuchungen nicht die Rede. Vielleicht ist aber auch die Bezeichnung “Verseuchung” fehl am Platz. Radioaktive Kontamination kann noch als wissenschaftliche Bezeichnung durchgehen, radioaktive Verseuchung nicht. Radioaktive Verseuchung ist negativ überladen, im Bewusstsein der Öffentlichkeit steht er für Krebs, Krankheit, Tod. Er macht Angst, treibt Menschen in die Apotheke, um Jodtabletten zu kaufen. Wer diese Bezeichnung benutzt, weiß um dessen Wirkung.

Das Perfide an der Mainzer Studie, vor allem daran, wie sie in der Presseerklärung der Öffentlichkeit präsentiert wird, ist, dass zwar ständig von “radioaktiver Verseuchung” die Rede, aber nie davon, ob und, wenn ja, welche Folgen diese Verseuchung für die menschliche Gesundheit hätte. Die Mainzer berufen sich auf die Internationale Atomenergiebehörde (IAEA), die ab einer Aktivität von 40,000 Becquerel pro Quadratmeter (40 kBq/m2) von radioaktiver Kontamination sprechen.

Was bedeutet dieser Wert? Ein Bequerel bedeutet, dass ein Atomkern pro Sekunde zerfällt. Das wissen sicherlich nicht viele Zeitungsleser; noch weniger wissen, was es für Folgen hat, wenn pro Sekunde 40.000 radioaktive Kerne zerfallen. Vielleicht hilft das: Rund 10.000 Bq beträgt die Aktivität im Körper des Menschen; pro Sekunde zerfallen also irgendwo im menschlichen Zellgewebe zehntausend radioaktive Atomkerne – tagaus, tagein. Auf Stehplätzen in Fußballstadien drängen sich pro Quadratmeter oft vier, fünf Menschen. Noch dichter steht man in Tokios U-Bahn zu Stoßzeiten. Solche Zusammenballungen müssten also als “radioaktiv verseucht” gelten.
Oder auch das: eine Cäsiumaktivität von 40 kBq entspricht einer biologischen Strahlenbelastung von weniger als einem mSv. Dieser Wert liegt deutlich sowohl unter der natürlichen Strahlendosis wie auch der Strahlenbelastung durch medizinische Anwendungen, denen der Mensch ausgesetzt ist. Welchen Wert hat, daran gemessen, die Aussage, dass im Falle eines Reaktorunfalls 30 Millionen Menschen von “gefährlicher radioaktiver Belastung” bedroht seien? Der englische Physiker Wade Allison, der ein vielbeachtetes Buch mit dem Titel “Radiation and Reason” geschrieben hat, fand die Untersuchung der Mainzer Chemiker schlicht “seicht”. Einen wissenschaftlichen Nutzen hat die Studie nicht, wohl aber einen politisch-gesellschaftlichen: sie macht Menschen unnötig und unbegründet Angst. Diese Art von “Kampagnenwissenschaft” kennt man von Greenpeace und ähnlichen Organisationen.
Ähnliche Beweggründe mögen auch bei den Mainzer Chemikern eine Rolle gespielt haben. In der Presseerklärung wünscht sich Prof. Jos Lelieveld, der Leiter der Studie:

“Vor dem Hintergrund unserer Erkenntnisse sollte meiner Meinung nach auch ein international koordinierter Ausstieg aus der Kernenergie in Betracht gezogen werden.”
Das allerdings gibt die Studie nun wirklich nicht her.

J. Lelieveld, D. Kunkel, M. G. Lawrence. Global risk of radioactive fallout after major nuclear reactor accidents. Atmos. Chem. Phys., 12, 4245-4258, 2012. http://www.atmos-chem-phys.net/12/4245/2012/acp-12-4245-2012.html
United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR)
Und hier der Link zur Presseerklärung des MPI
Heinz Horeis, zuerst erschienen bei ACHGUT

Update vom 1.6.12:
Offener Brief an Herrn Prof. Lelieveld, Max Plank Institut, Mainz

Sehr geehrter Herr Prof. Lelieveld,

Ihre Veröffentlichung im Namen des Max Planck Instituts: „Global risk of radioactive fallout after major nuclear reactor accidents“ hat in der Presse unter dem Titel: „Atomarer Super-GAU droht alle zehn bis 20 Jahre“ Beachtung gefunden. Sie sehen hier ja wieder deutlich, wie aus Ihrer statistisch falschen Berechnung der Häufigkeit einer Cäsium 137 Freisetzung (die zu keinem realen Gesundheitsproblem führt) ein Bürgerschreck aufgebaut wird. Insoweit tragen Sie Mitverantwortung für die Pflege und den  Ausbau des Angstsyndroms vor Radioaktivität,  v.a. in der deutschen Bevölkerung.

Das war Grund für mich, die Kommentare und die Kritik dazu Ihnen zu überbringen und in den öffentlichen Raum zu stellen.

Nach gängiger Praxis sollte Ihnen wegen diesem zitierten Papier nicht nur das Doktorat sondern auch die Professur aberkannt werden. Der Grund ist einfach. Sie kennen entweder nicht oder Sie ignorieren die strengen Regeln seriöser wissenschaftlicher Statistik.

Stichworte zu den strengen Regeln sind: Bildung einer homogenen Grundgesamtheit und Ziehung einer genügen großer Stichprobe. Ersparen Sie es mir, die Hintergründe dazu und die Wirkung bei Verletzung dieser Regeln Ihnen nahe zu bringen.

Beides haben Sie (und Ihre Mitautoren) sträflich ignoriert. Damit ist Ihre Veröffentlichung pseudo-wissenschaftlicher Müll, der im Nirwana des Internets hoffentlich baldmöglichst untergeht.

Für Ihren weiteren Berufsweg habe ich die Befürchtung, dass Sie es fertig bringen, z.B. die Wurm-Information aus weltweit angebauten Früchten „zusammen zu rühren“, um folgende Aussage zu treffen: „Wie ist die Häufigkeitsverteilung von Würmern in deutschen Äpfeln aus den verschiedenen Anbaugebieten in (D)?“.

Wenn Sie schon aus förderungspolitischen Überlegungen beim Max Planck Institut in Garching Ihr meteorologisches Ausbreitungsmodell bewegen wollen, liefern Sie doch dem Klima-Guru Prof. Schnellnhuber in Potsdam die Berechnung der CO2 Dosis-Verteilung auf Grund der zunehmenden CO2 Freisetzung aus deutschen Kraftwerken, angezettelt durch das planwirtschaftliche Geschäftsmodell der Energiewende der Bundesregierung.

Ich bin mir sicher, dass die kommende mittlere CO2 Dichte pro Flächeneinheit, in Deutschland Weltrekord wird. Sie müssen allerdings dazu Ihr Modell verfeinern, um alle Emittenten aus den vielen konventionellen Kraftwerken zu berücksichtigen. Die CO2 Freisetzung aus der großen Anzahl von Premium-Fahrzeugen können Sie als CO2 Grundlast führen. Die CO2 Zunahme auf Grund der von Frau Dr. Merkel verordneten 1 Mio. Elektrofahrzeugen müssen Sie aber berücksichtigen. Ebenso die Zunahme durch die propagierte Holzverbrennung und die Herstellung der Hausisolierungen. Wenn  Ihr Modell es hergibt, können Sie auch die Zunahme der Kaminfeuer bei den VIP’s berücksichtigen. Abziehen dürfen Sie die in Konkurs gegangenen Firmen der Solarbranche als CO2 Emittenten. Diese Firmen können keine Klimaschädlinge mehr sein.

Mit Ihrem Papier sind Sie Steigbügelhalter geworden für die östliche Prägung der neuen Planwirtschaft, vertreten durch Frau Bundeskanzlerin Dr. Merkel, im Rahmen der zur Chefsache erklärten Energiewende.

Mit freundlichen Grüßen

Feffernitz, 24. Mai 2012

Dr. techn. Peter Kafka
Habeintenweg 129
A-9710 Feffernitz
Tel.: ++43 (0) 720 350 335
Fax: ++43 (0) 720 350 336
Mobile: ++43 (0) 660 655 2600
email: drpkafka@netcompany.at

Der Artikel von Prof. Lelieveld ist veröffentlicht bei:
http://www.mpic.de/Der-nukleare-GAU-ist-wahrscheinlicher-als-gedacht.34298.0.html
#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */




Die CIA dokumentiert die Forschung zur globalen Abkühlung in den siebziger Jahren

Bild rechts: Siegel der C.I.A. – Central Intelligence Agency of the United States Government (Photo credit: Wikipedia)

Der CIA-Bericht und die Warnung aus Wisconsin

Gastbeitrag von David Archibald

Im August 1974 erstellte das Office of Research and Development der CIA einen Bericht mit dem Titel „A Study of Climatological Research as it Pertains to Intelligence Problems” [etwa: Eine Studie zur Klimaforschung soweit es Sicherheitsprobleme betrifft]. Die Studie kann online eingesehen werden. Hier folgen einige interessante Punkte aus diesem Bericht:
„Die führenden Klimatologen der Welt haben jüngste Berichte einer schädlichen globalen Klimaänderung bestätigt. Die Stabilität der meisten Nationen basiert auf einer zuverlässigen Versorgung mit Nahrungsmitteln, aber in der neuen Klimaära wird diese Stabilität nicht gewährleistet sein. Eine Vorhersage der Universität von Wisconsin projiziert, dass sich das Erdklima wieder in Richtung der neo-borealen Ära bewegt [der „kleinen Eiszeit“?] – einer Zeit der Dürren, der Hungersnöte und der politischen Unruhen in der westlichen Welt.
Das Klima war bisher kein Sicherheitsthema, weil es bis vor Kurzem keine signifikanten Störungen des Status’ der großen Staaten verursacht hat. Dies ist so, weil während 50 der letzten 60 Jahre auf der Erde im Mittel das beste Klima seit dem elften Jahrhundert geherrscht hat. Ein Nahrungsmittelüberschuss zu Anfang des 20. Jahrhunderts verringerte die Bemühungen der USA, die Landwirtschaft konstant und ausgeglichen zu halten.
Die Universität von Wisconsin war das erste anerkannte akademische Zentrum, das vorhergesagt hat, dass eine wesentliche globale Klimaänderung bevor steht. Ihre Analyse der Temperaturdaten aus Island, das sie aus historischen Gründen als Indikator für die Klimabedingungen auf der Nordhemisphäre ansehen, deuten darauf hin, dass sich die Welt in Richtung des Klimatyps bewegt, der in der ersten Hälfte des 19 Jahrhunderts vorherrschend war. Ihre Abbildung 7 umreißt den Umfang des Problems und die prekäre Lage, in der sich die meisten Länder der Welt wiederfinden könnten, falls die Wisconsin-Vorhersage korrekt ist“.

CIA-Bericht 1974, Abbildung 7
Die x-Achse zeigt die jährliche Temperatur in Celsius. Die y-Achse zeigt die Anzahl der Personen pro Hektar landwirtschaftlich nutzbarer Fläche.
Unter Verweis auf diese Abbildung 7 stellt die CIA fest: „zum Beispiel Europa: mit einer mittleren Jahrestemperatur von 12°C werden drei Personen pro Hektar landwirtschaftlich nutzbarer Fläche gestützt. Sollte jedoch die Temperatur um 1°C zurückgehen, könnten nur noch wenig mehr als zwei Personen von dieser Fläche leben, es wird für mehr als 20% der Bevölkerung reichen, und mehr als 20% könnten nicht aus heimischen Quellen satt werden. In China leben derzeit sieben Personen pro Hektar landwirtschaftlich nutzbarer Fläche; eine Veränderung von 1°C würde bedeuten, dass nur noch vier Personen pro Hektar gestützt werden könnten – ein Rückgang um über 43%.
Ein besonderer Schwerpunkt der Wisconsin-Analyse war deren Abschätzung der Dauer dieser klimatischen Änderung. Eine Analyse von Dr. J. E. Kutzbach (Wisconsin) zur Rate von Klimaänderungen während der vergangenen 1600 Jahre deutet auf eine ominöse Konsistenz der Rate, mit der die Änderung vor sich geht. Der Haupttemperaturrückgang erfolgte normalerweise innerhalb von 40 Jahren seit dessen Beginn. Die früheste Rückkehr erfolgte innerhalb von 70 Jahren (Abbildung 8). Die längste bekannte Periode erstreckte sich über 180 Jahre.

CIA- Bericht 1974, Abbildung 8
Der CIA-Bericht mit der Warnung vor den Auswirkungen einer Abkühlung auf die Stabilität von Staaten wird durch eine Studie von Zhang et al. (2007) gestützt:
„Wir zeigen, dass langzeitliche Fluktuationen der Häufigkeit von Kriegen und der Änderung der Bevölkerungszahl den Zyklen von Temperaturänderungen folgte. Weitere Analysen zeigen, dass Abkühlungen die landwirtschaftliche Produktion beeinträchtigten, was zu einer Reihe ernsthafter sozialer Probleme führte, einschließlich Inflation der Preise, dann Kriegsausbrüche, Hungersnöte und ein damit in Beziehung stehender Rückgang der Bevölkerung. Die Ergebnisse legen nahe, dass weltweit synchron Krieg/Frieden, Bevölkerungszahl und Preiszyklen hauptsächlich durch langzeitliche Klimaänderungen angetrieben worden sind.
Wir haben eine lange Zeitspanne der Geschichte Chinas studiert und fanden heraus, dass die Anzahl der Kriegsausbrüche und Bevölkerungsrückgänge in China signifikant mit Temperaturvariationen der Nordhemisphäre korreliert ist und dass alle Perioden staatsweiter Unruhen, Bevölkerungsrückgänge und Änderungen der Dynastien in den Kaltphasen dieses Zeitraums stattfanden“.
Der CIA-Bericht aus dem Jahr 1974 basiert großenteils auf der Arbeit von Professor Kutzbach an der University of Wisconsin, der weiterhin vor den Gefahren einer globalen Abkühlung warnt. Professor Kutzbach ist ein Mitautor einer Studie, die die Auswirkung eines um 3,1°C kühleren Klimas modellierte (Phillipon-Berthier et al. 2010). Grundlage der Studie war, dass bei einer Kohlendioxid-Konzentration von 240 ppm, basierend auf typischen Werten, während der Spätphase vorangegangener Zwischeneiszeiten das Klima um 3,14 K kälter gewesen wäre als gegenwärtig. 0,45 K dieser Abkühlung wird den Auswirkungen der Vegetation zugeordnet, und das Gleichgewicht von 2,69 K beruht darauf, dass das Kohlendioxidniveau damals um 150 ppm unter den heutigen Werten lag. Diese Zahl von 2,69 K ist eine offensichtliche und absichtliche Übertreibung. Basierend auf dem logarithmischen Wärmeeffekt von Kohlendioxid beträgt der Temperaturunterschied zwischen 240 ppm und 390 ppm 0,32 K, wie die folgende Abbildung verdeutlicht:

Abbildung 3: Der logarithmische Erwärmungseffekt des Kohlendioxids
In einer Welt, in der selbst Studien zum Thema Solarphysik vor der globalen Erwärmung auf Knien rutschen müssen, um veröffentlicht zu werden, war diese Übertreibung wahrscheinlich notwendig, um diese Studie veröffentlichen zu können. In dieser Hinsicht scheint es, als ob die Autoren die Welt vor den Auswirkungen einer Abkühlung um 3,0°C warnen wollten, und der einzige Weg, die Studie durch die Zensur zu bringen war das Aushecken einer Story über das Kohlendioxidniveau in früheren Zwischeneiszeiten. Eine Abkühlung von 3,0°C ist sehr ähnlich dem, wovor Libby und Pandolfi 1979 gewarnt haben und was von der Länge des Solarzyklus 25 vorhergesagt wird, wie es aus dem Diagramm der Emissionen aus der Korona von Altrock bestimmt worden ist. Dies wird hier gezeigt.
Was also hat die Studie gefunden? Philippon-Berthier und Kollegen berechneten, dass als Ergebnis kälterer und trockenerer Bedingungen zusammen mit einem niedrigeren Gehalt an CO2 in der Atmosphäre (einem Pflanzendünger) die terrestrische Photosynthese um 39% zurückgehen und sich die Blattgröße um 30% verkleinern würde. In den mittleren Breiten der Nordhemisphäre würde die Waldbedeckung um 60% und Weideland um 17% abnehmen. In hohen Breiten würden die Gebiete mit borealen Wäldern um 69% zurückgehen, während sich das Gebiet mit der Polarwüste um 286% ausdehnt. In den Tropen würden sich Grasland um 3% und Waldgebiete um 15% verkleinern, während sich unbewachsene Flächen um 344% ausdehnen.
Addiert man die Auswirkungen des gegenwärtig höheren atmosphärischen CO2-Gehaltes zum Pflanzenwachstum, würde der Rückgang der terrestrischen Photosynthese eher 25% und nicht die berechneten 39% betragen. Das ist wahrscheinlich auch eine gute Abschätzung des Rückgangs der Produktion von Nahrungsmitteln unter sonst gleichen Bedingungen, die der Menschheit während der nächsten 25 Jahre bevorstehen, wenn die solar getriebene Abkühlung so wie von Libby und Pandolfi sowie aus den Korona-Emissionen abgeleiteten Vorhersagen weitergeht.

Abbildung 4: Gesamtunterschied von Gras- (oben) und Baumwachstum (unten, in Prozent) zwischen gegenwärtigen Klimabedingungen und einer Abkühlung um 3,1 K (Quelle: Philippon-Berthier et al., 2010).
David Archibald
References
CIA 1974, A Study of Climatological Research as it Pertains to Intelligence Problems
Libby, L.M. and Pandolfi, L.J. 1979, Tree Thermometers and Commodities: Historic Climate Indicators, Environment International Vol 2, pp 317-333
Philippon-Berthier, G., et al., 2010. Role of plant physiology and dynamic vegetation feedbacks in the climate response to low GHG concentrations typical of the late stages of previous interglacials. Geophysical Research Letters, 37, L08705, doi:10.1029/2010GL042905.
Peterson, T.C., et al. (2008): The Myth of the 1970s Global Cooling Scientific Consensus. Bulletin of the American Meteorological Society, 89, 9, 1325-1337, doi:10.1175/2008BAMS2370.
Link: http://wattsupwiththat.com/2012/05/25/the-cia-documents-the-global-cooling-research-of-the-1970s/
Übersetzt von Chris Frey EIKE




Den Bären aufbinden

*Wegen der gleich mehrfach auftretenden unübersetzbaren Wortspiele folgt dieser erste Absatz hier im Original:  ‚The slang for being lied to is “Someone’s been blowing smoke up your skirt”, but when it comes to the multi-billion dollar job the wind power industry has perpetrated here and in European nations, “blowing wind” more than fits the massive deception about renewable energy.’
In einem Kommentar auf AmericanThinker.com hat William Sullivan im April darauf hingewiesen, dass die USA Subventionen in Höhe von 90 Milliarden Dollar für die Wind- und Solarindustrie verschwendet haben, und zwar im Zuge des American Recovery and Investment Act aus dem Jahr 2009, weithin bekannt als Obamas „Stimulus“, von dem uns versprochen worden ist, dass es Arbeitsplätze schaffen und der Wirtschaft einen Schub aufwärts bringen würde. Weder das eine noch das andere ist geschehen. Dies ist nicht sonderlich überraschend, wenn man bedenkt, dass wir einen Präsidenten haben, der tatsächlich Algen (Faulschlamm in Tümpeln; pond scum) als eine Energiequelle befürwortet.
Wie schlimm war dieser „Stimulus”? Sullivan merkte an, dass „im ersten Jahr dieses grünen Stimulus’ 79% an das Ausland geflossen sind“ einschließlich einer Australischen Firma, Babcock & Brown, „die schon zwei Monate nach Verabschiedung des Stimulus-Gesetzes pleite gegangen ist“. Dieser Liste der Bankrotte kann man die Solarfirmen Solyndra und Beacon Power Comp. hier in den USA hinzufügen.
Der ganze Betrug um die Industrie der alternativen Energien wie der vorgeschlagene Zertifikatehandel (cap-and-trade), um den Verkauf und den Handel mit „Kohlenstoffzertifikaten“ anzukurbeln, basierte auf dem Schwindel der Umweltbewegung zur globalen Erwärmung zusammen mit deren stetigen Bemühungen, traditionelle Energieerzeuger wie Kohle zu zerstören. Zusammen mit Öl und Erdgas – Gruppen wie Freunde der Erde [Friends of the Earth FOE] sind gegen alles, was dazu beitragen könnte, die Lampen brennen und ihren Benzintank gefüllt zu lassen.
Am 5. Mai forderte FOE seine Mitglieder auf, Senator Bernie Sanders zu unterstützen, einen Sozialisten, sowie den End Polluter Welfare Act vom Kongressabgeordneten Keith Ellison. Dessen Worten zufolge handelt es sich dabei um eine „umfassende Gesetzgebung, die weiter gehen würde als alles, was wir bisher erlebt haben, um Subventionen für die Industrie der fossilen Energie zu eliminieren“. Ölgesellschaften beschäftigen nicht nur mehr Menschen und zahlen höhere Steuern als Wind- und Solarkompanien, sondern ihr Profit nimmt sich im Vergleich zu anderen Industrien wie z. B. der Pharmaindustrie marginal aus.

Einem Nachrichtenartikel von Reuters zufolge hat die Windindustrie seit 2009 10 000 neue Arbeitsplätze geschaffen, gleichzeitig hat sich die Kapazität der Windfarmen seit dieser Zeit verdoppelt. Die Öl- und Gasindustrie hat in dieser Zeit 75 000 neue Arbeitsplätze geschaffen. Wie viele Arbeitsplätze mehr hätten es sein können, wenn die Obama-Administration nicht ein Bohrmoratorium im Golf von Mexiko verhängt – das schon zweimal von Gerichten für illegal erklärt worden ist – und Vorschläge zur Erschließung des Bohrpotentials vor den Küsten Amerikas annulliert hätte.
England und viele andere europäische Nationen verlassen sich erheblich auf Windkraft, und gerade vor Kurzem, nämlich Mitte Mai, berichtete der britische Telegraph, dass die Stromrechnung für jeden Haushalt in England um 25% steigen würde, um Windparks und andere Formen erneuerbarer Energie zu finanzieren.
Der John Muir Trust förderte Forschungen der Stuart Young Consulting, die die Stromerzeugung durch Windparks in UK von November 2008 bis Dezember 2010 analysierte.
In der Studie kam heraus, dass die Stromerzeugung durch Wind während der Hälfte der Zeit unter 20 % und während eines Drittels dieser Zeit unter 10% der Kapazität (=der Fähigkeit, Strom zu erzeugen) gelegen hatte. Sie kam zu der Schlussfolgerung, dass „die Wahrscheinlichkeit sehr schwachen Windaufkommens zu Zeiten mit Bedarfsspitzen gering ist“. Dies gilt für alle Windparks, egal wo.
Hier in den USA werden wir weiterhin durch Kongressmitglieder in den Händen der Windkraftindustrie betrogen. Zwei von ihnen, Steve King und Dave Reichert, beide von der republikanischen Partei, sprachen sich jüngst auf einer Pressekonferenz dafür aus, die Verlängerung der Production Tax Credit (PTC) für erneuerbare Energie anzustreben, die Ende Januar auslaufen soll. Eingeführt im Jahre 1992 ist die PTC für die Erzeugung von Windenergie 1,2 Milliarden Dollar wert, was schon jetzt die Stromrechnung der Verbraucher in US-Staaten erhöht, in denen die erneuerbare Energie gestützt wird. Im Gegensatz dazu zahlen Öl- und Gasgesellschaften etwa 26 Milliarden pro Jahr an Körperschaftssteuern.
Sollte PTC wirklich verlängert werden, ist das Beweis genug dafür, dass die republikanischen Mitglieder des Kongresses genauso korrupt sind wie ihre demokratischen Kollegen.
Vergessen Sie nicht, der primäre Grund für den Ausbau von Wind- und Sonnenenergie ist es, bei der Vermeidung der globalen Erwärmung zu helfen, aber es gibt keine globale Erwärmung. Die Erde befindet sich seit 1998 in einem Zyklus der Abkühlung. Um noch Salz in die Wunde zu streuen, traditionelle Energieerzeuger, die Kohle und Erdgas nutzen, müssen in Vollzeit durchlaufen, um genügend Energie zur Verfügung zu stellen, wenn Wind und Sonne einmal hinter ihre Möglichkeiten der Energieerzeugung zurückfallen, etwas, das andauernd passiert.
In England, Spanien, Deutschland und anderen Nationen haben die Subventionen für die Windkraft bislang lediglich dazu geführt, dass der Strompreis für jedermann, von Familien bis Fabriken, von Krankenhäusern und Schulen, von Büros und Geschäften nach oben getrieben worden ist.
Wenn sie nicht gerade eine halbe Million Vögel aller Art abschlachten, ebenso wie Fledermäuse, erfordern sowohl Sonnen- als auch Windkraft große Landschaftsgebiete sowie Kilometer lange Überlandleitungen, weil beide weitab von Städten errichtet werden.
Es gibt buchstäblich keinen rationalen oder ökonomischen Grund für erneuerbare Energie. Sie ist wie die globale Erwärmung ein gigantischer Schwindel, von dem eine Handvoll Menschen profitiert, deren kruder Kapitalismus sie reich gemacht hat, während die Verbraucher mit stetig steigenden Stromkosten zurück gelassen werden. Und all das geschieht, während die Environmental Protection Agency Regulationen erlässt, die darauf abzielen, die Kohleindustrie zu zerstören, die die Hälfte des gesamten, in den USA erzeugten Stromes zur Verfügung stellt.
Es ist an der Zeit, die Subventionen und staatlichen Garantien zu beenden, die auf geborgtem Geld und den Steuern der Amerikaner basieren, die betrogen worden sind und die weiterhin von wohlhabenden Umweltorganisationen und Politikern bedrängt werden, die aus ihren Ämtern gedrängt werden müssten.
Letztendlich sind sie die Straftäter von politischen Maßnahmen, die die Amerikaner verarmen lassen und die Sicherheit der Nation aufs Spiel stellen.
© Alan Caruba, 2012
Link: http://www.anxietycenter.com/ vom 24.5.2012
Übersetzt von Chris Frey EIKE