Energiewende wirkt: Weltweit größter Chemiekonzern BASF droht mit Werkschließung

Der Vorstandsvorsitzende Kurt Bock forderte im Nachrichtenmagazin „Der Spiegel“ die Politik auf, die bestehenden Ausnahmeregelungen für energieintensive Industriezweige beizubehalten. Die kommende große Koalition von Union und SPD will die milliardenschweren Industrie-Rabatte prüfen. (Details Hier)

Passend dazu die Ideen der zukünftigen Koalitionspartner CDU und SPD das Thema zunehmende Stromarmut gar nicht erst in öffentliche Bewußtsein kommen zu lassen, in dem Strom in Zukunft per „PrePaid“ im Voraus bezahlt werden muss. So titelt heute Welt Online

Deutsche sollen Strom mit Prepaid-Karten bezahlen

und führt weiter aus:

Die Zahl der Stromsperren wächst in Deutschland – daher planen Union und SPD eine Art Prepaid-Karte wie beim Handy: Kunden würden dann „achtsamer und sparsamer“ mit ihrem Verbrauch umgehen. Um die wachsende Zahl von Stromsperren einzudämmen, planen Union und SPD für den Verbrauch „Prepaid-Karten“ wie beim Handy. So bekämen die Versorger ihr Geld und die Verbraucher müssten nicht auf Strom verzichten, sagte die CDU-Politikerin Mechthild Heil der „Saarbrücker Zeitung“

Auf diese elegante Weise würden die Abschaltungen aus der Öffentlichkeit verschwinden und damit im Bewusstsein selbiger Öffentlichkeit nicht mehr stattfinden. Würdig eines 1984 er „Awards“

Mit Dank an Benny Peiser ACHGUT und Leser Gerald Pesch

Update 12.11.13 Reuters

Clariant kappt Ausgaben in Deutschland wegen Energiekosten

Wegen der hohen Energiepreise will der Schweizer Chemiekonzern Clariant vorerst nicht mehr in deutsche Produktionsstätten investieren.

„Warum sollten wir in Deutschland noch einen Cent in neue Anlagen investieren? Dafür sehe ich derzeit keinen Grund“, sagte Clariant-Chef Hariolf Kottmann der „WirtschaftsWoche“ laut Vorabbericht vom Samstag. „Wir hatten zwei, drei Projekte in Deutschland favorisiert. Wir investieren nun lieber in den USA.“ Dort seien die Energiekosten niedriger.

Details hier bei Reuters




Erwärmungshysterie und 2°-Ziel – warum? Teil 2

Wie konnte die Klimawandel-Hysterie entstehen ?

Temperaturschwankungen werden als anthropogener Klimawandel definiert, der bekämpft wer­den muss – angeblich zum Wohle der Menschheit

Redaktioneller Hinweis

Die Behandlung des Themas erfordert viele Zitate, und in manchen Zitaten wird zusätzlich zitiert. Alle Zitate wer­den in blau ausgedruckt. Zu ihrer  Unterscheidung werden die Basis-Zitate ohne Anführungszeichen und die darin enthaltenen „inneren Zitate kursiv gesetzt und mit Anführungszeichen“ versehen.

Die 1972 auf der Umweltkonferenz von Stockholm definierte Verpflichtung zum Umwelt­schutz wurde in die Notwendigkeit zum Klimaschutz umfunk­tioniert – und nicht nur aus wirklicher Sorge um das Klima, sondern auch aus kommerziellen Gründen. Die World Meteorological Organization (WMO) hatte das Klima als das statistische Wetter von 30 Jahren definiert. Statt, wie dem­zufolge geboten, 30 Jahre lang zu warten, um dann zu beur­teilen, ob sich das Klima tat­sächlich verändert haben würde, wurde in den späten 1980er Jah­ren der Klimaschutz gegen die Erderwärmung zu einer Hauptaufgabe der UN erklärt und der IPCC (Weltklimarat) ge­gründet. Obwohl bekannt war, dass es immer wieder relativ kühle Sommer und warme Winter gibt, dass also Temperaturschwankungen normal sind, wurde ein gefährli­cher Klimawan­del prognostiziert, der die Mensch­heit vernichten könnte, wenn sie nicht wir­kungsvoll gegensteuert.

Der wichtige Unterschied zwischen Temperaturschwankungen und wirkli­chem Klimawandel blieb unbe­achtet und ungeklärt. Erstere treten regelmä­ßig kurz- und mittel- und langfristig auf, und da sie nur einige bis mehrere Zehntel Grad umfassen, verändern sie die Lebensum­stände nicht. Im Gegensatz dazu verändert ein wirklicher Kli­mawandel die Lebensumstände, wie von Regel 1957 betont hat [1]. Mit einer Ana­lyse der Langzeit-Temperatur­reihen hätte Anfang der 1980er Jahre erkannt werden können, dass wir es auch gegen­wärtig nur mit den üb­lichen Tempe­ra­turschwankungen zu tun haben. Das blieb unberücksichtigt. Stattdessen erklärte die UN die globale Erder­wärmung zum Hauptfeind der Menschheit und löste damit eine Klima-Hysterie aus..

Die Ursachen für das Entstehen der Klimawandel-Hysterie erklärt Jaworowski in seiner Ar­beit „Nicht der Mensch, sondern die Sonne bestimmt unser Klima“ [2]. Im Kapitel „Ver­schwörung zum Selbstmord“ schreibt er:

Wenn man nicht auf die irrationalen politischen oder ideologischen Faktoren hinter dieser Hypothese eingeht, ist es sehr schwierig zu verstehen, warum so viele Leute an eine mensch­liche Verursachung der modernen Warmzeit glauben, die wissenschaftlich nie plausibel belegt worden ist. Mau­rice Strong, der Pate der modernen Umweltschutzbewegung und früherer Chefberater von UN-Ge­neralsekretär Kofi Annan hat offen von einer Verschwörungstheorie gesprochen. 1972 war Strong Generalsekretär der UN-Umweltkonferenz in Stockholm, auf der die weltweite Umweltbewegung begründet wurde, und er hat eine zentrale Rolle bei der Globalisierung ge­spielt. 20 Jahre später war Strong Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, wo auf sein Betreiben die Grund­lage für das Kioto-Protokoll gelegt wurde.  In einem Interview hat Strong  seine Denkweise offengelegt: „Was wäre, wenn eine kleine Gruppe von Weltführern zu dem Schluss kommen sollte, dass die Hauptgefahr für die Erde von dem Ver­halten der reichen Länder ausginge? Und wenn die Welt überleben soll, müssten die reichen Länder ein Abkommen unter­zeichnen, um ihre eigene Umweltbelastung zu redu­zieren.  Wer­den sie dem zustimmen? Die Gruppe kommt zu dem Schluss: Nein! Die reichen Länder wer­den nicht zustimmen. Sie wollen sich nicht verändern. Um den Planeten zu retten, beschließt die Gruppe:  Besteht nicht die einzige Hoffnung für den Planeten darin, dass die industriali­sierten Zivilisationen kollabieren? Ist es nicht unsere Verantwortung, das zu bewir­ken? Die Gruppe von Weltführern bildet eine Geheim­gesellschaft, um einen Wirtschaftszu­sammen­bruch herbeizuführen“. (Wood 1990)

Wer ist Maurice Strong, der sich zutraut, die Natur sowie Sinn und Zweck unseres Pla­neten ver­standen zu haben, um ihn für die Menschheit retten zu können? Laut Wikipedia hat der Ka­nadier Strong als Geschäftsmann im Ölhandel begonnen. Bis 1966 war er Präsident der Power Corpo­ration. Anfang der 1970er Jahre war er Generalsekretär der UN Conference on the Hu­man Envi­ronment, bevor er 1972 erster Generaldirektor des UN Environment Pro­gramms wurde. Anschließend wechselte er in die Privatwirtschaft und wurde zum Vor­stands­vorsitzenden von Petro-Canada ernannt, wo er von 1976 bis 1978 tätig war. Danach war er Chef des Stromkon­zerns Ontario Hydro und des Wasserversorgungsunternehmens American Water Development Incorporated. Strong ist heute ein aktiver Ehrenprofessor an der Universität Peking und Ehrenvor­sitzender ihrer Umweltstiftung. Er ist Vorsitzender des Bera­tungsgremiums des Insti­tuts für Forschung, Sicherheit und Nachhaltigkeit für Nord­ostasien. Strong wird als führende Figur in der internationalen Umweltbewegung angese­hen.[1] Er war Präsident des Rats der Verein­ten Nationen für die University for Peace (Friedens­universität) von 1998 bis 2006

Jaworowski schreibt weiter: Die Strategie, mit einem endlosen Aufgebot vermeintlicher Schreckgespenster die Bevölkerung einzuschüchtern, setzte sich auch im dritten Bericht des Club of Rome fort, und zitiert King & Schneider, 1991: „Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen wür­den…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“ 

Auf dem Erdgipfel in Rio 1992 erklärte Maurice Strong (nach Jaworowski):  Wir sind die erfolg­reichste Gattung überhaupt gewesen, doch jetzt sind wir außer Kontrolle geraten. Die Bevölke­rung muss stabilisiert werden, und das schnell.

Und Jaworowski kommentiert: Die menschenfeindli­che Ideologie, die Strong als Vertreter der höchsten UNO-Kreise äußert, ist wahrscheinlich ge­fährlicher als jede an­dere frühere Geistes­verwirrung der Menschheit.

Jaworowski zitiert Stephen Schneider, einen der führenden Klimagurus, der in einem Inter­view mit dem Magazin ‚Discover’ die Erschreckt-sie-zu-Tode-Moral der ‚Klimatisten’ dar­stellt: „Ei­nerseits sind wir als Wissenschaftler ethisch an die wissenschaftliche Methode ge­bun­den, die uns anhält, die reine Wahrheit und nichts als die … zu sagen. Anderseits … sind wir auch Men­schen… Wir müssen eine möglichst breite Unterstützung bekommen, um öffent­liche Aufmerksam­keit zu erregen. Das bringt es mit sich, massenhaft Medienun­terstüt­zung zu bekommen. Deshalb müssen wir ein paar Schauerszenarien auftischen, vereinfa­chende dra­matische Erklärungen ab­geben, und eigene Zwei­fel, die man hat, möglichst verschwei­gen. Jeder von uns muss selbst ent­scheiden, das richtige Gleichgewicht zwischen Wirksamkeit und Ehrlichkeit zu finden.“

Jaworowski weiter: Die Klimafrage wurde damit zur wahrscheinlich wichtigsten Agenda der Vereinten Nationen und der Politiker – zumindest äußerten sie sich so. Sie wurde auch zu einer moralischen Frage. Gro Harlem Brundtland, die Sonderbeauftragte des UN-Generalsek­retärs für Klimawandel, sagte 2007 vor der UN-Generalversammlung: „Es ist un­verantwort­lich, rück­sichtslos und zutiefst unmoralisch, die Schwere der realen Gefahr in Frage zu stel­len.“ 

Manche Klimawandel-Aktivisten handelten vermutlich aus echter Sorge. Sie waren wohl ohne Fachkenntnisse, denn sonst hätten sie gewusst, dass ihre Sorge überflüssig ist. Andere wurden durch kommerzielle Interessen motiviert. Beide waren sich einig, dass die Menschen gefügig gemacht werden müssen, um Gegenmaßnahmen zu akzeptieren.

Hartmut Bachmann hat 2009 als Beteiligter „Die Entstehung des Weltklimarates“ prägnant und übersichtlich erklärt [3]. Daraus die Einleitung und die Kapitel 1 bis 6, die u.a. die Grün­dung und die Funktion des IPCC beschreiben :

Einleitung

Politiker berufen sich bei der Begründung der Klimakatastrophen-Hypothese auf das „In­ter­go­vernmental Panel on Climate Change“ (IPCC), welches ein Appendix der UNO ist. Das IPCC hat sich selbst zum Klimarat erhoben und fordert, dass Definitionen und Ergeb­nisse seiner Un­tersuchungen zum Global-Klima als endgültig und unveränderlich weltweit akzep­tiert werden. Für die zu liefernden Berichte des IPCC ist kein Kontrollorgan zugelas­sen. Wichtig ist, die Ent­stehungsgeschichte dieser Organisation zu verfolgen: „Dieser Weltklima-Rat hat sich selbst er­funden, den hat niemand eingesetzt. Die Bezeichnung ‚Weltklima-Rat’ ist eine schwere Übertrei­bung. Diese ganze Debatte ist hysterisch, über­hitzt, auch und vor allem durch die Medien. Kli­matischen Wechsel hat es auf dieser Erde gegeben, seit es sie gibt“ (Altbundeskanzler Schmidt, 04.06.2007 in Bild).

Ursprung der Klimakatastrophen-Hypothese (erläutert von Christian Bartsch in [3]:)

Die Hypothese einer anthropogenen globalen Erwärmung mit katastrophalen Folgen geht wahr­scheinlich auf Charles D. Keeling von der University of California in San Diego zu­rück: „Die Herren Charles Keeling und G. Callendar – auf sie gehen die heutigen Aussagen des IPCC zu­rück – haben Daten selektiert, die Literatur ignoriert und histori­sche Daten falsch beurteilt. Das IPCC hat sie ungeprüft übernommen. Eine konstante ‚vorindustrielle Konzent­ration’ von 250 ppm CO2 hat es nie gegeben. Sie betrug im 19. Jahrhundert etwa 321 ppm. Es gibt keinen men­schengemachten Treibhauseffekt, er ist eine Erfindung von Callen­dar, Kee­ling und dem IPCC und  basiert auf schlampiger For­schung, Ignoranz und Datense­lektion.“

Entstehung des Wortes „Klimakatastrophe“

Das Wort ‚Klimakatastrophe’ wurde 1986 in Deutschland kreiert. Am 11. August 1986 brachte Der Spiegel diesen Begriff erstmalig mit einem mitreißend aufgemachten bebilder­ten Artikel als Angstmacher in weltweiten Umlauf. Das Titelbild zeigte den Kölner Dom zur Hälfte im Wasser stehend. Dillenberg (2008) schreibt dazu [4]: „Von wahrheitsgetreuer Be­richterstattung bezüglich der Klimaänderung konnte man ab 11. August 1986, dem Tage als Rudolf Augstein mittels seines Der Spiegel den Kölner Dom in der Nordsee ersäufte, nicht mehr reden. Nach diesem Bericht damals schwante mir Böses.  Anfang September 1986 rief ich ihn in Hamburg aus meinem Büro in Kissim­mee (Florida) an. Folgenden Dialog habe ich fixiert: >Was hast Du Dir denn dabei gedacht?<  >Wobei gedacht?< >Na beim Ersäufen des Kölner Doms< >Aufwecken, mun­ter machen< >Und Angst machen< antwortete ich. >Ohne Angst der Massen gibt es keine Be­wegung der Massen< Ich antwortete: >Deine Aktion wird Folgen haben< Augstein: >Hoffent­lich. Wenn Du was für mich hast, ruf durch<  (Dillenburg 2008).

Akzeptanz des Spiegel-Berichtes in den USA


Unmittelbar nach Erscheinen des o.g. Spie­gel-Berichts wurde in den USA in „einflussreichen Kreisen“ darüber beratschlagt,  wie das Wort ‚Klimakatastrophe’ kommerzialisiert werden könne. In den Jahren 1986-87 wurde ent­sprechend beschlossen, die Klimakatastrophe zu einem  „long-lasting gigantic business“ zu entwickeln. Wegen der hohen Bedeutung dieses gigantischen Business wurde vereinbart, den für entspre­chende „Umweltfragen“ bereits existierenden Arm der UNO, die UNEP, nicht zu beauftragen, sondern eine eigene Organisation neu zu schaffen.  .

Gründung des „Weltklimarates“ IPCC

Die für die ‚Vermarktung’ des Begriffes ‚Klimakatastrophe’ zuständige neue Behörde sollte ih­ren Sitz in Genf bekommen. 1988 wurde sie als ‚Intergovernmental  Panel on Cli­mate Change (IPCC) gegründet. Ihre Aktivitäten werden von New York aus gesteuert, dort wo das Kapital­zentrum der größten und am stärksten deregulierten und privatisierten Wirt­schafts­macht der Welt, mit der größten Börse der Erde, der New York Stock Exchange, zuhause ist. Vor der Gründung des IPCC wurde in den USA festgelegt, dass das IPCC keine wissen­schaftlichen Auf­gaben zu übernehmen habe, sondern ein rein politisches In­strument werden solle (Bachmann 2007). Weiter:  die USA würden keinem internationalen Abkommen zum Klimaschutz beitreten, sich aber an den Geschäften beteiligen, die sich unter dem Schlagwort ‚Klimaschutz’ zwangsläu­fig sehr leicht entwickeln lassen würden.

Ziele des „Weltklimarates“ IPCC

Sir John Houghton, Vize-Präsident des IPCC: „Solange wir keine Katastrophe ankündigen, wird niemand zuhören“ (Dillenberg 2008). Maurice Strong, erster UNEP-Direktor, Organi­sator der Rio-Konferenz und Chefberater Kofi Annan, „Besteht nicht die einzige Hoffnung für die­sen Pla­neten in dem Zusammenbruch der Industriellen Zivilisation? Liegt es nicht in unse­rer Verant­wortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“ (Gipfelkon­ferenz der UN in Rio im Juni 1992; Prof. John Christy (Weltklimarat-IPCC): „Man muss eine ge­wisse Panik schüren, dann fließt das Geld“ (Dillenberg 2008).

Die wissenschaftlichen Inhalte der Klimaberichte des IPCC beruhen auf dem Vorverständ­nis einer vorausgesetzten anthropogenen Beeinflussung des Klimas durch Kohlendioxyd-Emissi­onen. Die „Klima-Katastrophe“ ist ein Fabrikat, …., welches das IPCC, die oberste Weltkli­ma­behörde, als Werbebotschaft ….verbreiten lässt. Den Menschen als Verursacher dieser fik­tiven Katastrophe darzustellen, wurde vor der Geburt des IPCC als dessen Aufgabe von den Initi­atoren festgelegt und beschlossen. …. Das heißt: Das IPCC bekommt bereits in seiner Geburtsur­kunde zwei politische Aufgaben gestellt:

·      Feststellung, dass die Welt einer Klimakatastrophe entgegengeht.

·      Feststellung, dass der Mensch diese Katastrophe verursacht.

Funktion des „Weltklimarates“ IPCC

Um den Auftrag, den Menschen als Klimasünder zu überführen, waren und sind Beweise zu fin­den. Entweder durch wissenschaftliche Arbeit assoziierter Institute oder durch fabri­zierte  Zah­len. Die entsprechende Handlungsweise der ‚Wissenschaftler’ richtet sich nach den Vor­gaben ihrer Hierarchie, z.B. nach der Empfehlung von Prof. Dr. H. Stephen Schneider, Lead Author im IPCC: „Um Aufmerksamkeit zu erregen, …..“ Fortsetzung des Zitats siehe oben.

Die Aufgabe des IPCC als  regierungsübergreifende Kommission der UN wird im Detail von Prof. Dr. F. Singer in [5] wie folgt zitiert:

Das IPCC hat die Aufgabe, auf einer umfassenden, objektiven, offenen und durchschaubaren Grundlage die jüngste weltweit vorgelegte, wissenschaftliche, technische und sozioöko-nomische  Literatur zu sich­ten, die für das Verständnis des Risikos  eines vom Menschen herbeigeführten Klimawandels, seiner beobachteten und projizierten Auswirkungen und der Möglichkeiten, sich auf ihn ein­zustellen oder ihn abzumildern, bedeutsam ist.

Dass dies in der Praxis auch tatsächlich so ist, wurde in einem Telefonat mit einem deutschen Mitglied des IPCC (Prof. für Hydrologie) bestätigt. Auf meine Frage, wie man denn Mitglied des IPCC werden könne bzw. eigene Untersuchungen berücksichtigt würden, lautete die Ant-wort: „Das hängt vom Inhalt und der Forschungsrichtung ihrer wissenschaftlichen Ar­beiten ab“. D.h. andere Stimmen kommen nicht zu Wort.

Die einseitige Untersuchungsrichtung, d.h. nur jene Literatur zu berücksichtigen, die für das Verständnis eines menschengemachten Klimawandels bedeutsam ist, impliziert, dass es ihn gibt. Diese Einseitigkeit verletzt das Prinzip Wissenschaftlichkeit, denn das würde voraus-setzen, die Literatur auch nach Arbeiten zu untersuchen, die das Gegenteil beweisen, d.h. ob es ihn überhaupt gibt. Arbeiten, die auf der Grundlage von Messdaten einen menschen-gemachten Klima­wandel nachwei­sen, gibt es bis heute nicht. Weil nur Arbeiten gewertet werden, die einen angeblich anthropogenen Klimawandel beschreiben, werden alle gegensätzlichen nicht be­rücksichtigt und sind a priori ausgeschlossen. Das IPCC erhält folglich nur bestätigende Arbeiten zu Detailfragen des als Realität vorgegebenen Klima-wandels. Es ist verständlich, dass man zunehmend in die gleiche Richtung denkt, wenn die Auseinandersetzung mit Gegen­sätzlichem fehlt. Wenn dann zusätzlich die medientypische Attraktivität der schlechten Nach­richten wirksam wird, muss die Ge­sellschaft zwangsläufig in dieselbe Richtung denken.

Die Einseitigkeit der Aufgabe bewirkt, dass dem IPCC jene Untersuchungsberichte geliefert werden, die man zu bekommen wünscht. Teile der Klimaforschung wurden weltweit moti-viert, die zugrundegelegte Ursache zu beweisen. Das ist bis heute zwar nicht gelungen, wird aber weiter betrieben, denn um Pfründe und gut dotierte Arbeitsplätze nicht zu verlieren, verteidigt man mit weiteren Pseudobeweisen die sich selbst vorgegaukelte Notwendigkeit, das Klima schützen zu müssen. Dabei werden die in Klimasimulati­onsmodellen entwickelten Szenarien in dem Maße dramatischer, in dem sie von der realen Tem­peraturentwicklung widerlegt werden. So kommt es, daß Politik und  Medien sagen können, dass fast 100% der Wissenschaftler den anthropogenen Klimawandel bestätigen und die Wissenschaftler, die mit der Berücksichtigumg der Fakten Gegenbeweise liefern unerwähnt bleiben. Ergebnis: Die Mehrheit glaubt, was propagiert wird.

Die Wissenschaft weiß seit langem, dass lang-, mittel- und kurzfristige Sonnenzyklen periodische Temperaturschwankungen bewirken, beispielsweise die Sonnenflecken mit ihrer wechselnden Häufigkeit; Wikipedia zeigt dazu Grafiken. Zweckfreie Wissenschaft hätte erfordert, die Wechsel von Erwärmungs- und Abkühlungsphasen, die seit Beginn der Tempe-raturmessungen registriert worden sind, nämlich seit 1700 und dann besonders im 20. Jahr-hundert, erst einmal daraufhin zu prüfen, ob sie durch solche Zyklen verursacht wurden. Dass dies nicht geschah, sondern dass sofort CO2 als Verursacher galt, beweist, dass nicht zweck-freie Wissenschaft praktiziert werden sollte. Als typisches Produkt der Industriegesellschaft wurde sogleich das CO2 als Motor eines Treibhauseffekts ausgemacht, der die Erwärmung verursacht. Fachkundig wie man zu sein glaubte, hatte man jedoch nicht bedacht, was es bedeutet, dass in der vorindustriellen Zeit ohne anthropogenes CO2 schon weit stärkere Er-wärmungen stattgefunden hatten, und dass es nun trotz des Beginns und Fortsetzung ver-stärkter CO2-Emissionen auch Abkühlungsphasen gibt – nämlich zwischen 1950 und 1970 und jetzt wieder seit etwa 1995. Beide gegensätzlichen Zustände bestätigen die Feststellung von Franke’s Lexikon der Physik von 1959 [6]: „CO2 ist als Kli­magas be­deutungslos“;  1959 wurde CO2 objektiv beurteilt, denn die Klima­hysterie gab es noch nicht.

Die ab 1700 in Europa und dann auch in Übersee eingerichteten Stationen registrierten einander abwechselnde Warm- und Abühlungsphasen. Sie waren oft stärker ausgebildet und erfolgten schneller als im 20. Jahrhundert. Kein Sachkundiger wäre auf den Gedanken ge-kommen, eine menschengemachte Erderwärmung anzunehmen. Das blieb dem Geschäfts-mann Maurice Strong vorbehalten, der die Notwendigkeit des Umweltschutzes erkannte und meinte, daraus das Gebot des Klimaschutzes ableiten zu müssen. Ihm war wohl nicht bekannt, dass das Klima als Durchschnittswetter von der Sonne gesteuert wird, und die wird sich vom Menschen nicht beeinflussen lassen. Trotzdem: Maurice Strong fand für seine Agitation schnell Unterstützer nun auch bei Wissenschaftlern, die sich von diesem Modell Beschäf-tigung und Finanzierung versprechen konnten. Dass die Medien diese Möglichkeit zur Stei-gerung ihres Einflusses ausnutzten, dass die Wirtschaft Beschäftigung und Gewinne erwartete und nun auch realisiert, und dass nicht zuletzt dann auch die Poltik Gegenmaßnahmen zur Rettung der Menschheit konzipieren und wirksam werden liess, entsprach ihren jeweiligen Handlungsgesetzen. Das Modell ‚Erderwärmung erfordert Klimaschutz’ wurde von Laien ge-zeugt, Fachkenntnis fehlte.. Selten war eine philosophische Erkenntnis so berechtigt, wie die von Friedrich Nietzsche: „Die Unvernunft einer Sache ist kein Grund gegen ihr Dasein, viel-mehr eine Bedingung derselben.“

Da die Sonne das Klima steuert, gehorcht seine Entwicklung nicht den modellierten Szena­rien. Je größer die Diskrepanz wird, desto größer werden die Erklärungsnöte des IPCC. In­zwischen sind investigative Arbeiten erschienen, die die fragwürdige Arbeitsweise des IPCC enthüllt ha­ben – ein Beispiel wird in [7] genannt.

Der Beitrag kann als pdf im Anhang herunter geladen werden.

Literatur:

[1]  von Regel, C. : Die Klimaänderung der Ge­gen­wart: Lehnen-Verlag München, 1957

[2]  Jaworowski Z.: Nicht der Mensch, sondern die Sonne bestimmt das Klima. . Fusion 31, 2010,

Nr. 1, S.24-43, 23 Abb, 2 Tab.

[3]  Bachmann H: Die Entstehung des Weltklimarates IPCC. IAVG-Internet-Dokumentationen

   http://therapeutisches-haus.de/files/iavg056.pdf

[4]  Dillenberg H.  Persönliche Mitteilung 08.02.2008

[5]  Singer F.:  Die Natur, nicht die menschliche Aktivität bestimmt das Klima. ISBN  978-3-940431-

08-0

[6]  Franke, H.: Lexikon der Physik. Frankh’sche Ver­lags­handlung Stuttgart, 1959

[7]  Laframboise D.: The Delinquent Teenager Who Was Mistaken For The World’s Top Climate

Expert. Kindle-Edition Paperback, 237 pages, ISBN: 9781921421686, 2011.

Related Files




Nächtlicher Vogelzug, bei WKA Planungen oft völlig im Dunklen

Denn das gesamte Artenschutzrecht gilt nicht nur tagsüber, sondern auch nachts. Daran bemessen zeigt sich grundsätzlich daß in der WKA-Genehmigungspraxis dem gesetzlichen Auftrag des Artenschutzes nur unzureichend genügt wird.

Mit ein paar „Begehungen“, wenn das Thema überhaupt berücksichtigt wird, ist es nicht getan, um statistisch belastbare Daten zu erhalten, auch wenn sich viele Genehmigungsbehörden mit diesen wenigen Begehungen, kaum zu glauben, aber amtlich, zufriedengeben bzw. aufgrund politischen Druckes zufriedengeben müssen.

Eine lückenlose Analyse bieten inzwischen moderne Radarsysteme. Näheres hierzu findet man in einer Petition an die 16 Landesparlamente vom 03. November 2013, in der die Thematik aufgegriffen wurde. Sie kann ggf. durch Mitzeichnung unterstützt werden. Zum Mitzeichnen und Weitersagen http://birdstrike.wpwc.de ; engl. http://www.igsz.eu/WEK/birdstrike.htm




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 10 Wie aus Majoritäten Minoritäten werden

Seit dieser Zeit – also seit Januar 2010 als der Email-Skandal und die Fehler im letzten IPCC-Weltklimabericht 2007, z.B. der Himalya-Gletscher-Fehler aufgedeckt worden waren, ist nicht bekannt, daß Schellnhuber wieder in einer deutschsprachigen TV-Talk-Sendung aufgetreten wäre, obwohl er seine TV-Auftritte von Oktober bis Dezember 2009 nahezu inflationär betrieben hatte. Wenn Sie eine weitere TV-Diskussions-Sendung mit Hans J. Schellnhuber seit Januar 2010 kennen sollten, teilen Sie uns das bitte mit.

Und das Kapitel 10 dokumentiert, wie schwierig es seit 2007 war und ist, klimarealistische Fakten über den Klimawandel in TV-Sendungen unterzubringen, wenn einem einzigen Klimarealisten gleiche mehrere regelrechte “Klimahysteriker” gegenübersassen und auch die eigentlich neutralen Moderatoren klimarealistische Thesen häufig vorzeitig in der Debatte abwürgten.

Video Nr. 10 über die zigfache Alleinstellung von „Klimaforschern“ wie Schellnhuber in den Medien und die gezielten Versuche die Klimrealisten  von Anfang an in die unmoralische „Leugner“-Ecke zu stellen

Das Abschluss-Kapitel 11 (Epilog) der “Unbequemen Wahrheiten” am 11.11.2013 stellt Thesen zur Diskussion, die politische Motive für das dubiose CO2-Klimathema sein könnten und offensichtlich auch sind, und stellt zwei Möglichkeiten vor, wie man sich gegen solche “Scharlatane der Klima-Wissenschaft” wehren könnte. Der 6-minütige Videotrailer (mit integrierter Playlist) über das gesamte 11-teilige Filmprojekt ist seit dem 27.08.2013 online.




Stromnetze am Limit – das Risiko wächst: Mit jedem Windrad nehmen die Probleme zu

Schafft die Leitstelle dies nicht, so gerät das Netz innerhalb von Sekundenbruchteilen aus dem Takt. Grundlage des Problems ist die Tatsache, dass unsere Stromversorgung mit Wechselstrom arbeitet. Jeder Erzeuger, der in ein Verbundnetz einspeist, muss dies nicht nur mit der exakt gleichen Frequenz tun wie alle anderen Generatoren, sondern auch mit genau synchronem Verlauf der positiven und negativen Halbwellen. Anders ausgedrückt darf das eine Kraftwerk nicht gerade in dem Moment mit negativer Spannung einspeisen, wenn das andere gerade eine positive Spannung erzeugt, denn diese unterschiedlichen Polungen würden dazu führen, dass die Generatoren gegeneinander statt miteinander arbeiten würden, Bild 1. Statt gemeinsam Strom ins Netz zu liefern, würden sie sich gegenseitig innerhalb von wenigen Sekunden zerstören, weil die Wicklungen der Generatoren ausbrennen würden.

Bild 1. Würden zwei Generatoren mit derartiger Phasenverschiebung gleichzeitig ins Netz einspeisen, so würden sie sich gegenseitig beschädigen (Grafik: Saure, Wikipedia Creative Commons)

Eine der wichtigsten Aufgaben der Netzleitstellen besteht daher darin, die Netzfrequenz zu überwachen und innerhalb extrem enger Grenzen stabil zu halten, damit die mehr als eine Million Teilnehmer, die allein in das deutsche Verbundnetz einspeisen, stets synchron und mit exakt gleicher Phasenlage einspeisen können.

Zusammenhang von Frequenz und Netzlast

Die Netzfrequenz hängt wiederum direkt von Gleichgewicht zwischen Erzeugung und Verbrauch ab. Je höher der Verbrauch, desto größer ist auch das von der Turbine aufzubringende Drehmoment, damit der Generator seine exakt vorgeschriebene Drehzahl halten kann. Laständerungen wirken sich daher sofort auf seine Drehzahl und damit auf die Frequenz des erzeugten Wechselstroms aus. Das Kraftwerk überwacht deshalb die Frequenz und versucht, diese stabil zu halten, indem es mehr oder weniger Dampf auf die Turbine leitet. Im Verbundnetz muss dies stets von allen einspeisenden Generatoren synchron nachvollzogen werden, um das dynamische Gleichgewicht von Erzeugung, Verbrauch und Netzfrequenz innerhalb der für den stabilen Netzbetrieb erforderlichen Sicherheitsmargen zu halten. Voraussetzung hierfür ist die Fähigkeit der einspeisenden Kraftwerke, ihre Energieerzeugung bedarfsgerecht entweder zu steigern oder zu drosseln.

Solar- und Windenergieanlagen können solche gezielten Leistungsanpassungen prinzipbedingt nicht in nutzbarem Umfang erbringen und sind daher außerstande, das Netz zu stabilisieren. Im Gegenteil, ihre nur von den Zufällen von Wind und Wetter abhängige Einspeisung, die von den Netzbetreibern aufgrund gesetzlicher Vorgaben zwangsläufig abgenommen werden muss, erschwert den restlichen Kraftwerken die sowieso schon anspruchsvolle Aufgabe, das Netz auch im Falle unvorhersehbarer Störungen ständig im Gleichgewicht zu halten.

Reaktion auf Netzstörungen

Im Netz treten unablässig Änderungen der Belastung auf, die durch ständige Anpassung der Erzeugung aufgefangen werden müssen. Viele dieser Änderungen sind mit einer gewissen Zuverlässigkeit vorhersehbar – beispielsweise das Einschalten zahlloser Fernseher pünktlich zum Beginn eines Bundeligaspiels oder das morgendliche Duschen vor der Arbeit – und können daher in den Tagesfahrplänen der Kraftwerke berücksichtigt werden. Andere Ereignisse sind jedoch nicht planbar, zum Beispiel Leitungsausfälle, Trafo- oder Kraftwerksstörungen oder Blitzeinschläge, die zu Kurzschlüssen und damit zu größeren Ausfällen im Stromnetz führen können. Erschwerend kommt hinzu, dass solche Ereignisse oft in Sekundenbruchteilen eintreten, viel schneller, als jeder Mensch reagieren könnte. Erste Sicherheitsreserve im Netz sind deshalb die riesigen Schwungräder, als die in solchen Fällen die rotierenden Turbinen und Generatoren fungieren. In diesen rotierenden Massen (Bild 2) sind enorme Energiemengen gespeichert, die sofort zur Verfügung steht. Große Turbinen und Generatoren wiegen hunderte von Tonnen und rotieren mit hohen Drehzahlen, typischerweise 1500 oder 3000 Umdrehungen pro Minute.

 

Bild 2. Solche Wellen für Kraftwerke wiegen oft mehr als 100 Tonnen und rotieren mit bis zu 3000 Umdrehungen pro Minute. Sie speichern daher große Energiemengen Bild http://www.saarschmiede.com/69.html

Es ist die darin gespeicherte, sofort ohne jede Verzögerung verfügbare Energie, welche in den ersten Sekunden einer größeren Störung die Netzfrequenz und damit die Netzstabilität innerhalb der zulässigen Grenzen hält. Unmittelbar darauf reagieren die Dampfventile der für die Notversorgung herangezogenen Kraftwerke und sorgen beispielsweise dafür, dass mehr Dampf auf die Turbine geleitet wird. Damit wird die zweite Verteidigungslinie der Netzstabilisierung aktiviert, die großen Energiereserven, die in den vielen tausend Tonnen extrem hoch erhitzten und komprimierten Dampfs gespeichert sind, welchen die riesigen Dampfkessel fossiler Kraftwerke ständig vorrätig halten. Diese extrem schnelle und in Sekunden verfügbare Stabilisierung kann nur von dampfbetriebenen Fossil- und Kernkraftwerken mit massiven, schnell rotierenden Generatoren gewährleistet werden. Einen gewissen Beitrag können auch Wasserkraftwerke leisten. Solar- und Windenergie sind hierzu dagegen außerstande, denn sie halten weder nennenswerte Rotationsenergie vor noch lassen sich Sonne und Wind gezielt herauf- oder herunterregeln. Vor diesem Hintergrund lassen Behauptungen, eine 100 prozentige Stromversorgung aus erneuerbaren Energien ohne konventionelle Kraftwerke sei möglich, doch erhebliche Zweifel daran aufkommen, ob die Betreffenden überhaupt wissen, wovon sie reden.

Worst Case: Ein Kraftwerks-Totalausfall

Eine der kritischsten Situationen, auf die eine Netzleitstelle ständig vorbereitet sein muss, ist der Totalausfall des größten derzeit am Netz befindlichen Kraftwerks oder einer sonstigen leistungsbestimmenden Komponente wie einer großen Fernleitung. Die im Netz vorgehaltenen Leistungsreserven müssen selbst in einem solchen Fall ausreichen, um einen Zusammenbruch zu verhindern. Dafür muss die ausgefallene Leistung innerhalb von Sekundenbruchteilen ersetzt werden. Um das zu erreichen, muss die Leitstelle dafür sorgen, dass automatisch genügend Zusatzleistung von den anderen mit dem Netz verbundenen Großkraftwerken bereitgestellt wird. Da einige wenige Kraftwerke einen solchen plötzlichen Mehrbedarf gar nicht stemmen könnten, wird die benötigte Ersatzleistung in vielen Teilbeträgen auf zahlreiche Kraftwerke aufgeteilt. Die einzelnen Beiträge sind dabei so klein, dass die jeweiligen Kraftwerke damit noch problemlos zurechtkommen. In der Regel sind dies 2,5 % der jeweils möglichen Erzeugungsleistung. Diese Reserve muss zur Hälfte innerhalb von 5 Sekunden und insgesamt innerhalb von 30 Sekunden bereitgestellt werden [PRIM]. Im Rahmen ihrer ständigen Notfallbereitschaftsplanung führt die Netzleitstelle eine ständig aktualisierte Liste mit denjenigen Kraftwerken, die zurzeit am Netz sind und über die Fähigkeit verfügen, diese Systemdienstleistung zu erbringen. Die Leistungsregler dieser Kraftwerke müssen hierfür ständig direkt von der Leitstelle aus ansteuerbar sein und werden von dort im Notfall dann aufgefahren. Dies erfolgt vollautomatisch computergesteuert innerhalb von Sekundenbruchteilen, viel schneller als ein Mensch reagieren könnte. Da Deutschland im Rahmen des europäischen Verbundnetzes im Notfall auch auf Hilfe aus dem Ausland zählen kann, liegt der Umfang dieser Leistungsreserve, die jederzeit abrufbereit zur Verfügung stehen muss, bei 700 MW [PRIM]. Aus beiden Angaben lässt sich leicht ausrechnen, dass zur Aufrechterhaltung der Netzsicherheit jederzeit 28000 MW an primärregelfähiger Kraftwerksleistung am Netz sein müssen – was inzwischen jedoch aufgrund des ständig wachsenden Aufkommens an Solar- und Windstrom im Netz nicht mehr ständig der Fall ist, Bild 3.

Bild 3. Als am 27.10. 2013 – einem Sonntag mit geringer Netzlast – ein Sturm über Deutschland hinwegfegte, war das Aufkommen an zwangseingespeistem Wind- und Solarstrom so hoch, dass der Beitrag konventioneller Kraftwerke unter die kritische Marke von ca. 28.000 MW gedrückt wurde (Daten: Strombörse EEX)

Wird diese kritische untere Grenze unterschritten, so gerät das Netz in Gefahr. Zwar kann man in solchen Fällen über das europäische Verbundnetz Hilfe von den Nachbarn erhalten, doch erwarten diese im umgekehrten Falle natürlich gleichwertige Dienste auch von Deutschland, so dass die ständig vorzuhaltende Leistung in der Summe letztlich gleich bleibt.

Die erste Regelebene ist entscheidend

Neben den ersten beiden Regelebenen – der Trägheitsreserve und der Sekundenregelung – verfügt die Leitstelle noch über eine Sekundär und Tertiärebene [WIKI], die innerhalb von 30 s bis 5 min bzw. innerhalb von 5 bis 15 min zur Verfügung stehen müssen. Aus diesem Grund bezeichnet man die zweite Ebene als Sekundenreserve und die dritte Ebene als Minutenreserve. Zur Sekundenreserve gehören vor allem schnellstartfähige Kraftwerke wie Gaskraftwerke, die innerhalb kürzester Zeit von Null auf Vollleistung gehen können, sowie Speicher-Wasserkraftwerke, die nur die Regelventile weiter zu öffnen brauchen. Die Sekundärregelung hat vor allem die Aufgabe, den Abfall der Netzfrequenz aufzufangen und damit die „rotierende Reserve“ zu entlasten, so dass sie für eventuelle weitere Notfälle wieder voll verfügbar wird. Überlappend hierzu werden auch die anderen Regelebenen aktiviert, indem zunächst Pumpspeicher- oder Gasturbinenkraftwerke – die auch die Sekundärregelung besorgen – und mit entsprechender Zeitverzögerung auch Großkraftwerke auf höhere Leistung gefahren werden.

Ungeachtet der Feinheiten des Zusammenspiels verschiedener Regelebenen muss man sich jedoch darüber im Klaren sein, dass die ersten Sekundenbruchteile einer größeren Störung entscheidend sind. Gelingt es nicht, das Netz innerhalb dieser ersten „Flackersekunden“ zu stabilisieren, so reicht selbst eine noch so große, aber eben erst nach 30 s verfügbare Zusatzleistung nicht aus, um einen Zusammenbruch zu verhindern: Dann geht es, bildlich gesprochen, nicht mehr um Therapie, sondern um Autopsie, denn die unterbrechungsfreie Stromversorgung ist dann nicht mehr möglich, es müssen Netze und/ oder Verbraucher abgeworfen und später mit hohen Kosten wieder hochgefahren werden.

Und bei der Betrachtung der zur Verfügung stehenden Rotationsenergie zeigt sich, dass die oft als „Dinosaurier“ geschmähten Großkraftwerke (Bild 4) hier einen entscheidenden Vorteil gegenüber kleineren Einheiten haben, denn ihre riesigen Turbinen-Rotor-Einheiten können erheblich mehr Energie speichern als kleinere Systeme, weil die Energie eines Schwungrads mit dem Quadrat des Durchmessers zunimmt.

 

Bild 4. Die oft als Dinosaurier geschmähten großen Dampfkraftwerke – hier das Kraftwerk Neurath – sind für die Aufrechterhaltung der Netzstabilität ganz einfach unersetzlich (Foto: Kohlekraftwerke.de)

Enorme Risiken

Vor diesem Hintergrund versteht man schnell, dass die „Energiewende“ mit der ins Auge gefassten Steigerung der Kapazitäten an Wind- und Solarstromerzeugung so nicht funktionieren kann, ohne die Netzstabilität zu opfern. Zur Zeit sind 32000 MW Windleistung und 34000 MW Solarleistung am deutschen Netz [EEX]. Sie tragen kumuliert jedoch nur etwa 12 % zur Gesamtstromerzeugung bei. Um die ca. 64 % zu erreichen, die nach EEG-Planung bis 2050 erreicht werden sollen (Annahme: 80 % Wind- und Solaranteil an insgesamt 80 % EE-Erzeugung), müssten bei gleichbleibendem Verbrauch noch fünfmal so viele Windräder und Solaranlagen wie aktuell verfügbar aufgestellt werden. Damit würden die konventionellen Anlagen endgültig aus dem Markt gedrängt, obwohl sie bei Flaute und fehlendem Sonnenschein dennoch gebraucht werden. Das ist völlig unrealistisch, kann doch die Lage in den deutschen Netzen bereits jetzt als kritisch bezeichnet werden [FOCU, RWE]. So sagte der Tennet-Chef einem Bericht in den VDI-Nachrichten vom 4.10.2013 zufolge: „Wir haben heute im Schnitt drei Eingriffe ins Stromnetz am Tag. Vor zehn Jahren waren es drei im gesamten Jahr” [EIKE]. Ähnliche Meldungen gibt es auch von den anderen deutschen Netzbetreibern. Falls nicht bald gegengesteuert wird, drohen im Falle von Blackouts insbesondere in modernen Industrien (Bild 5) mit ihren fein austarierten Hochleistungsprozessen oft enorme Schäden [BER].

 

Bild 5. Stromausfälle legen die in jedem modernen Betrieb unentbehrlichen Computer lahm. Das kann zu erheblichen Ausfällen und sogar Anlagenschäden führen

Schon eine einzige Stunde Blackout in Deutschland kann Schäden von bis zu 600 Mio. € verursachen [WEWO]. Hält man sich diese Tatsachen vor Augen, so weiß man angesichts von Berichten wie dem des Spiegel-Journalisten Stefan Schultz [SPON], der behauptet, die Stromversorgung lasse sich auf absehbare Zeit auch mit den bestehenden Mitteln ohne die Gefahr von Blackouts sichern, wirklich nicht mehr, ob man nun lachen oder weinen soll.

Vor diesem Hintergrund sind die jüngsten Äußerungen von RWE-Chef Peter Terium, dass sein Unternehmen aus den Planungen zum Bau konventioneller Kraftwerke komplett aussteigen will [RWE2], im Prinzip als Resignation zu werten. Im Bereich der Stromversorger scheint man offensichtlich die Hoffnung aufgegeben zu haben, dass die deutsche Politik in absehbarer Zukunft wieder zur Vernunft findet. Frau Merkel und ihre neue Regierung haben damit ein im Prinzip unlösbares Problem am Hals, noch bevor die Koalition auch nur steht. Auf Deutschland dürften somit im Sinne des Wortes düstere Zeiten zukommen.

Fred F. Mueller

Quellen

[BER] Bericht “Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel eines großräumigen und langandauernden Ausfalls der Stromversorgung”, Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestags (04/2011)

[EEX] http://www.transparency.eex.com/de

[PRIM] http://www.udo-leuschner.de/basiswissen/SB124-03.htm

[EIKE] http://www.eike-klima-energie.eu/news-cache/deutscher-journalismus-kommmir-nicht-mit-fakten-meine-meinung-steht/

[FOCU] http://www.focus.de/immobilien/energiesparen/bedrohliche-energiewende-502-stoerfaelle-im-ersten-halbjahr-stromnetz-steht-vor-kollaps_aid_1089770.html

[RWE] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[RWE2] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[SPON] http://www.spiegel.de/wirtschaft/soziales/kraftwerke-darum-braucht-deutschland-keinen-teuren-reservemarkt-a-929302.html

[WEWI] http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)