Über die Illusion der Minderung des CO2-Ausstoßes durch Ausstieg aus der Kohle ohne existierende Stromspeicher
Das bedeutet dann weiterhin, dass
a) die Umstellung von Verbrennungsmotoren auf Elektromotore keinen Sinn macht
b) die geforderte Verminderung des CO2-Aussoßes bei Verbrennungsmotoren auf Mittelwerte für die jeweilige Autoflotte in 2021 auf 95 g CO2/km (etwa 3-4 l/100 km) und die jüngst in der Diskussion stehende weitere Verminderung um 35% bis 2030 für Deutschland völlig obsolet geworden ist, da diesen Extremforderungen nur durch einen erheblichen Anteil an Elektroautos nachgekommen werden könnte.
_______________________________________________________________
Die Kohlekommission zum Ausstieg aus der Braunkohle zur Absenkung des CO2-Ausstieges hat ihre Arbeit aufgenommen, spätestens am Ende des Jahres soll sie liefern.
Erste Aussagen dringen bereits durch: kurzfristige Abschaltung von Braunkohlekraftwerkskapazität von 5 Gigawatt (GW), Verzicht auf den Anschluß des modernen Uniper-Steinkohlekraftwerkes in Datteln (1,1 GW-Block) mit einem Wirkungsgrad von 58%, das Klima-freundlichste Kohlekraftwerk Deutschlands.
Eine gründliche Diskussion einer Fehleranalyse zur Durchführung der Energiewende hat es nie gegeben, man schlittert von einer Energiewende in die andere.
So wurde nie die Frage diskutiert, ob die Energiewende bei einer von der Abnahme der Stromverbraucher stark abhängige und schwankende Leistungsanforderung mit der flatternden Stromerzeugung über Wind+Sonne überhaupt möglich ist und ob bei den technisch möglichen Gegebenheiten (Stromspeicher) über eine Herausnahme der Kohle im Strommix eine Absenkung des CO2-Ausstoßes überhaupt funktionieren kann.
- Nach dem Atomausstieg nun der Ausstieg aus der Kohle analog zur Anhebung der erneuerbaren Energien auf 65% bis 2030 und darüber hinaus (Koalitionsvertrag 2018)
In einer früheren Arbeit (1) war die Anhebung der erneuerbaren Energien auf 65% bis 2030 auf Kosten des Kohleanteiles auf der Basis der Zahlen des Jahres 2017 quantifiziert worden einschließlich einer Betrachtung der Verhältnisse bis zum 100%igen Anteil an erneuerbaren Energien, so dass im Folgenden die Berechnungsschritte im Einzelnen nicht mehr aufgeführt werden müssen. Als Ergebnis soll hier nur noch einmal festgehalten werden:
a) Bei einer Anhebung der Erneuerbaren auf 65% bis 2030 kann über Braun- und Steinkohle nur noch eine Leistung von 1,4 bzw. 9,6 GW beigestellt werden. Dazu muß eine Leistung über Wind+Sonne von 250 GW installiert werden (vgl.später auch Bild 3).
Zur Aufrechterhaltung der Stromerzeugung müssen jedoch in 2030 im Jahresmittel Stromspeicher mit einer Kapazität von 435 GWh/Tag bzw. einer Leistung von 18 GW zur Verfügung stehen.
Das schließt nicht aus, dass an einzelnen Tagen die klomplette über Wind+Sonne beizustellende Leistung gegen null gehen kann, d.h. dass die Stromspeicher in der Lage sein müssen, eine Tagesleistung von 1610 GWh abzudecken oder gar eine 14-tägige Windflaute (vgl. später).
b) Bei Fortführung der Geschwindigkeit der Anhebung der Erneuerbaren über 2030 hinaus könnte in 2037 auf Kohle komplett verzichtet werden, wenn 327 GW über Wind- und Solaranlagen installiert werden. Zur Abdeckung einer täglichen Leistungsanforderung von 80 GW wären dann bereits 420 GW erforderlich, ohne noch einmal die müßige Frage der Stromspeicherung strapazieren zu wollen.
d) Auf das Problem des Ausbaues der Netzkapazität soll hier nicht eingegangen werden.
- Sichtbarmachung des Problems der Stromversorgungssicherheit
In Bild 1 ist die Entwicklung des Ausbaues der Windleistung onshore und offshore von 2010 bis Juni 2018 auf der Basis von Stundenwerten dargestellt. (2) Lag in 2010 die installierte Leistung (rote Linie) noch bei etwa 27 GW, so stieg sie in 2018 auf über 55 GW an.
Bild 1: Entwicklung der installierten und erzielten Windleistungen
Erkennbar ist eine permanente starke Streuung der Stromleistungen zwischen praktisch null GW und nahe an die Installationsleistung heranreichende Werte, die bei einer Auflösung der Stundenwerte in kleinere Zeiteinheiten anzunehmen sind.
Bild 2: Schwankungsbreite der vom Verbraucher geforderten und von den alternativen Energien gelieferten Leistungen im Dez. 2017
Es ist deulich zu erkennen, dass bei einem Anteil an erneuerbaren Energien von etwa 30% die erzeugte Leistung teilweise gegen null geht und teilweise bereits an die von den Verbrauchern geforderte Leistung heranreicht. Wenn nun die Erneuerbaren im ersten Schritt auf 65% in 2030 angehoben werden sollen oder gar auf 100%, so wird die unabdingbare und sofortige Forderung nach funktionierenden Stromspeicher deutlich.
Bild 2zeigt zudem den Stromimport wie -export sowie die an der Strombörse gehandelten Strompreise. Die teilweise negativen Strompreise machen bereits jetzt die Notwendigkeit der Stromspeicher deutlich.
Aber das einzige z.Z. diskutierte Speicherverfahren Power-to-Gas ist von einer technischen Reife und Bezahlbarkeit bei solchen zu speichernden Strommengen in 2030 meilenweit entfernt. In 2030 sollen gerade einmal 7,5 GW installiert sein. (4)
Der Generalsekretär des europäischen Energieverbandes Eurelectric, K.Ruby, klagte, es müsse dringend diskutiert werden, wie es in ganz Europa bei den ständig weiter abgebauten Atom- oder Kohlekraftwerken eine ausreichende Menge an gesicherter Leistung geben könne.
Auch der Chef des deutschen Branchenverbandes BDEW, Kapferer, verwies auf eine Stellungnahme von 10 Verbänden: es fehle ein Konzept, wie die Versorgung in Deutschland nach der Abschaltung der Kernkraftwerke und der bis 2030 erwarteten Halbierung des Kohlestromangebotes gesichert werden könne. Dabei gehe es immerhin um etwa 30 GW. (FAZ, 11.10.2018)
- Ausschließliche Stromerzeugung aus alternativen Energien ohne ausreichende Stromspeicherkapazität und ihre Bedeutung für den CO2-Ausstoß
In der in Kapitel 1 zitierten Arbeit (1) war die Auswirkung der Erhöhung der Alternativen auf 65% bis 2030 und darüber hinaus auf Kosten des Kohleanteiles berechnet worden.
Dieses in (1) dargestellte Bild ist im Sinne der o.g. Aufgabenstellung hier leicht modifiziert worden (Bild 3).
Bild 3: Notwendiger Kohleanteil im Strommix ohne funktionierende Stromspeicher
Über dem Anteil der mit zunehmenden Erneuerbaren abnehmende Kern- und Kohleanteil im Strommix ist die stark zunehmende zu installierende Kapazität über Wind+Sonne aufgetragen mit einer mittleren Gesamtleistung von 66,6 GW über den gesamten Zeitraum (rot gestrichelt im Bild dargestellt).
Die über Wind+Sonne eingestellte mittlere Stromerzeugungskapazität von 66,6 GW besagt bei den in den Bildern 1 und 2aufgezeigten Streubreiten der Leistungsträger Wind+Sonne , dass der oberhalb dieses Mittelwertes anfallende Strom aus Wind+Sonne gespeichert werden muß, um ihn dann bei Wind- und Solarleistungen unterhalb des Mittelwertes wieder einspeisen zu können.
Schließlich bedeuten diese Aussagen, dass ohne eine ausreichende und funktionierende Stromspeicherkapazität eine Absenkung des CO2-Ausstoßes nicht möglich ist, d.h. das Ende der Energiewende ist längstens erreicht.
Nach Aussagen des Bundesrechnungshofes kostete diese Energiewende zu allem Überfluß in den letzten 5 Jahren 150 Mrd.€ (der Hälfte des Bundeshaushaltes), alleine in 2017 34,36 Mrd. €.
a) eine Umstellung vom Verbrennungsmotor auf den Elektromotor nun keinen Sinn mehr macht
b) die erforderliche Verminderung des CO2-Ausstoßes des Verbrennungsmotors für die Autoflotte in 2021 auf 95 g CO2/km (entsprechend etwa 3-4 l/100 km) und die jüngst in der Diskussion stehende weitere Verminderung von 35% bis 2030 völlig obsolet geworden ist, da diese Extremforderungen nur durch einen erheblichen Anteil an Elektrofahrzeugen zustande kommen kann.
Um weiteren nicht mehr rückgängig zu machenden Schaden von Deutschland abzuwenden, muß die komplette Energiewende eingestampft werden mit einem Neuanfang ohne postfaktisches Geplänkel.
Die Ausarbeitungen des IPCC und ihre Modelle zum Einfluß des CO2 auf das Klima fußen auf Fake News. (1) So können die Modelle die Vergangenheit nicht nachvollziehen, wohl aber werden sie dazu mißbraucht, die Zukunft in Form von Untergangsszenarien zu beschreiben (Weltuntergang durch Verglühen durch hohe CO2-Gehalte, obwohl die Erdgeschichte schon um Potenzen höhere Zeiträume prächtig überstanden hat).
Quellen
- 2. Schuster, R.: Mitteilung 03.07.2018
3. Schuster, R.: Mitteilung 02.01.2018
Ein von Energie befreiter Lebensstil: zu wenig Nahrung, kein sauberes Wasser, kein Strom, kein Zugang zu Gesundheitsvorsorge usw.
„Kohlenstoff“ – was auch immer
Natürlich ist mit diesem Unsinn von „Kohlenstoff“-Speicherung in Wirklichkeit immer „Kohlendioxid“ gemeint und nicht der elementare Kohlenstoff wie in Kohle oder Diamanten, auch nicht Kohlenstoff enthaltende Treibstoffe. Für alle Leser ohne Chemie-Hintergrundwissen sei erwähnt, dass dieser Unterschied gleichbedeutend ist mit den Unterschieden zwischen „Tag und Nacht“ oder „Himmel und Hölle“. Um hierauf nicht lange herumzureiten, wollen wir einmal so tun, als seien „Kohlendioxid“ und „Kohlenstoff“ Synonyme.
Im Collins Dictionary heißt es: „CCS ist eine Technologie, um zu verhindern, dass große Mengen Kohlendioxid in die Atmosphäre freigesetzt werden. Dabei trennt man Kohlendioxid von den anderen Emissionen und leitet es in geologische Formationen ein. CCS meint das Einfangen und Speichern von Kohlendioxid aus Emissionen, um es nicht in die Atmosphäre gelangen zu lassen“.
Um zu unterstreichen, was gemeint ist: die Königlich Schwedische Akademie der Wissenschaften hat jüngst ihre Entscheidung bekannt gegeben, den Nobelpreis für Wirtschaft 2018 an William Nordhaus und Paul Romer zu verleihen für ihre Arbeit, die „half, fundamentale Fragen zu beantworten, wie man langfristiges, nachhaltiges Wachstum erhalten und das menschliche Wohlergehen fördern könnte“.
Sowohl Nordhaus als auch Rohmer sind eifrige Verfechter davon, „Kohlenstoff mit einem Preis zu belegen“, also mit einer neuartigen Steuer für alle Verbraucher irgendwelcher Kohlenstoff enthaltender Materialien. Auf der Website Carbon-Price.com heißt es: Nordhaus zufolge „ist Klimawandel eine spezielle Art ökonomischer Aktivität, welche bekannt ist als globale öffentliche Güter“. Um das Problem zu lösen, „sollten zumindest alle Länder vereinbaren, Kohlenstoff und andere Treibhausgas-Emissionen mit einer Strafsteuer zu belegen in Höhe eines vereinbarten Mindestpreises“.
Des Weiteren behauptet Nordhaus: „Dieser Schattenpreis sollte tatsächlich die Kosten repräsentieren, welche das Freisetzen von Kohlendioxid in die Atmosphäre ausmachen. Und damit wird Klimawandel plötzlich zu einem Problem, dem man mit den Mitteln der Ökonomie begegnen kann“.
Meiner Ansicht nach ist diese Behauptung hinsichtlich der „Kosten“ nichts weiter als das Befürworten eines Lebensstils ohne Energie für die Mehrheit der Menschheit, begleitet von fortgesetztem Nahrungsmangel, ohne sauberes Wasser, ohne Energie, ohne Gesundheitsvorsorge usw.
Warum dieser Krieg gegen Kohlenstoff?
Der Gedanke hinter CCS setzt voraus, dass dieses unsichtbare Spurengas, Kohlendioxid genannt, chemische Formel CO2, gegenwärtig zu 0,04% in der Luft enthalten, die ganze Welt rösten wird, falls dessen Zunahme nicht angehalten wird. Tatsächlich rufen die wirklich „weisen Männer“ (und genauso „weise Frauen“) nicht nur nach einem Stopp jedweden Verbrennens von Treibstoffen auf Kohlenstoffbasis (wie Erdgas, Kohle, Öl oder Dung). Stattdessen rufen sie tatsächlich nach der Anwendung von Technologien, um dieses „teuflische“ Gas aus der Atmosphäre zu entfernen – koste es, was es wolle.
Zum Beispiel haben verschiedene kanadische Regierungs-Institutionen derartige „Rettet-die-Welt“-Enthusiasten angefeuert, mit vermutlich großzügigen finanziellen Zuwendungen Pläne zu entwickeln, welche „kostenlose“ oder „freie Energie“ oder andere erderschütternde Vorteile versprechen. Zum Beispiel wird auf der Website Carbon Engineering behauptet: „Direct Air Capture (DAC) ist eine Technologie, welche atmosphärische Luft bearbeitet, das CO2 daraus entfernt und es reinigt. Die DAC-Technologie bewirkt dies in einem geschlossenen Kreislauf, in welchen einzig Wasser und Energie eingehen und ein Strom sauberen, komprimierten CO2 herauskommt“.
Ja wirklich, all die Technologien sind vorhanden, um all das zu bewerkstelligen; es gibt absolut kein technologisches Problem damit. Allerdings gibt es einen (nicht so geringen) Vorbehalt.
Der Vorbehalt
Jener Vorbehalt: Man braucht (viel) mehr Energie, um das zu bewirken, als man mit unserem Verbrennen von Kohlenstoff-Treibstoffen erzeugen kann. Nach einer groben (eher am unteren Ende liegenden) Schätzung denke ich, dass der Energiebedarf für das gesamte Einfang-und-Speicher-System drei bis fünf mal so hoch wäre wie die Energiemenge, welche man direkt aus dem Treibstoff auf Kohlenstoffbasis erzeugen könnte. Das ist also eindeutig nicht gerade eine vernünftige Art (jedweden Typ von) Energie zu verbrauchen. Vielmehr ist das genaue Gegenteil der Fall, nämlich eine phantastische Verschwendung derselben.
Natürlich muss man nicht einmal mehr die Grundlagen von Wissenschaften wie Chemie, Mathematik und Physik zu verstehen, um heutzutage ein hochrangiger Politiker zu werden. Vielleicht ist dieser Umstand sogar eine (ungeschriebene) Voraussetzung für einen Kabinettsposten? Man kann eigentlich nur auf diese Gedanken kommen, wenn man einige Repräsentanten der Regierung (und viele Andere) so reden hört.
Allerdings denke ich, dass das antike Rechtsprinzip „Im Zweifel für den Angeklagten“ ein altehrwürdiger Weg ist, die Gesellschaft mit einem Anker der Gerechtigkeit zu versehen. Schließlich hat sich dieses Prinzip in der westlichen Welt seit Jahrtausenden bewährt, nämlich seit der Zeit von Aristoteles (384 bis 322 v. Chr.). Jetzt aber zurück zu CCS und dem CCS-Syndrom.
CCS = Energieverschwendung
Folgt man dem CCS-Gedanken (nach der Collins-Definition), wäre dies eine gigantische Verschwendung von Ressourcen und Mühen, was – selbst bei weit verbreiteter Anwendung – keinerlei Unterschied bzgl. „Klimawandel“ ausmachen würde. Wenn es überhaupt etwas bewirken würde, dann dass viele der ärmeren Länder der Welt noch weniger Energie zur Verfügung hätten.
Was die ärmeren Nationen auf dieser Welt wirklich brauchen, ist nicht weniger, sondern mehr zuverlässige und bezahlbare Energie. Anstatt (mit fossilen Treibstoffen erzeugte) Energie für idiotische „Rettet-das-Klima“-Programme zu verschwenden, sollte man diesen Ländern Energie in Form von Kohle, Öl oder Erdgas spenden.
Dr. Kaiser is author of CONVENIENT MYTHS, the green revolution – perceptions, politics, and facts convenientmyths.com
Porträt eines Klima-Propagandisten, der sich als Journalist tarnt
Borenstein hat einen Abschluss in Journalismus und arbeitet seit 2006 für die Associated Press (AP) als Wissenschaftsreporter. Er könnte Anspruch auf das Journalismus-Label haben, außer dass alles, was er schreibt, voreingenommen, irreführend, verzerrt und falsch ist, weil er nur seine Seite jeder Geschichte präsentiert. Es ist keine Überraschung, dass er die jüngsten Behauptungen des IPCC ausnutzt. Sein Artikel zeigt, dass er ein Meister der Propaganda und gefälschten Nachrichten ist.
Viele haben seine Aktivitäten, Vorurteile und Verfehlungen identifiziert, aber eine gute Zusammenfassung erscheint in „Left Exposed“. Dort werden viele Beispiele aufgelistet, darunter auch Artikel in der Associated Press.
Im Juni 2006 veröffentlichte die Washington Post einen Beitrag von Seth Borenstein, mit der Überschrift “Scientists OK Gore’s Movie for Accuracy.”:
Die Top Wissenschaftler der Nation geben dem Dokumentarfilm „Eine unbequeme Wahrheit“ fünf Sterne für Korrektheit.
Dagegen nahm der US-Senatsausschuss für Umwelt und Öffentlichkeits-Arbeiten (EPW) Stellung in einer Pressemitteilung
[Hinweis: im Original ist ein falscher Link verknüpft, der von mir gefundene ist richtig, der Übersetzer]
Pressemitteilung: AP INCORRECTLY CLAIMS SCIENTISTS PRAISE GORE’S MOVIE
27. Juni 2006
Der Artikel in der Associated Press (AP) vom 27. Juni 2006 mit dem Titel „Wissenschaftler geben Gores Film das OK für Genauigkeit“ von Seth Borenstein, wirft einige ernste Fragen über die Voreingenommenheit und Methodik von AP auf.
AP entschied sich, die Zahl der Wissenschaftler zu ignorieren, die die Wissenschaft, die in dem Film „Eine unbequeme Wahrheit“ des ehemaligen Vizepräsidenten Al Gore präsentiert wurde, scharf kritisiert haben.
Im Interesse einer vollständigen Offenlegung sollte die AP die Namen der „mehr als 100 Top-Klimaforscher“ veröffentlichen, die sie kontaktieren wollten, um „Eine unbequeme Wahrheit“ zu überprüfen. AP sollte auch alle 19 Wissenschaftler benennen, die Gore „fünf Sterne für Genauigkeit gaben „AP behauptet, 19 Wissenschaftler hätten Gores Film gesehen, aber zitieren nur fünf davon in dem Artikel. AP sollte auch die Namen der sogenannten wissenschaftlichen „Skeptiker“ veröffentlichen, von denen sie behaupten, sie hätten sie kontaktiert.
Borenstein hat sich hartnäckig geweigert, die Namen bekannt zu geben.“
Der Artikel enthält keinen spezifischen Hinweis, auf die Berücksichtigung der von ihm selbst reklamierten journalistischen Prinzipien. Borenstein stand in ausschließlichem und regelmäßigem Kontakt mit den Leuten der Climate Research Unit (CRU), berüchtigt durch die im November 2009 veröffentlichten E-Mails, bekannt als Climategate, die das Niveau der korrupten Wissenschaft(ler) offenlegten. Eine E-Mail vom 23. Juli 2009, stammte auch von Borenstein. Er schrieb,
On Jul 23, 2009, at 11:01 PM, Jim Salinger wrote:
… Gibt es eine Chance an JGR zu schreiben und das Ganze als Müllwissenschaft darzustellen? … …..wenn es nicht widerlegt wird, dann werden alle Skeptiker dies nutzen, um ihre Meinung zu rechtfertigen.JimKevin Trenberth antwortet und wiederholt eine Mail von Phil Jones, in der dieser schreibt:
… Das IPCC soll feststellen und nicht alles was geschrieben wurde überprüfen
Das Wort „wieder“ weist auf eine vorherige Kommunikation. Die in der E-Mail vorkommenden Namen sind Kevin (Trenberth), Gavin Schmidt) und Mike (Mann). Marc Morano, ein [Gegner und Skeptiker und] ehemaliger Assistent von Senator James Inhofe, der einzige Senator, der sich über die korrupte IPCC-Arbeit aussprach. Marc betreibt jetzt Climate Depot , eine zuverlässige Informationsquelle. JGR ist das Journal of Geophysical Research. Der Artikel und die ganze Geschichte, auf die Bezug genommen wird, werden in “Censorship at AGU: Scientists Denied the Right of Reply.” „Zensur bei AGU: Wissenschaftler verweigert das Recht zu antworten“ diskutiert.
Borensteins Voreingenommenheit und der Mangel an selbst minimaler Objektivität, die vom Journalismus verlangt werden, sind offensichtlich, aber noch mehr, wenn Sie die gesamte IPCC-Täuschung betrachten. Das schockierende ist, dass die Schöpfer und die Teilnehmer des IPCC wussten, was sie taten. Es war von Anfang an eine vorsätzliche wissenschaftliche Täuschung, aber sollten Sie mir nicht glauben, sie haben es gesagt und ihre gescheiterten Ergebnisse bestätigen es. Hier ist das, was Borenstein den Leuten bewusst nicht erzählt.
Das IPCC hat bewusst eine Illusion von Gewissheit über ihre Wissenschaft und damit ihre Vorhersagen geschaffen. Sie wussten von Anfang an, dass die Wissenschaft unzulänglich und falsch war, weil sie es uns erzählten. Sie strukturierten den gesamten Prozess, um die Täuschung durchzuführen. Sie lassen die Menschen denken, dass sie alle [möglichen] Ursachen des Klimawandels untersuchen, dabei betrachten sie nur vom Menschen verursachte Veränderungen. Das ist nur möglich, wenn Sie mehr über den Klimawandel und die Mechanismen kennen und verstehen, aber wir nicht. Es erlaubte ihnen, alle nicht-menschlichen Ursachen der Veränderung zu ignorieren.
Das IPCC erstellte vier Berichte , aber nur zwei folgerichtig. Der erste von Arbeitsgruppe I trägt den Titel “ The Physical Science Basis“. Dessen Ergebnisse untermauern den zweiten und dritten Bericht, also zählen sie nicht. Das vierte ist der Synthesis Report Summary for Policymakers.(SRS) Zusammenfassung für politische Entscheidungsträger. Er wurde zuletzt geschrieben, aber zuerst von der Redaktion veröffentlicht, wie der IPCC Reviewer David Wojick erklärte:
Was aus dem SRS systematisch weggelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die die menschliche Interferenztheorie[… Einflussnahme] negieren könnten. Anstatt diese Einwände zu bewerten, behauptet die Zusammenfassung selbstbewusst nur die Ergebnisse, die ihren Fall stützen. Kurz gesagt, das ist Interessenvertretung, nicht Beurteilung.
In diesem letzten Fiasko hat der IPCC einen Sonderbericht zum SRS erstellt, um sicherzustellen, dass niemand den Hype verpassen würde. Zweifellos haben sie das getan, weil die Umfragen zeigen, dass sich die Öffentlichkeit ironischerweise, teilweise von der Fehlinformation Borensteins abwendet.
Der Science Report steht in direktem Gegensatz zum SRS. Er listet alle Probleme auf, Mangel an Daten, unvollständiges Wissen über Mechanismen und schwerwiegende Einschränkungen der Wissenschaft. Im Jahr 2012 habe ich eine im Umfang begrenzte Listung der Probleme erstellt.
Das IPCC erstellt die Zusammenfassung zuerst und in dem Wissen, dass es die Medien und die Öffentlichkeit täuschen will. Aber selbst wenn jemand den Wissenschaftsbericht liest, ist es unwahrscheinlich, dass er es versteht, und wenn er es tut, wird derjenige ausgegrenzt als Skeptiker, Leugner oder Schlimmer: bezahlt durch eine Ölgesellschaft. Unabhängig von meiner Aufstellung, genügt ein Zitat aus Abschnitt 14.2.2 des Wissenschaftlichen Teils des Dritten IPCC-Berichts, um zu beweisen, dass sie die Zukunft nicht vorhersagen können:
„Insgesamt muss eine Strategie erkennen, was möglich ist. In der Klimaforschung und -modellierung sollten wir erkennen, dass es sich um ein gekoppeltes nichtlineares chaotisches System handelt und daher die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist „ (Mein Schwerpunkt).
Denken Sie an die weitere Tatsache, die erklärt, warum ihre Computerprognosen scheitern. Ihre Computermodelle sind so programmiert, dass ein CO2-Anstieg [von vorher] einen Temperaturanstieg [danach] verursacht.
Jede Aufzeichnung der Wetterdaten zeigt jedoch genau das Gegenteil, zuerst steigt die Temperatur, erst danach das CO2.
Die IPCC-Klimaprognosen waren seit dem frühesten Bericht von 1990 falsch. Sie waren so falsch, dass sie aufhörten, sie Prognosen zu nennen und drei „Projektionen“ daraus machten; niedrig, mittel und hoch. [Trotzdem] waren seitdem sogar ihre „niedrigen“ Szenario-Prognosen (Vorhersagen) falsch.
Jede IPCC-Vorhersage ist falsch und wenn Ihre Vorhersage falsch ist, ist auch die [genutzte] Wissenschaft falsch. Das garantiert, dass die 12-Jahres-Vorhersage im aktuellen Bericht falsch ist. Das IPCC weiß das, aber es egal, denn es geht um Politik, nicht um Wissenschaft. Es gibt keine bestätigenden Beweise; ein vertrauter Refrain in Washington in diesen Tagen. Hier ist es jedoch schlimmer, weil die Beweise der Behauptung widersprechen.
Nur wenige Wissenschaftler, wahrscheinlich nur etwa 3%, haben überhaupt einen der Berichte gelesen. Die angenommenen 97% anderen, gehen davon aus, dass andere Wissenschaftler die Wissenschaft nicht für eine politische Agenda manipulieren würden. Einer, der die Berichte gelesen hat, ist der deutsche Physiker und Meteorologe Klaus Eckart Puls [der auch öfter bei Eike schreibt]:
Puls: Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was das IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was der IPCC und die Medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten und Messungen gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen „nach-erzählt“ habe, dafür schäme ich mich heute.
Die offensichtlich in Deutschland besonders stark ausgeprägte CO2-Klima-Hysterie wird meines Erachtens durch eine Interessen-Gemeinschaft von Profiteuren ideologisch und materiell vernetzt und durchgesetzt.
Die letzte „Bedrohung“ ist ein Anstieg um 1,5 bis 2 ° C, aber [keiner sagt, von welchem Niveau aus, und] die globalen Temperaturen waren während des Holozän-Optimums in den letzten 10.000 Jahren auf mindestens den gleichen Stand wie heute. Eine Studie zeigte, dass es vor 9000 Jahren 6°C wärmer war. Die Eisbären und die Welt haben überlebt. Erwarten Sie jedoch nicht, dass solche Journalisten wie „Borenstein“ überhaupt die Fakten berücksichtigen oder eine Erklärung liefern. Wenn es so wäre, wäre Journalismus keine Propaganda.
Gefunden auf Technocracy News vom 11.10.2018
Übersetzt durch Andreas Demmig
Neue Erkenntnisse über die fehlende anthropogene Ursache der Alpen-Gletscherschmelze in einer Fachveröffentlichung des Schweizer Paul Scherrer Instituts
Vorab der Kenntnisstand über die Alpengletscher vor Erscheinen der PSI-Studie (von H.-J. Lüdecke)
Das der Öffentlichkeit von den Medien angediente Bild der Alpengletscher war schon immer falsch. Die Temperatur Grönlands und der Nordhemisphäre ist seit Ende der letzten Eiszeit gesunken (s. Bild A). Die nordhemisphärische Gletschermasse über die letzten 9000 Jahre war in der überwiegenden Zeit kleiner als heute (s. Bild B). Die stetig von heute wieder schmelzenden Gletscherzungen freigelegten Baumreste belegen sehr anschaulich die höheren Baumgrenzen der Vergangenheit (s. Bild C).
Bild A: Verlauf der Grönlandtemperaturen über die letzten 8000 Jahre aus Lecavalier et al., Quaternary Science Reviews 63 (2013).
Bild B: Delta 18O aus grönländischen Eisbohrkernen. Die Werte entsprechen den Temperaturen seit Ende der letzten Eiszeit (Zeitskala Jahre von 2000 n.Chr.), Bildautor Prof. Dr. Gernot Patzelt, Univ. Insbruck.
Bild C: Von schmelzender Gletscherzunge freigegebener Baumrest, der eine früher höhere Baumgrenze belegt, Bildautor Prof. Dr. Gernot Patzelt, Univ. Innsbruck
Eine für die moderne Menschheit maßgebende Unterbrechung dieses Geschehens war die „kleine Eiszeit“, die etwa Ende des 15. Jahrhunderts einsetzte und bis Mitte des 19. Jahrhunderts andauerte. Die Alpengletscher begannen nach Ende der kleinen Eiszeit wieder zu schmelzen. Dokumentiert ist dies u.a. von „H. Holzhauser: Auf dem Holzweg der Gletschergeschichte, Sonderdruck aus „Mitteilungen der Naturforschenden Gesellschaft in Bern“, Band 66, 2009 (hier)“ sowie seiner weiteren Veröffentlichung „Neuzeitliche Gletscher-Schwankungen, Geogr. Helv. 2, 1982 (hier)“. Aber auch von „H. J. Zumbühl: Die Schwankungen der Grindelwaldgletscher in den historischen Bild- und Schriftquellen des 12. bis 19. Jahrhunderts, Birkhäuser Verlag 1980) (hier)“. Und schlussendlich sogar vom Deutschen Alpenverein: (Praterinsel München), Jg. 1885, Band XVI, S. 54-65, Fortsetzung Im Jg. 1888. Die Beobachtungen des dt. Alpenvereins begannen in 1881, berichtet wurde von Prof. Eduard Richter aus Salzburg, sie betrafen verschiedene Gletscher im Ötztal, Zillertal und die Pasterze.
Zu betonen ist, dass es zum Zeitpunkt des Schmelzbeginns noch praktisch kein menschgemachtes CO2 gab. Mitte des 19. Jahrhunderts unterschied sich die CO2-Konzentration der Luft mit 286 ppm noch praktisch nicht von der in der weiteren Vergangenheit, und erst ab 1960 mit 316 ppm begann sich der Einfluss der Industrialisierung in der CO2-Konzentration der Luft deutlicher bemerkbar zu machen (hier).
Das erneute Schmelzen der Alpengletscher um die Mitte des 19. Jahrhunderts konnte infolgedessen keine Ursache in Konzentrationsveränderungen des Spurengases CO2 gehabt haben. Tatsächlich konnte man aber auch keine andere sichere Ursache für das erneute Schmelzen finden. So entstand die Hypothese vom Ruß aus der britischen Industrialisierung als Ursache. Damit räumt nun die Veröffentlichung von Sigl et al. in Cryosphere, 2018 auf (hier). Nachfolgend nun die Pressemeldung des Pauls Scherrer Instituts (Original-Medienmitteilung hier)
Warum die Kleine Eiszeit Mitte des 19. Jahrhunderts endete
Analyse von Eisbohrkernen liefert erstmals lückenlose Daten von 1740 bis heute zum industriellen Russ
In der ersten Hälfte des 19. Jahrhunderts führte eine Serie grosser Vulkanausbrüche in den Tropen zu einer vorübergehenden globalen Abkühlung des Erdklimas. Dass in dieser Endphase der sogenannten Kleinen Eiszeit die Alpengletscher wuchsen und anschliessend wieder zurückgingen, war ein natürlicher Prozess. Dies haben nun PSI-Forschende anhand von Eisbohrkernen nachgewiesen. Bislang wurde vermutet, dass industrieller Russ ab der Mitte des 19. Jahrhunderts die damalige Gletscherschmelze ausgelöst hatte. Die erstmalige Analyse der im Eis eingeschlossenen und so historisch archivierten Russmenge widerlegt diese Vermutung nun. Die hierbei ermittelten Werte zum zeitlichen Verlauf der Russmenge werden zudem dazu beitragen, dass Forschende, die zukünftige Klimamodelle erstellen, auch für den Beitrag des industriellen Russes experimentelle Daten nutzen können. Die Ergebnisse wurden nun in der wissenschaftlichen Fachzeitschrift The Cryosphere veröffentlicht (hier).
In populärwissenschaftlichen Darstellungen werden oft Bilder der Alpengletscher aus den 1850er Jahren zum Vergleich herangezogen, um den menschengemachten Klimawandel zu visualisieren. Dies ist jedoch falsch, haben Forschende nun anhand von Daten aus Eisborkernen nachgewiesen. Die Wissenschaftler um Michael Sigl vom PSI analysierten die in den unterschiedlichen Eistiefen archivierte Luftzusammensetzung und darin vor allem die Menge an industriellem Russ. Sie erstellten so für Mitteleuropa die erste ununterbrochene Datenreihe zur Menge des industriellen Russes in der Atmosphäre für die Zeit von den 1740er Jahren bis heute.
Bild 1: Die Chemikerin Margit Schwikowski mit einem Eisbohrkern am Colle Gnifetti. (Foto: Paul Scherrer Institut/Beat Gerber)
Diese Daten zeigen eindeutig, dass industrieller Russ kaum verantwortlich sein kann für die damalige Schmelze der Alpengletscher, die sich vor allem zwischen 1850 und 1875 vollzog. Bis 1875 waren bereits rund 80 Prozent des damaligen Gletscherrückgangs abgeschlossen, so Sigl. Doch erst ab 1875 überstieg die Menge an industriellem Russ in Mitteleuropa die natürlich in der Atmosphäre vorhandene Menge. Nur bei den letzten 20 Prozent des Rückgangs könnte der Russ eventuell einen Einfluss gehabt haben, stellt Sigl klar.
Bild 2: Das Camp der Forschenden im Jahr 2015 auf dem südöstlich von Zermatt gelegenen Colle Gnifetti. Hier hat das Forschungsteam sowohl 2003 als auch 2015 mehrere bis zu 82 Meter lange Eisbohrkerne entnommen. (Foto: Paul Scherrer Institut/Michael Sigl)
Die erste Hälfte des 19. Jahrhunderts war geprägt von mehreren grossen Vulkanausbrüchen in den Tropen, deren ausgestossene Schwefelpartikel zu einer vorübergehenden globalen Abkühlung führten. In dieser finalen Kaltphase der sogenannten Kleinen Eiszeit wuchsen bis Mitte des 19. Jahrhunderts die Alpengletscher noch einmal stark an. Bislang dachte man, dass ihr Rückgang ab den 1860er Jahren auch auf den Beginn der Industrialisierung zurückzuführen sei. Doch die PSI-Ergebnisse wiederlegen diese Theorie nun eindeutig: Es handelte sich (zunächst) lediglich um einen Rückgang zur vorherigen, ungestörten Gletscherausdehnung.
Bild 3: Michael Sigl im analytischen Labor am PSI mit verschiedenen Eisproben aus dem 19. Jahrhundert, in denen die Luftzusammensetzung archiviert ist. (Foto: Paul Scherrer Institut/Markus Fischer)
1850 eignet sich nicht als Referenzjahr für Klimamodelle
Die Frage, ab wann der menschliche Einfluss auf das Klima beginnt, ist weiterhin offen, sagt Sigl. Und dieser Beginn, so zeigt diese Studie, ist aufgrund weiterer Faktoren nicht unbedingt ein geeigneter Referenzwert für Klimamodelle. Sigl schätzt, dass sich die 1750er Jahre besser als vorindustrielle Referenzzeit eignen, also ein Zeitpunkt vor der Kleinen Eiszeit. Auch bisher wird schon – wann immer es die dünne Datenlage vergangener Jahrhunderte ermöglicht – 1750 als Referenzjahr angenommen, wenn es in Klimamodellen darum geht, Daten aus der vorindustriellen Zeit mit denen nach Beginn der Industrialisierung zu vergleichen. Das ist sinnvoll, denn dass das Klima in der Mitte des 19. Jahrhunderts nicht das urtümliche war, sehen wir in unseren Daten nun deutlich.
Zukünftige Klimamodelle könnten die experimentellen Russdaten einberechnen
In Modellrechnungen zum Klimawandel geht auch der zeitliche Verlauf der Russmenge in der Atmosphäre als eine von vielen Variablen ein. Bisher wird von den Modellierern jedoch ein Schätzwert der jeweiligen Russmenge eingesetzt, so Sigl. Vor allem für das 19. Jahrhundert liegen hierbei nur grobe Schätzungen der einzelnen Industrienationen auf Grundlage des damaligen Energieverbrauchs zugrunde. Für die zweite Hälfte des 19. Jahrhunderts wurde bislang ein linearer Anstieg der Russmenge in der Atmosphäre angenommen, so Sigl. Dass dies nicht der Realität entspricht, lässt sich dank der Eisbohrkernuntersuchungen von Sigl und seinen Mitforschenden nun belegen. Die Forschenden plädieren daher dafür, dass in zukünftigen Modellrechnungen experimentelle Russdaten Einzug erhalten. Diese Modelle wiederum bilden einen wichtigen Teil des Berichts, den der als Weltklimarat bekannte IPCC, der Intergovernmental Panel on Climate Change, rund alle sieben Jahre herausgibt.
Im IPCC-Bericht haben die Modellrechnungen, die das Klima seit 1850 mathematisch nachvollziehen, eine zentrale Rolle, unterstreicht Margit Schwikowski, Leiterin des Projekts, in dessen Rahmen die Untersuchungen durchgeführt wurden. Mit unserer Forschung haben wir nun dazu beigetragen, dass die Wissenschaftsgruppen, die solche Klimamodelle erstellen, im Bereich des industriellen Russes auf experimentelle Daten zurückgreifen werden können.
Text: Paul Scherrer Institut/Laura Hennemann
Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 390 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.
(Stand 05/2018)Weiterführende Informationen
http://psi.ch/DFD3 – Gefrorenes Klimagedächtnis: Hintergrundtext
http://psi.ch/FDxs – Historisches Kupfer, gefangen im Eis: Medienmitteilung vom 1. Februar 2017Noch mehr unangebrachte Empörung der Umweltaktivisten
Eine Schreiberin in der Washington Post regte sich darüber auf, dass „Grausamkeit ohne Konsequenzen“ im „Mittelpunkt der Trump-Ära“ steht. Sie schrieb, dass das neue Gesetz „die Schwachen schädigt … aber auch die Starken, welche bei der Ausübung von Grausamkeit weniger menschlich werden“.
Um es eindeutig zu machen, für diese Advokaten waren die „guten, alten Tage“ unter einer spezifischen Vorschrift die Tage vom 10. Januar bis 6. Februar 2017. So lange war ein Obama-Gesetz aus dem Justizministerium in Kraft: 27 Tage.
Präsident Obamas Generalanwalt im Innenministerium hatte etwas geschrieben mit der Bezeichnung „Opinion M-37041“. Damit wurde radikal die Art und Weise geändert, mit der Bundesbeamte das Zugvögel-Gesetz in Kraft setzten. Gerade mal zehn Tage vor dem Ende der Amtszeit von Präsident Obama in Kraft gesetzt, wurde es nach weniger als einem Monat wieder einkassiert – noch vor der Prüfung seitens der neuen Trump-Regierung.
Jene Prüfung, die Anfang dieses Jahres abgeschlossen worden ist, kam zu dem Ergebnis, dass Opinion M-37041 nicht gesetzeskonform war.
Die Meinung benötigte eine Prüfung, weil M-37041 davon ausging, dass das Töten aller Zugvögel an jedem Ort zu jeder Zeit illegal war und Bußgelder oder sogar Gefängnis nach sich ziehen konnte. Es spielte keine Rolle mehr, ob die Vögel zufällig oder absichtlich getötet worden waren, durch Fahrlässigkeit oder Schuldlosigkeit. Es spielte keine Rolle mehr, ob die Vögel unvermeidlich auf Grund von durch und durch legalen Aktivitäten zu Tode kamen, oder ob sie durch ihre eigenen Schwächen der Navigation getötet wurden, indem sie in von Menschen gebaute Strukturen flogen. Unternehmen, welche diese Strukturen errichteten, konnten sowieso bestraft werden.
Es war niemals beabsichtigt, das Gesetz auf diese Weise anzuwenden. Aber jene Interpretation hatte eine klare Botschaft für Umweltaktivisten, welche im Innenministerium von Obama dominierten. Zugvögel konnten als Waffe benutzt werden bei ihrem fortgesetzten Kampf gegen den Abbau von Kohle und Metallen, gegen Öl- und Gas-Erkundungen nebst deren Herstellung, gegen die Stromerzeugung mittels fossiler Kraftstoffe und sogar gegen Landwirtschaft und andere verachtete Industriefelder. Inzwischen konnten Funktionäre ihren mächtigen Freunden in den Wind- und Solarindustrien Ausnahmeregelungen gewähren.
Folglich konnten die Administratoren alle Industrien, die sie nicht mochten, mit bis zu 15.000 Dollar pro Vogel bestrafen – aber darüber hinwegsehen, wenn Windgeneratoren Adler zerschmetterten oder Solarpaneele in der Mohave-Wüste Vögel mitten in der Luft rösteten.
90% aller Klagen richteten sich gegen Ölunternehmen
Tatsächlich war es der Audubon Society zufolge so, dass 90% aller Klagen unter dem Zugvogel-Gesetz gegen Ölunternehmen vorgebracht wurden, obwohl niemand jemals behauptet hatte, dass diese auch nur ansatzweise für fast 90% aller Todesfälle bei Vögeln verantwortlich waren. Tatsächlich fand eine 45 Tage lange und Millionen Dollar kostende Hubschrauber-Suche des Fish & Wildlife Service nach toten Vögeln auf Ölfeldern in North Dakota nur 28 Stockenten, Fliegenschnäpper und andere allgemeine Vögel, welche unvermeidlich zu Tode kamen, als sie in nicht abgedeckten Abraumhalden der Ölfelder landeten.
Ironischerweise bebilderte die Post ihre Kolumne „sky is falling“ mit einem Photo von Gerald Herbert (AP) eines ölverschmutzten Vogels – aber sein Photo war während der Obama-Ära entstanden. Per definitionem hatte das Bild also nichts zu tun mit dem Widerruf von M-37041 durch die jetzige Regierung.
Im Gegenteil, Studien von Wildnis-Biologen hatten herausgefunden, dass US-Windturbinen Hunderttausende – einige Experten sprechen sogar von Millionen – Greifvögel und andere Vögel töten, zusammen mit zahllosen Fledermäusen – jedes Jahr. Viele dieser Geschöpfe sind bedroht oder gefährdet durch die Windturbinen. Und kaum ein Umweltaktivist hat sich jemals diesbezüglich besorgt geäußert.
Hört auf, zufällige Todesfälle zu kriminalisieren!
Alles, was die jetzige Regierung getan hat, war die Annullierung von Opinion M-37041 und die Rückkehr zur ursprünglichen Interpretation. Damit konnte man den gesunden Menschenverstand walten lassen bei der Bestimmung, ob Fahrlässigkeit zu vermeidbaren Todesfällen bei Vögeln geführt haben könnte. Der Gesetzestext selbst verbietet „Verfolgung, Jagd, Einfangen, Töten oder Versuche darob“ – gemeint waren Maßnahmen, deren Zweck es war, Zugvögel zu fangen oder zu töten, ihre Nester und ihre Gelege. Es kriminalisiert nicht versehentliche Todesfälle bei der Durchführung legaler und produktiver Aktivitäten.
Der Aufschrei einiger Öko-Aktivisten schießt weit über das Ziel hinaus. Sie jammern, dass die „neue“ Gesetzgebung (welche einfach nur die ursprüngliche Fassung wiederherstellte) zu einer mutwilligen Zerstörung wild lebender Tiere führen wird. „So viel mehr Vögel werden jetzt sterben“, unterstellten die Schreiberlinge bei der Post. Beamte kümmern sich einfach nicht mehr um die Zerstörung unserer gefiederten Freunde.
Dieser verdrehten Darstellung zufolge wären Woodrow Wilson Vögel egal gewesen, seit er das Zugvogel-Schutzgesetz im Jahre 1918 in Kraft gesetzt hatte. Franklin Rossevelt kümmerten die Vögel nicht, ebensowenig wie Ike, Kennedy oder sogar Nixon, welcher mit seiner Unterschrift das Gesetz bzgl. Gefährdung von Spezies [Endangered Species Law] in Kraft setzte. Auch Jimmy Carter waren die Vögel egal, ebenso wie Bill Clinton und Al Gore.. Keiner von ihnen führte Opinion M-37041 als Argumentation für das Gesetz an.
Es war ein selektiver Vollzug der Obama-Regierung, welches zu den widersprüchlichen Anwendungen des Gesetzes führte. Alle Regierungen zuvor verstanden den Unterschied zwischen versehentlich sterbenden Vögeln einerseits und deren absichtliche Tötung andererseits.
Ist jede Katze oder jeder Hausbesitzer ein Krimineller?
Diese Unterscheidung ist wichtig, weil Vögel zu jeder Zeit zufällig sterben. Tatsächlich hat eine Studie an Albatrossen im Pazifik gezeigt, dass die Lebensdauer vieler Vögel tatsächlich unbekannt ist, weil sie fast immer aus unnatürlichen Gründen sterben. Einer Analyse zufolge sterben in den USA bis zu sechs Milliarden Vögel jedes Jahr, weil sie gegen Hindernisse fliegen – Häuser, Bürogebäude, Überlandleitungen und andere Strukturen. Oder sie werden getötet durch Tiere, vor allem Katzen. Macht dies jede Katze oder jeden Hausbesitzer kriminell?
Bei der Beurteilung der Unmenschlichkeit unserer Gesellschaft mittels der Art und Weise, mit der wir mit Vögeln umgehen, wies der Kolumnist der Washington Post herablassend darauf hin, dass „Menschen ein Teil der natürlichen Welt sind und nicht darüber stehen“. Tatsächlich!
Tägliche menschliche Aktivitäten beeinflussen unsere Umwelt auf vielfältigste Weise, manchmal zum Besseren, gelegentlich zum Schlechteren. Das heißt aber nicht, dass jedes Mal, wenn ein Vogel stirbt, jemand bestraft werden muss.
Rückkehr von ein wenig gesundem Menschenverstand in unsere Gesetze
Die Meisten von uns verabscheuen absichtliche Misshandlungen von Tieren. Darum ist das ein Verbrechen, aber Unfälle sind es nicht. Es ist schön zu erleben, dass unsere Regierung jetzt ein wenig mehr gesunden Menschenverstand bzgl. unserer Gesetze und Vorschriften walten lässt. Auch das sollte kein Verbrechen sein.
Greg Walcher (www.GregWalcher.com) is president of the Natural Resources Group, author of Smoking Them Out: The Theft of the Environment and How to Take it Back, and a former head of the Colorado Department of Natural Resources.
Link: https://www.iceagenow.info/more-misplaced-environmentalist-outrage/
Übersetzt von Chris Frey EIKE