Manipulation der Daten zum Meeresspiegel

Erstens: Warum zeigen die satellitengestützten Meeresspiegeldaten, dass der Meeresspiegel so viel schneller steigt als der Anstieg, der an Gezeitenstationen an den Küsten der Welt gemessen wird? Die Aufzeichnungen der Gezeitenstationen zeigen einen Anstieg in der Größenordnung von ein paar Millimetern pro Jahr, eine Rate, die sich über die etwa hundert Jahre, für die wir ausreichende Aufzeichnungen haben, kaum verändert hat. Die Satellitenaufzeichnungen (Abbildung 1) zeigen jedoch einen Anstieg von 3,3 mm/Jahr. Warum der große Unterschied?

Zweitens: Warum zeigt der satellitengestützte Meeresspiegel eine so deutliche Beschleunigung? Wie oben erwähnt, zeigen die Aufzeichnungen des Meeresspiegels von Gezeitenstationen, die viel länger sind, wenig oder keine Beschleunigung. Aber die Satellitenaufzeichnungen behaupten, dass die Rate des Meeresspiegelanstiegs um etwa einen Zehntel Millimeter pro Jahr zunimmt. Eine solche Beschleunigung würde den Anstieg des Meeresspiegels in etwa dreißig Jahren verdoppeln. Noch einmal: Warum der große Unterschied?

Zunächst einmal: Hier ist, was die Satellitendaten laut der University of Colorado Sea Level Research Group zeigen:

Abbildung 1. Meeresspiegeldaten der University of Colorado, die den Trend und die Beschleunigung zeigen. Beachten Sie, dass die Grafik keine Überschneidungen zwischen den einzelnen Satellitenaufzeichnungen zeigt. QUELLE: UCSLR-Gruppe

Ich habe diese Woche wieder über diese Fragen nachgedacht, also ging ich zu NOAA und holte mir deren Excel-Tabelle, die den kompletten Datensatz für jeden der vier Satelliten zeigt.

Ich habe die NOAA-Daten aufgezeichnet. Aber im Gegensatz zu den Colorado-Daten oben, habe ich die volle Überlappung zwischen den einzelnen Satelliten mit einbezogen. Dann habe ich die Rate des Meeresspiegelanstiegs, die von jedem der vier Satelliten angezeigt wird, separat betrachtet. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. NOAA-Meeresspiegeldaten, die den Trend der einzelnen, vollständigen Satellitenaufzeichnungen und den Gesamttrend zeigen. QUELLE: NOAA-Excel-Tabelle

Es scheint, als hätte ich nach all den vielen Jahren der Verwunderung endlich eine Antwort auf meine beiden Fragen. Der Trend ist so groß und die Beschleunigung ist aus einem einfachen Grund so groß. Die beiden jüngsten Satelliten zeigen Trends, die deutlich größer sind als die der beiden früheren Satelliten. Die ersten beiden Satelliten stimmen recht gut überein, aber sie zeigen beide einen viel kleineren Trend als die beiden letzten Satelliten. Und keine der beiden Hälften der Satellitenaufzeichnungen zeigt eine Beschleunigung.

Was man oben sieht sind die Fakten, wie sie von der NOAA angegeben werden, und ich habe oben die Quelle dieser Fakten verlinkt. Und es scheint mir, dass diese Fakten mehr als ausreichend sind, um die Satellitenaufzeichnung des Meeresspiegels vollständig zu diskreditieren.

Und um zum eigentlichen Thema zurückzukehren, warum zeigen die NOAA-Daten einen Gesamttrend, der um 0,3 mm pro Jahr geringer ist als die Colorado-Daten? Das liegt daran, dass die Colorado-Daten das enthalten, was „GIA“ genannt wird, und die NOAA-Daten nicht.

„GIA“ steht für die „glaziale isostatische Anpassung“. Es gibt eine Beschreibung davon auf der Colorado-Seite hier. Sie bezieht sich auf die Veränderungen der Gesamtform der Erde aufgrund des Abschmelzens der riesigen und immens schweren Eisschilde der letzten Eiszeit.

Laut dieser Seite wird die GIA „unabhängig aus Modellen auf -0,3 mm/Jahr geschätzt (Peltier, 2001, 2002, 2009; Peltier & Luthcke, 2009)“.

Nun ist ein Computermodell nichts anderes ist als eine physikalische Umsetzung der Überzeugungen, Erkenntnisse und insbesondere der Missverständnisse der Person, die den Computer programmiert. Da Mr- Peltier an der Programmierung aller vier auf der Colorado-Seite aufgeführten Modellrealisierungen beteiligt war, ist ihre Behauptung, die vier Modelle seien „unabhängig“, lächerlich. Was wir haben, ist die Behauptung eines Mannes, dass er den GIA berechnen kann.

Welchen Effekt hat die GIA? Die Colorado-Seite sagt (Hervorhebung von mir):

Vor der Veröffentlichung 2011_rel1 haben wir die GIA bei den Schätzungen des globalen mittleren Meeresspiegels nicht berücksichtigt, aber diese Korrektur ist jetzt wissenschaftlich gut verstanden und wird von fast allen Forschungsgruppen auf der ganzen Welt auf die GMSL-Schätzungen angewendet. Die Einbeziehung der GIA-Korrektur hat den Effekt, dass frühere Schätzungen der globalen mittleren Meeresspiegelrate um 0,3 mm/Jahr erhöht werden.

Da sind also die fehlenden 0,3 mm/Jahr, angewandt von „fast allen Forschungsgruppen“ … Ich schätze, die NOAA hat das nicht mitbekommen.

Für mich ist die Behauptung, dass ein Computermodell die Veränderung des Gesamtvolumens aller verschiedenen Ozeanbecken der Welt auf die nächsten 0,3 mm pro Jahr des Meeresspiegels berechnen kann, unglaubwürdig, und zwar aus folgendem Grund.

Für den Landteil der Berechnung müssen diese „unabhängigen“ Computermodelle GPS-Höhen verwenden. Durch die Verwendung von Split-Phase-GPS und wiederholten Messungen können diese bis zu ± 10 mm oder besser genau sein, eine erstaunliche wissenschaftliche Leistung … aber das ist weit entfernt von einem Zehntel Millimeter, und das nur an Land. Nicht nur das, wir haben auch keine GPS-Messungen im ganzen Land. Sie konzentrieren sich auf die USA und Europa, während sie anderswo nur sporadisch genutzt werden.

Auf dem Meer müssen die „unabhängigen“ Modelle Satellitenmessungen verwenden, so dass sich die Frage nach der Genauigkeit und Präzision der Satellitenmessungen des Meeresspiegels selbst stellt. Diese Messungen werden durchgeführt, indem Radarwellen von der Meeresoberfläche zurückgeworfen werden und gemessen wird, wie lange es dauert, bis sie zum Satelliten zurückkehren. Hier sind wiederholte Messungen nicht möglich, da sich der Meeresspiegel an jedem Punkt ständig ändert und der Satellit selten zweimal an der gleichen Position ist. In einer aktuellen NASA-Pressemitteilung zum Sentinel-6-Satelliten, dem Nachfolger des Jason-3-Satelliten, wird der Ozeanograph Josh Willis zitiert:

Sentinel-6 wird in einer Umlaufbahn in etwa 1300 km Höhe kreisen und mit Hilfe von Radar die Oberfläche des Ozeans messen. Ein Instrument auf dem Satelliten sendet eine Radarwelle hinunter zur Erde. Die Radarwelle wird von der Meeresoberfläche reflektiert und kehrt zum Satelliten zurück. Durch die Messung der Zeit, die das Radar für den Hin- und Rückweg benötigt – und unter Berücksichtigung der Feuchtigkeit in der Atmosphäre, die das Radar verlangsamt – können die Wissenschaftler messen, wie weit die Meeresoberfläche vom Satelliten entfernt ist.

Mit anderen Worten: Der Satellit kann den Wissenschaftlern auf der Erde mitteilen, wie hoch die Ozeane sind und wie sich diese Höhe im Laufe der Zeit verändert.

Es ist wirklich eine unglaubliche technische Leistung“, sagt Josh Willis. „Wir können den Wasserstand mit einer Genauigkeit von 25 mm aus 1300 km Höhe messen.“

Eine Genauigkeit von 25 mm … und sie behaupten, sie kennen die jährliche Veränderung des Volumens der Ozeane aus dem GIA auf das nächste Zehntel eines mm der Meeresspiegelhöhe? Ich weiß, dass Genauigkeit etwas anderes ist als Präzision, und dass die Messung von Längenänderungen im Laufe der Zeit (Präzision) um eine Größenordnung besser sein kann als die Messung der Länge selbst (Genauigkeit), aber trotzdem … sorry, aber ich kaufe dem GIA die Behauptung nicht ab.

Schauen wir mal, ob ich Ihnen ein Gefühl für die Schwierigkeit der Satellitenmessungen des Meeresspiegels geben kann. Die Satelliten kreisen in einer Höhe von etwa 830 Meilen, das sind etwa 1,34 Milliarden Millimeter. Um also die Veränderung des Meeresspiegels auf ein Zehntel Millimeter genau zu messen, müssten wir in der Lage sein, den Abstand zwischen dem Satelliten und der Meeresoberfläche mit einer Genauigkeit von mehr als einem Teil in dreizehn Milliarden zu messen … und das ist selbst in einer kontrollierten Laborumgebung eine große Herausforderung.

Hier sind einige der Schwierigkeiten bei dieser Messung. Die erste ist die Messung der Höhe des Satelliten selbst. Wenn wir das nicht auf den Millimeter genau für jede Sekunde eines jeden Tages wissen, werden wir ungenaue Antworten erhalten. Der nächste Punkt ist die unterschiedliche Zusammensetzung, Temperatur, Bewölkung und Feuchtigkeit der Atmosphäre. All diese Faktoren verändern die Zeit, die das Radarsignal braucht, um zum Satelliten zurückzukehren. Dann gibt es die Meereswellen, die offensichtlich die Höhe des Ozeans um Tausende von mm verändern. Schließlich gibt es noch die „Instrumentendrift“, die unvermeidlichen Veränderungen, die bei elektronischen Messinstrumenten mit der Zeit auftreten.

Nettoergebnis? Nun, das Nettoergebnis ist in Abbildung 2 oben zu sehen, wo laut der Universität von Colorado ein Satellit sagt, dass der Meeresspiegel mit 2,5 mm/Jahr ansteigt, und nur 8 Tage nach dem Ende der Daten dieses Satelliten (das Intervall zwischen einem Satelliten und dem nächsten in der Colorado-Meeresspiegelaufzeichnung) sagt der Nachfolgesatellit, dass er mit 4,1 mm/Jahr ansteigt … no bueno. Sie behaupten, dass in 8 Tagen die Anstiegsrate um 1,6 mm pro Jahr gestiegen ist. Beachten Sie auch, dass es in beiden Hälften der Satellitenaufzeichnung absolut keine Beschleunigung gibt, sondern nur eine schrittweise Veränderung zwischen den Satelliten. Offensichtlich sind sie nicht in der Lage, jährliche Änderungen des Meeresspiegels auf den nächsten Millimeter genau zu messen, geschweige denn auf den nächsten Zehntelmillimeter.

Die Leute, die an dem Projekt arbeiten, sind jedoch alle wahre Gläubige. Im selben Artikel wird Josh Willis mit den Worten zitiert: „Wir wissen, dass die Ozeane wegen der vom Menschen verursachten Eingriffe in das Klima steigen.“

Verdammte Menschen, die sich immer in das Klima einmischen … zum Beispiel hat unser neuer „Klima-Zar“ John Kerry 5 Häuser, eine Reihe von Autos, eine Yacht und einen Privatjet, und er sagt uns, dass wir den Bus nehmen sollen, um die gefürchtete, „vom Menschen verursachte Störung des Klimas“ zu vermeiden … aber ich schweife ab.

Das Problem ist, dass der Start mit einer festen „wissenschaftlichen“ Überzeugung wie dieser dazu führt, dass die Leute, die an den Satelliten-Meeresspiegel-Datensätzen arbeiten, „befangen“ sind. Sie kleben die offensichtlich inkompatiblen Satellitenergebnisse zusammen, streichen Erdnussbutter über die Risse, damit sie nicht gesehen werden können, und verkünden der Welt, dass die Satelliten eine gefährliche Beschleunigung des Meeresspiegelanstiegs zeigen, so dass wir alle sehr besorgt sein sollten …

Ich habe schon seit einiger Zeit gesagt, dass wir den Satellitenergebnissen kein Gewicht beimessen sollten. Ich habe dies jedoch ausschließlich auf die sehr großen Unterschiede sowohl im Trend als auch in der Beschleunigung zwischen den Satelliten- und den Gezeitenstationsaufzeichnungen gestützt, sowie auf die bekannten Schwierigkeiten bei Satellitenmessungen, die oben diskutiert wurden. Ich habe diese Frage in mehreren Beiträgen untersucht, darunter „Inside The Acceleration Factory“ und „Accelerating The Acceleration“.

Aber jetzt, endlich, habe ich die Fakten, die meine Behauptung untermauern. Es gibt keine Beweise für eine Beschleunigung des Meeresspiegelanstiegs, weder in den Tidenmessungen noch in den schäbig zusammengeschusterten Satellitenaufzeichnungen. Er steigt seit geraumer Zeit in der Größenordnung von 200 mm pro Jahrhundert, und es gibt keine Anzeichen für eine Veränderung dieser Anstiegsrate.

Es steht einem also frei, das zu tun, was Obama und Bill Gates getan haben – Grundstücke am Meer kaufen. Sie verkünden lautstark, dass der Meeresspiegel gefährlich ansteigt, aber wie die Mehrheit der Klimaalarmisten überführen ihre Taten deren Worte als Scheinheiligkeit.

Link: https://wattsupwiththat.com/2021/02/21/munging-the-sea-level-data/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Einige ausschweifende Passagen Eschenbachs wurden bei der Übersetzung nicht berücksichtigt.

 




Zusammenfas­sung: Wetter­abhängige Erneuer­bare in UK 2019

Die Produktivität der erneuerbaren Energien (Wind- und Sonnenenergie) ist entscheidend. Nur wenn ihre tatsächliche Produktivität mit den Vergleichskosten kombiniert wird, können die wahren Kosten des effektiv ins Netz eingespeisten Stroms abgeschätzt werden.

Diese unkomplizierten Berechnungen beantworten die einfache Frage:

Wie viel würde es ungefähr kosten, die gleiche Menge an Strom zu erzeugen, die von der derzeitigen Flotte der wetterabhängigen erneuerbaren Energien in der EU(28) mit konventionellen Erzeugungstechnologien (Kernkraft oder Gasfeuerung) erzeugt wird, und wie sehen diese Zahlen im Vergleich aus?“.

Ende 2019 verfügte Großbritannien über eine Flotte von etwa 35 Gigawatt an wetterabhängigen erneuerbaren Energien, mehr als die Hälfte der installierten Flotte. Sie kostete etwa 62 Mrd. £ an Kapital und implizierte weitere langfristige Kosten von etwa 260 Mrd. £. Im Laufe des Jahres trugen Erneuerbare Energien etwa 7,3 Gigawatt bei, weniger als 23 %. Die kosteneffektivste Form der Stromerzeugung ist jedoch die Gasverbrennung mit weniger als 1 Mrd. £/Gigawatt. Bei der Verbrennung von Gas entsteht viel weniger CO2 als bei anderen fossilen Brennstoffen (als ob das wirklich ein Problem wäre).

Nach diesen groben Berechnungen hätte das Vereinigte Königreich durch den Einsatz von Gasfeuerungen anstelle von erneuerbaren Energien zur Erzeugung dieser 7,3 Gigawatt für das Stromnetz etwa 55 Milliarden Pfund an Kapital und langfristig etwa 230 Milliarden Pfund einsparen können.  Mit Kernkraft wären die Einsparungen zwar geringer, aber immer noch beträchtlich.  All diese zusätzlichen Kosten werden entweder von der Regierung (dem Steuerzahler) übernommen oder belasten die Stromrechnungen.

Es gibt weitere zusätzliche Kosten- und CO2-Implikationen der wetterabhängigen erneuerbaren Energien

Die obigen Vergleichszahlen berücksichtigen nur die direkten Erzeugungskosten und sind eine Unterschätzung der vollen Kosten, die durch die Nutzung wetterabhängiger erneuerbarer Energien entstehen. Die mit Erneuerbaren Energien verbundenen Nebenkosten ergeben sich aus:

● Die Unzuverlässigkeit der erneuerbaren Energien in Bezug auf Stromunterbrechungen und Stromschwankungen.

● Erneuerbare Energien sind nicht disponibel, d. h., die Wolken verziehen sich nicht und der Wind weht nicht immer dann, wenn Strom benötigt wird.

● Es ist unwahrscheinlich, dass das schlechte Timing der Erzeugung aus erneuerbaren Energien mit der Nachfrage übereinstimmt. Jede Windenergie unterliegt den Wetterschwankungen. Die Solarenergie fällt am Abend ab, also zu Zeiten des Spitzenbedarfs. Im Winter erbringt die Solarenergie nur etwa 1/9 der Sommerleistung.

● Viel zusätzliche technische Infrastruktur für den Zugang zu erneuerbaren Standorten wird benötigt.

● Die langen Übertragungsleitungen führen zu Leistungsverlusten und erhöhtem Wartungsaufwand.

● Erneuerbare Energien benötigen im Vergleich zur konventionellen Stromerzeugung (Gas- oder Kernkraftwerke) große Landflächen.

● Die fortlaufenden Kosten für die Reservekraftwerke, die zwar unverzichtbar sind, aber nur gelegentlich in der Backup-Reserve eingesetzt werden und trotzdem CO2 ausstoßen.

● Wenn genügend konventionelle Reservekapazitäten vorhanden sind, um das Netz zu stützen, dann macht es wenig Sinn, die Erzeugungskapazität mit vergleichsweise unproduktiven erneuerbaren Energien zu verdoppeln, auch wenn diese einen Teil der CO2-Emissionen ersetzen könnten.

● Jegliche Überlegungen zur Stromspeicherung mit Batterien, selbst wenn Langzeitbatterien (einige Stunden) im Netzmaßstab wirtschaftlich machbar wären.

● Erneuerbare Energien erzeugen eine unsynchronisierte Erzeugung, der es an Trägheit fehlt, um die notwendige Netzfrequenz aufrechtzuerhalten.

● Erneuerbare Energien können keine „Schwarzstart“-Erholung nach einem größeren Netzausfall bieten.

Außerdem wichtig: Diese Kostenanalyse berücksichtigt nicht:

Erneuerbare Energien sind sehr abhängig von großen Mengen an seltenen Erden und knappen Materialien, die größtenteils aus China bezogen werden.

Erneuerbare Energien verursachen unweigerlich Umweltschäden und die Zerstörung der Tierwelt.
Erneuerbare Energien „Kohlenstoff-Fußabdruck“, Wind- und Solartechnologien können während ihrer Lebensdauer niemals so viel CO2 einsparen, wie sie für ihre Materialbeschaffung,

Herstellung, Installation, Wartung und eventuellen Abriss emittieren.

Erneuerbare Energien sind von fossilen Brennstoffen abhängig, sowohl als Rohstoff für die Materialien als auch als Brennstoff für den Betrieb.

Renewables Energy Return on Energy Invested [ERoEI-Wert oder Erntefaktor], sie erzeugen während ihrer Lebensdauer möglicherweise nur einen begrenzten Überschuss an Energie, wie er für ihre Herstellung und Installation aufgewendet wurde.

Erneuerbare Energien liefern sicherlich nicht den regelmäßigen massiven Energieüberschuss, der ausreicht, um die vielfältigen Bedürfnisse einer entwickelten Gesellschaft zu decken.

Probleme der Energieerzeugung

Da die Regierung der Stromindustrie immer mehr erneuerbare Energien aufzwingt, stehen die Manager der Stromversorgungsunternehmen vor großen Problemen, da die politischen Entscheidungen auf der unpraktischen und unregelmäßig intermittierenden „erneuerbaren Energie“ beharren.  Der Berufsstolz und die Verantwortung der Stromversorgungsmanager werden versuchen, den konsistenten Service aufrechtzuerhalten, der für die Nation so wichtig ist, aber es wird immer schwieriger werden.

Konventionelle Stromerzeuger, die in Vollzeit produktiv sind, werden aus dem Geschäft gedrängt, da sie unrentabel werden.

Am Ende spielen die zusätzlichen Kosten keine Rolle, denn entweder übernimmt die Regierung (oder besser gesagt der Steuerzahler) die Rechnung, oder die zusätzlichen Kosten werden einfach über die steigenden Rechnungen an die Kunden weitergegeben: Die Kunden haben keine wirkliche Wahl, denn das Stromgeschäft ist effektiv ein Monopol.

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik erreicht, jedoch ohne das Mandat der Wähler in der gesamten westlichen Welt.

[Alle Hervorhebungen in diesem Beitrag im Original]

Weather Dependent Renewables Productivity: what do the numbers mean?

Link: https://wattsupwiththat.com/2021/02/21/summary-uk-weather-dependent-renewables-2019/

Übersetzt von Chris Frey EIKE




Der Mythos und die verlogene Mathematik „grüner“ Arbeitsplätze

Während des Wahlkampfs im Jahre 2020 behauptete Joe Biden, dass mehr als 3 Millionen Amerikaner bereits „in der sauberen Energiewirtschaft beschäftigt sind“. Dann prahlte er, dass „wenn strategisch ausgeführt, unsere Antwort auf den Klimawandel mehr als 10 Millionen gut bezahlte Arbeitsplätze in den Vereinigten Staaten schaffen kann, die eine stärkere, integrativere Mittelschicht wachsen lassen … und nicht nur in Städten entlang der Küsten.“

Damit wäre Joe doppelt so prahlerisch wie sein früherer Chef, der 2009 versprach, das 787 Milliarden Dollar schwere Konjunkturpaket würde „über fünf Millionen“ grüne Arbeitsplätze schaffen. Vier Jahre später berichtete die Brookings Institution, dass „von den fast 2,7 Millionen ‚grünen Jobs‘ der Obama-Biden-Regierung die meisten Busfahrer, Abwasserarbeiter und andere Arten von Arbeit waren, die nicht in die Beschreibung der ‚grünen Jobs der Zukunft‘ passen“.

Der Energieanalyst David Blackmon berichtete später, dass Obamas eigenes Arbeitsministerium das anfängliche Scheitern des Starts einräumte. Der Bericht des DOL vom September 2011 mit dem Titel [übersetzt] „Geringes Tempo bei der Vermittlung von Arbeitern in Jobs gefährdet die Beschäftigungsziele des Programms für grüne Arbeitsplätze“ stellte fest, dass nur ein Drittel der zugewiesenen Mittel ausgegeben worden war; ein Fünftel der „Abschlüsse“ und „Zertifizierungen“ ging an Personen mit einem einzigen Tag Schulung; und die Hälfte der „Absolventen“ hatte fünf oder weniger Tage Schulung. Nur 2% der Programmteilnehmer behielten ihre Jobs für mindestens sechs Monate.

Das Bureau of Labor Statistics (BLS) zählte Lobbyisten der Ölindustrie als Inhaber „grüner“ Jobs! Die Industrie für die Wartung von Klärgruben und tragbaren Toiletten hatte 33-mal mehr „grüne“ Arbeitsplätze ausgewiesen als die Solarstrom-Versorgungsunternehmen. Das BLS musste in einem Bericht vom Juni 2012, „Green Technologies and Practices – August 2011“, einräumen, dass sie nur 854.700 „grüne“ Jobs ausmachen konnten, einschließlich Hausmeister und Reinigungskräfte.

Was für ein Schwindel! Schande über sie für den Versuch, uns zu betrügen.

David Kreutzer wies in einem Bericht der Heritage Foundation darauf hin, dass Stahlarbeiter die meisten „grünen“ Industriejobs haben. Warum? Der meiste US-Stahl ist recycelter Schrott, und ein Teil des Stahls wird für die Herstellung von Windkraftanlagen verwendet. Die nächstgrößeren Gruppen waren Busfahrer, Müllsammler und Angestellte von Gebrauchtwarenläden – gefolgt von Ingenieur- und Architekturdienstleistungen. Die viel gehasste Atomindustrie machte über 80% der 44.000 „grünen“ Arbeitsplätze bei den Stromversorgern aus. Es gab fünfmal so viele „grüne“ Jobs in der sozialen Lobbyarbeit (Lobbyisten von Umweltgruppen) als in der erneuerbaren Stromerzeugung.

Ah, aber das war damals – aber wir sind heute, sagen Sie. Richtig!

Im Januar berichtete Associated Press über „Bidens unscharfe Mathematik“ in Bezug auf seine Behauptung, 1 Million neue Arbeitsplätze in der Autoindustrie zu schaffen – selbst wenn er tatsächlich die 650.000 Fahrzeuge umfassende Flotte der Regierung durch Elektroautos ersetzt und 500.000 neue Ladestationen installiert – alles auf Kosten der Steuerzahler. Theoretisch wird ein riesiges staatliches Kaufprogramm die Kosten für Elektroautos senken, und die unzähligen Ladestationen werden die Angst verringern, bei einer Hurrikan-Evakuierung in einem Fahrzeug festzusitzen, das man nicht schnell auftanken kann. Theoretisch.

Aber Moment! Jeder Arbeitsplatz für ein Elektrofahrzeug wird wahrscheinlich auf Kosten eines Arbeitsplatzes für ein Fahrzeug mit Benzinmotor gehen, und jede Ladestation für ein Elektrofahrzeug wird Arbeitsplätze in der Pipeline, in der Raffinerie, im Benzin-Einzelhandel, in der Benzinauslieferung und in anderen Sektoren vernichten. Der AP-Artikel fügt hinzu, dass Industrieanalysten und die Gewerkschaft United Auto Workers darin übereinstimmen, dass die Herstellung von E-Fahrzeugen wahrscheinlich weniger Arbeitsplätze in der Automobilindustrie bedeuten wird. Ein Grund dafür ist, dass E-Fahrzeuge viel weniger Teile haben und einfacher zu bauen sind, also weniger Arbeiter benötigen und oft nur ein neues Batteriemodul für 6.000 Dollar brauchen. Ein weiterer Grund ist, dass die Batterieherstellung leicht automatisiert werden kann. Aber das ist kaum die ganze Geschichte.

Bereits 2019, als General Motors über einen Zeitraum von drei Jahren mehr als ein Fünftel seines US-Marktanteils an Verkäufen verlor, gab das Unternehmen zu, dass es bereits mehr nicht gewerkschaftlich organisierte Autoarbeiter in China beschäftigt als gewerkschaftlich organisierte Arbeiter in den USA. Die harte Realität ist, dass es in Asien zehnmal mehr Produktionsstätten für Elektrofahrzeug-Batterien gibt als in ganz Nordamerika. Vielleicht spricht Jinping Joe Biden von der Anzahl der chinesischen „grünen“ Arbeitsplätze und dabei insbesondere über Kinder- und Fast-Sklavenarbeit in Chinas Minen und Verarbeitungsbetrieben.

Andere Analysten haben ebenfalls erkannt, dass die Ansprüche grüner Arbeitsplätze seitens der Biden-Regierung „meist falsch“ sind.

Elektrofahrzeuge sind nur ein Teil des Green New Biden Deal. Die Unterwerfung unserer Wirtschaft [der USA] unter das Pariser Klimaabkommen und seine drakonischen Umweltauflagen ist ein weiterer. Die Abkehr von Öl, Gas und Kohle – und sehr wahrscheinlich auch von Kernkraft – und all den Arbeitsplätzen, die diese Industrien schaffen, ist ein dritter. Mr. Biden folgt Deutschland und anderen Ländern der Europäischen Union auf dem Weg in den wirtschaftlichen Selbstmord.

[Hervorhebung vom Übersetzer]

Laut der Deutschen Bank löst die klimapolitische Regulierung des deutschen Automobilsektors „den größten Strukturbruch in der Branche seit Jahrzehnten aus.“ Strenge Kohlendioxid-Grenzwerte für neue Pkw in der EU für die Jahre 2021 und 2030 zwingen die Hersteller zu einem vorzeitigen Umstieg auf teurere Elektrofahrzeuge, heißt es in einem Bericht der Bank. Die daraus resultierenden Preissteigerungen, so prognostiziert die Bank, werden sich sehr negativ auf die zukünftigen Arbeitsplätze in der deutschen Autoindustrie auswirken.

Ein Grund dafür ist, dass die CO2-Grenzwerte der EU für PKWs und die Subventionen für Elektrofahrzeuge „extrem ineffiziente [teure] und kaum effektive Instrumente“ sind, um eine Emissionsreduktion im Transportsektor zu erreichen. Während staatliche Anreize und Mandate die Menschen zum Kauf von staatlich begünstigten Fahrzeugen bewegen können, verringert eine radikale Klima- und Energiepolitik die Investitionen in energieintensive Sektoren wie die Metall- und Chemieindustrie. Dies wird die Kosten für neue deutsche Autos weiter erhöhen.

Der Deutsche Gewerkschaftsbund berichtet, dass trotz des Vorstoßes für grüne Energie und Elektrofahrzeuge die Zahl der „grünen“ Arbeitsplätze in der deutschen Erneuerbare-Energien-Branche von 300.000 im Jahr 2011 auf nur noch 150.000 im Jahr 2018 gesunken sei. Viele dieser verlorenen Arbeitsplätze sind auf den Zusammenbruch der deutschen Solarindustrie zurückzuführen, da die Unternehmen von chinesischen Herstellern aus dem Geschäft gedrängt wurden, die die deutschen Preise unterboten – und einen viel einfacheren Zugang zu Rohstoffen hatten.

Die Erfolgsbilanz der amerikanischen Arbeitsplätze im Bereich der erneuerbaren Energien gegenüber der chinesischen Konkurrenz ähnelt der deutschen Erfahrung. Ein Hauptgrund ist Chinas Beinahe-Monopol auf Seltene-Erden-Metalle, die für die Grüne Revolution unerlässlich sind. Trotz dieser Tatsachen sagte Bidens „Klimabeauftragter“ John Kerry kürzlich, dass amerikanische Öl- und Gasarbeiter, die ihren Arbeitsplatz verloren haben, einfach und leicht zur Herstellung von Solarzellen arbeiten können.

Der Energieökonom Tilak Doshi [in deutscher Übersetzung beim EIKE hier] stimmt zu, dass die Faszination des Westens für erneuerbare Energien, die nur die Dekarbonisierung und letztendlich die Deindustrialisierung zum Ziel haben, ein Rezept für wirtschaftlichen Selbstmord ist. Er weist darauf hin, dass Deutschlands „grüne“ Welt riesige Windturbinen mit Flügeln aus erdölbasierten, glasfaserverstärkten Harzen beinhaltet; Motoren, die mit Eisen und seltenen Erden gebaut werden, die mit fossilen Brennstoffen gewonnen, verarbeitet und verhüttet werden; Beton, der ebenfalls fossile Brennstoffe benötigt; und Fabriken, die mit Kohle und Erdgas betrieben werden. Bei Solarmodulen ist es genau das Gleiche.

[Hervorhebungen vom Übersetzer]

Die Turbinen und Paneele werden in Wäldern, Wiesen, Ackerland und Küstengebieten installiert, wo sie landschaftlich reizvolle Ausblicke und Lebensräume für Wildtiere zerstören. Die Turbinenblätter töten gefährdete Vögel und Fledermäuse.

Das Ergebnis dieses „Rettet-den-Planeten“-Eifers? Deutschland hat eine aufkeimende Armutsrate von 17%, größtenteils dank der Abschaltung von zuverlässigen nuklearen und fossilen Kraftwerken und den daraus resultierenden explodierenden Strompreisen für Haushalte, Fabriken, Unternehmen und Krankenhäuser in den letzten 15 Jahren.

Aber zurück in die USA. Kalifornien betreibt die fünftgrößte Volkswirtschaft der Welt, indem es den größten Teil seines Rohöls aus Übersee importiert (trotz massiver Reserven im eigenen Bundesstaat) und ein Drittel seines Stroms aus anderen Staaten bezieht (ebenfalls aus politischer Opportunität). Infolgedessen zahlen die Kalifornier heute 60 % mehr als der nationale Durchschnitt für Strom für Privathaushalte, Gewerbe und Industrie, während sie gleichzeitig häufige Stromausfälle aufgrund von teurer, wetterabhängiger Energie und einer erbärmlichen Forstwirtschaft ertragen müssen. Menschen und Industrien fliehen aus dem Staat.

Und das Team Biden-Harris (Harris-Biden?) will dem Rest der Vereinigten Staaten die Verhältnisse in Kalifornien überstülpen!

[Origianlly posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/the-myth-and-phony-math-of-green-jobs

Übersetzt von Chris Frey EIKE

 




Im Eis eingefrorene Alligatoren in Oklahoma

Im Südosten von Oklahoma, in McCurten County, sind die Sümpfe gefroren. Die Alligatoren, die dort leben, versuchen, sich an die Kälte anzupassen. Obwohl sie im Eis eingefroren sind, lassen sie ihre Nase draußen, damit sie atmen können.

Die Bilder der Reptilien wurden vom Oklahoma Wildlife Conservation Officer David Arbor veröffentlicht. Er nahm diese Bilder in den Red Slough Sümpfen auf. Zuvor wurde dieses Verhalten der Reptilien bei Frost in den Jahren 2018 und 2019 in North Carolina beobachtet.

Dieser Zustand ist vergleichbar mit dem Winterschlaf bei Säugetieren. Die ungewöhnliche Kälte führt dazu, dass der Stoffwechsel der Reptilien verlangsamt wird. Wenn die Tiere die Sümpfe verlassen, könnten sie sterben, weil sie ihre Körpertemperatur nicht regulieren können. Wenn die Thermometer über den Nullpunkt steigen, kehren die Alligatoren in ihren normalen Zustand zurück.

Weitere Fotos:

https://www.gismeteo.ru/news/animals/alligatory-v-oklahome-vmerzli-v-led-iz-za-ekstremalnyh-holodov-foto/

[Das ist eine russische Website, auf russisch {Eine Übersetzungsmaschine hilft}. Es geht aber auch um Oklahoma. Nur beim Aufrufen des Links erschienen bei mir anstatt der Fotos nur weiße Flächen. A. d. Übers.]

Auch auf Facebook
https://www.facebook.com/photo.php?fbid=3670670829676199&set=p.3670670829676199&type=3
Dank an Martin Siebert für diese Links.

„Die ganze Kälte, sagen sie, ist eine Anomalie – oder einfach nur eine ‚Kältewelle’“, sagt Martin Siebert. „Nein! Das ist bereits ein Trend, und ich denke, es wird noch schlimmer werden. Wenn man die Anzahl der Toten von Covid hinzufügt, gibt es einen Teil der ‚Plagen‘ im Zyklus des Beginns einer LIA, der Zyklus wiederholt sich, nicht wahr!“

Link: https://www.iceagenow.info/oklahoma-alligators-frozen-in-the-ice/

Übersetzt von Chris Frey EIKE

 




Strom-Zusammen­bruch in Texas demonstriert die politische Klima-Idiotie

Ein ungewöhnlicher Kaltlufteinbruch aus der Arktis, der sich über den gesamten Bundesstaat von der Spitze des Panhandle [die Spitze im Nordwesten] bis zum Rio Grande Valley ausbreitete, hat Millionen von Haushalten und Unternehmen hier ohne Strom gelassen.

Eine Reihe von erzwungenen Stromausfällen [Lastabwürfen] war erforderlich, um einen Zusammenbruch des Stromnetzes zu verhindern, da einstellige Temperaturen* Windturbinen einfroren und den Betrieb von Dutzenden von Kraftwerken behinderten.

[*Gemeint sind einstellige Temperaturen in Grad Fahrenheit! 10°F ≅ -12°C; 0°F ≅ -18°C. A. d. Übers.]

Wie konnte das nur hier in Texas passieren?

Wir sind doch nicht in Kalifornien, wo die übermäßige Abhängigkeit von Wind- und Solarenergie das Netz während einer Rekordhitzewelle 2020 destabilisierte.

Kalifornien führt bereits die Nation mit dem unzuverlässigsten Stromsystem und der größten Anzahl an jährlichen Stromausfällen an … 4.297 wurden zwischen 2008 und 2017 verzeichnet. Und alles wird noch viel schlimmer werden, da der Staat nun vorschreibt, dass alle neuen Häuser fast vollständig elektrisch versorgt müssen.

Mehr als 30 Städte, darunter auch San Francisco, haben bereits Verbote für neue Gasgeräteanschlüsse erlassen. Kalifornien plant, Benzin- und Dieselautos endgültig zu verbieten.

Hey Leute… wir sind hier in Texas, einem Land mit weitaus klügeren Köpfen in einem Staat, der zu Recht dafür bekannt ist, dass er über riesige Erdöl- und Erdgasvorkommen verfügt.

Texas ist kein Ort, an dem wir uns normalerweise Sorgen machen zu erfrieren, nur weil es an zuverlässiger fossiler und nuklearer Energie zum Beheizen unserer Häuser mangelt… im Gegensatz zu nördlichen Breitengraden, in denen es routinemäßig sehr kalt wird und die Stromleitungen vereist sind und ausfallen.

Was ist also zusätzlich zu den Rekord-Tiefsttemperaturen passiert, um das zu ändern?

Mir scheint, wir wurden ein bisschen zu unsanft geweckt.

Das Electric Reliability Council of Texas (ERCOT), das den Stromgroßhandelsmarkt des Bundesstaates überwacht, hat die Abhängigkeit des Netzes von zuverlässiger Kohle, Atomkraft und Erdgas in Richtung der vom Steuerzahler stark subventionierten Windenergie verschoben (hier gibt es kein kostenloses Mittagessen).

Diese Winderzeugung ist mittlerweile die zweitgrößte Stromquelle in Texas. Nach Angaben von ERCOT machte sie im vergangenen Jahr 23 % der Stromversorgung des Bundesstaates aus, hinter Erdgas, das 45 % ausmachte.

In den letzten zehn Jahren haben strenge CO2-Emissionsvorschriften dazu geführt, dass der Anteil der Kohle an der texanischen Stromversorgung um mehr als die Hälfte auf 18 % gesunken ist.

Es kam zu einer Stromkrise, da bitterkaltes Wetter die Windturbinen in Westtexas zum Einfrieren brachten, während gleichzeitig die Bewohner ihre Thermostate hochdrehten. Die Regulierungsbehörden taten, was sie konnten, um die öffentliche Sicherheit zu schützen, indem sie Gas für gewerbliche und industrielle Zwecke rationierten, um den Brennstoff für Kraftwerke und die Heizung der Haushalte sicherzustellen.

Einige Erdgasquellen froren ebenfalls ein, zusammen mit Raffinerieanlagen an einigen Orten, wodurch wiederum Erdgas für Turbinen ausfiel, die wichtige Reservestromversorgung für – bestenfalls intermittierende – Wind- und Solarstromerzeugung liefern.

Und wer hätte sich vorstellen können, was dann passierte?

Der Spotpreis für Großhandelsstrom im texanischen Stromnetz schnellte um mehr als 10.000 % in die Höhe und überschritt die Marke von 9.000 US-Dollar pro Megawattstunde. Selbst während der Sommermonate mit hoher Nachfrage würden 100 $ pro MWh als hoch angesehen werden.

Bei näherem Hinschauen könnte Texas und jeder andere Bundesstaat diese Entwicklung aufgrund der Erfahrungen mit der deutschen „Energiewende“* vorausgesehen haben, einer im Jahr 2000 eingeführten Politik zur Dekarbonisierung der Primärenergieversorgung.

[*Dieser Terminus stand so auf Deutsch im Original. Es scheint, dass der Begriff Eingang in den allgemeinen Wortschatz im Angelsächsischen findet so wie z. B. „Kindergarten“. Hier jedoch immer mit einem negativen Unterton. A. d. Übers.]

Als das Programm ins Leben gerufen wurde, stammten 6,6 % des deutschen Stroms aus erneuerbaren Quellen, vor allem aus Sonne und Wind. Bis 2019, fast zwei Jahrzehnte später, hat dieser Anteil 41 % erreicht.

Bis 2019 haben sich die durchschnittlichen Stromkosten für deutsche Haushalte im gleichen Zeitraum auf 34 US-Cent pro Kilowattstunde verdoppelt. (Vergleichen Sie dies mit 22 Cent pro kWh in Frankreich und 13 Cent in den Vereinigten Staaten).

Die mageren Bedingungen für die Versorgung mit erneuerbaren Energien haben sich in diesem Winter dramatisch verschlechtert, da das kälteste Wetter in Westeuropa seit einem Jahrzehnt Millionen von Sonnenkollektoren in Deutschland mit Schnee und Eis bedeckt und 30.000 Windturbinen außer Betrieb gesetzt hat. Der größte Teil des lebenswichtigen Stroms stammt daher aus Kohle.

Im Januar strahlte der öffentlich-rechtliche Rundfunk Berlin-Brandenburg (RBB) einen Bericht aus, der die Folgen des ständigen Abschaltens der Kohle- und Kernenergiekapazitäten des Landes zugunsten des Zubaus dieser „grünen erneuerbaren Alternativen“ zusammenfasst.

Harald Schwarz, Professor für Energieverteilung an der Universität Cottbus, brachte es auf den Punkt: „Die gesicherte Leistung von Wind + Sonne = 0“.*

[*Dieser Absatz ist im Original wirklich amüsant zu lesen. Dort heißt es: „Harald Schwarz, a professor of power distribution at the University of Cottbus, went straight to the point, saying: “die gesicherte leistung von wind + sonne = 0,” which means:

The guaranteed output of wind + sun = 0.” {Zitatende} A. d. Übers.]

Um den erneuerbaren Energien gegenüber wohlwollender zu sein, liegt der tatsächliche Nutzen angeblich zwischen null und zwei oder drei Prozent.

Die RBB-Sendung warnte weiter, dass Deutschlands vergeblicher Versuch, zuverlässige Atom- und Kohleenergie durch Wind- und Solarenergie zu ersetzen, die Schere zwischen Angebot und Nachfrage gefährlich weit öffnen wird.

Der aktuelle Trend lasse Deutschland keine wirkliche Alternative als in Zukunft verstärkt auf Erdgas aus Russland, Kohlestrom aus Polen und Atomstrom aus Frankreich zu setzen.

Und was ist mit Amerika, wo Wind- und Solarenergie zusammen höchstens vier Prozent unseres Netzstroms (nicht der Gesamtenergie) liefern, gegenüber etwa 80 Prozent aus Kohlenwasserstoffen?

Die 2-Billionen-Dollar-Agenda „Equitable Clean Energy Future“ von Biden verspricht, diese Kohlenwasserstoff-Emissionen aus der Elektrizität bis 2035 zu eliminieren und dann bis 2050 „Netto-Null-Kohlenstoff“ zu erreichen.

Um zu beweisen, dass er es ernst meint, hat Präsident Biden gleich an seinem ersten Tag im Oval Office die Keystone XL-Pipeline an der kanadischen Grenze gekappt, zusammen mit etwa 11.000 Arbeitsplätzen und 830.000 Barrel Öl pro Tag, die sie geliefert hätte und die nun mit CO2-emittierenden Zügen und Lastwagen transportiert werden müssen.

Zusätzlich zur Dezimierung unserer derzeitigen Energieversorgungs-Infrastruktur ist geplant, dass die Steuerzahler eine halbe Million Ladestationen für Elektroautos im ganzen Land finanzieren und eine gigantische Anzahl stromhungriger Elektrofahrzeuge hinzufügen müssen, um die bereits prekären Kapazitäten weiter zu belasten.

Bevor Sie sich in diese politische menschengemachte Klimakrise des Wahnsinns zu eigen machen, verlangen Sie zu wissen, woher genügend Energie kommen wird und zu welchen wirtschaftlichen und sozialen Kosten, um voll-elektrifizierte texanische Sommer- und Neuengland-Winterhäuser zu klimatisieren – plus Millionen von Plug-in-Fahrzeugen aufzuladen – an windstillen, wolkenverhangenen Tagen und Nächten – besonders während der unvermeidlichen extremen Wetterbedarfszeiten.

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2021/02/21/texas-power-freeze-down-demonstrates-political-climate-craziness/

Übersetzt von Chris Frey EIKE