Auszug aus dem jüngsten Rundbrief der GWPF: Blick von außen auf die deutsche Klimapolitik und deren Folgen

Grüner Selbstmord: Klima-Hysterie tötet die deutsche Auto-Industrie

Bloomberg
Deutschland befindet sich an einem Scheideweg, und nirgends wird das deutlicher zutage treten als diese Woche auf der Automesse in Frankfurt. Trotz eleganter neuer Elektrofahrzeuge wie dem Porsche Taycan läuft die traditionelle Zurschaustellung deutscher Auto-Spitzenleistungen Gefahr, zu einer Plattform für Proteste zu werden anstatt die Aufmerksamkeit einer Generation junger Verbraucher zu wecken. Es ist wahrscheinlicher, dass die Messe zu einer Demonstrations-Bühne gegen die Rolle des Autos bzgl. globaler Erwärmung wird als zu einem Verkaufsportal für neue VW, BMW oder Mercedes-Benz.

Es waren Autos, welche Deutschland zu einem globalen Herstellungs-Kraftzentrum gemacht haben, aber Bedenken hinsichtlich Verschmutzung – verschlimmert durch den VW-Dieselskandal 2015 – haben den Ruf eines Produktes schwer geschädigt, welches einst für individuelle Freiheit stand. Jüngst haben Handelsbeschränkungen und sich abschwächende Konjunktur die Nachfrage dezimiert. Die Folge ist, dass die Auto-Produktion in Deutschland auf das niedrigste Niveau seit mindestens 2010 gesunken ist:


„Investoren schreckten schon seit einigen Jahren vor den Aussichten dieser Industrie zurück, und die Liste der Bedenken-Erreger scheint nicht kürzer zu werden“, sagte Max Warburton, ein in London ansässiger Analyst. „Es gibt da das allgemeine Gefühl, dass alles noch schlimmer wird“.

Das Ende der Ära von Verbrennungsmotoren sowie Autokäufer, die mehr an Datenverbindungen als an Pferdestärken interessiert sind, bedrohen den Spitzenplatz Deutschlands in der Rangfolge der Selbstfahrer. Überall zeigen sich Schwierigkeiten. Zusätzlich zu zahlreichen Gewinnwarnungen dieses Jahres stellte der Mercedes-Hersteller Daimler AG einen Plan zurück, die Kapazität eines Werkes in Ungarn zu erweitern. Der Zulieferer Continental AG trat in Verhandlungen bzgl. des Abbaus von Arbeitsplätzen ein, und der Zulieferer Eisenmann meldete Insolvenz an.

Deutschland taumelt am Rande einer Rezession, und die Autoindustrie ist ausschlaggebend für die Gesundheit der Wirtschaft. Autohersteller wie Volkswagen, Daimler und die BMW AG ebenso wie Zulieferer wie die Robert Bosch GmbH und Continental beschäftigen etwa 830.000 Menschen im Lande und stützen alles von Maschinenbauern bis zu Werbeagenturen und Reinigungsdiensten. Fabriken von Portugal bis nach Polen unterstreichen, dass die Bedeutung dieses Wirtschaftszweiges in ganz Europa wurzelt.

Mit den für das nächste Jahr geplanten strengeren Vorschriften bzgl. CO2-Emissionen nehmen die Bedenken zu, dass Unternehmen in der gesamten industriellen Landschaft nicht darauf vorbereitet sind, mit der Technologie-Transition umzugehen, welche aus dem Klimawandel sowie einem steigenden Niveau der Digitalisierung folgt.

Der ganze Beitrag steht hier.

Siehe auch hier und hier
—————————————-
Warnung von McKinsey: Erneuerbare bedrohen die deutsche Ökonomie und die Energieversorgung

Michael Shellenberger, Forbes

Ein neuer Report der Beraterfirma McKinsey kommt zu dem Ergebnis, dass die Energiewende in Deutschland eine erhebliche Bedrohung der Wirtschaft und für die Energieversorgung des Landes darstellt. Eine der größten Zeitungen Deutschlands, Die Welt, fasste die Ergebnisse des McKinsey-Reports mit einem einzige Wort zusammen: „katastrophal“.

Probleme manifestieren sich in allen drei Dimensionen des Dreiecks Energieindustrie: Klimaschutz, Versorgungssicherheit und ökonomische Effizienz“, schreibt McKinsey.

Im Jahre 2018 erzeugte Deutschland 866 Millionen metrische Tonnen Kohlendioxid, das ist weit entfernt von dem Ziel von lediglich 750 Millionen Tonnen bis zum Jahr 2020.

Dank eines etwas milderen Winters sanken die Emissionen in Deutschland im Jahre 2018 etwas, aber nicht stark genug, um den Gesamttrend zu ändern. „Falls die Reduktion der Emissionen in gleicher Weise fortsetzt wie im vorigen Jahrzehnt, werden die CO2-Ziele 2020 erst acht Jahre später erreicht, und die Ziele für 2030 erst im Jahre 2046“.

Deutschland hat es nicht vermocht, auch nur in die Nähe der Reduktion seines Primär-Energieverbrauchs zu kommen auf ein Niveau, das man sich erhofft hatte. McKinsey zufolge liegt Deutschland erst bei 39% auf seinem Weg zur Reduktion seines Primär-Energieverbrauchs.

Trotz des Hypes erzeugt Deutschland gerade mal 35% seines Stromes aus Erneuerbaren. Und falls man das Verbrennen von Biomasse einmal außen vor lässt, was oftmals schmutziger als Kohleverbrennung ist, erzeugten Wind, Wasser und die Sonne in Deutschland im Jahre 2018 nur etwa 27% seines Stromes.

Die eindringlichste Warnung von McKinsey gilt jedoch der zunehmend unsichereren Energieversorgung des Landes infolge der starken Abhängigkeit von intermittentem Solar- und Windstrom. An drei Tagen im Juni 2019 stand das Stromnetz kurz vor dem Zusammenbruch. „Nur kurzfristige Importe aus den Nachbarländern konnten das Netz noch stabilisieren“.

Als Folge des Einbruchs der Energieversorgung schossen die höchsten Kosten für kurzfristigen „Energie-Ausgleich“ von 64 Euro im Jahre 2017 auf 37.856 Euro im Jahre 2019 in die Höhe.

Man darf davon ausgehen, dass die Versorgungssicherheit sich in Zukunft weiter verschlechtern wird“, schreibt McKinsey.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Neue Studien belegen, wie Klimamodelle scheitern

Die von der University of Pennsylvania geleitete Studie ist Teil eines größeren Projektes mit der Bezeichnung ArchaeoGLOBE, wobei Online-Umfragen herangezogen werden, wie sich der Landverbrauch in 146 verschiedenen Gebieten der Welt verändert hat. Landverbrauch, das kann alles sein von der Jagd über Ackerbau bis zu grasenden Viehherden.

„Wir sehen eine beschleunigte Trajektorie umweltlicher Auswirkungen“, sagte der Anthropologe Ryan Williams, ein Mitautor der Studie. „Während die Rate heutiger Umweltänderungen viel drastischer ist, können wir die Auswirkungen erkennen, welche das menschliche Einwirken schon vor tausenden von Jahren hatte“.

„Alles begann vor 3000 Jahren“, sagt Feinman. „Es zeigt, dass die Probleme, vor denen wir heute stehen, sehr tiefe Wurzeln haben, und es braucht viel mehr als lediglich einfache Lösungen, diesen zu begegnen. Sie dürfen nicht ignoriert werden“.

Das Phytoplankton-Puzzle

Ebenfalls in Science Advances veröffentlicht ist eine Abschätzung der Phosphat-Verteilung auf der Meeresoberfläche der Ozeane weltweit. Dabei zeigen sich erhebliche Differenzen zwischen Modellen und Beobachtungen.

Martiny et al. analysierten über 50.000 hoch sensitive Phosphat-Beobachtungen von 42 Schiffen. Dabei zeigten sich eindeutige Differenzen der Phosphat-Konzentration innerhalb und zwischen den ozeanischen Becken. Auch konnten verschiedene, zuvor unbekannte Regionen mit geringer Phosphat-Konzentration entdeckt werden. Es ist grundlegend für Wissenschaftler, die globale Verteilung von Phosphat genau zu kennen, wobei auch spezifische Variationen bei einem geringen Phosphat-Niveau berücksichtigt werden müssen, um die zukünftige Auswirkung des Klimawandels bzgl. der Kohlenstoff-Speicherung in den Ozeanen sowie die Produktivität ozeanischer Ökosysteme modellieren zu können.

Die neuen Forschungen zeigen, dass die derzeitigen Klimamodelle die künftig zu erwartende Abnahme von Phytoplankton überschätzen – jene mikroskopischen Algen, welche die Basis der ozeanischen Nahrungskette bilden und Phosphor für die Photosynthese verbrauchen. Das ist bedeutsam, weil selbst geringe Differenzen der Phosphat-Konzentration ozeanische Ökosystem-Prozesse radikal beeinflussen können.

Neubewertung des Kohlenstoff-Zyklus‘

Außerdem haben die Wissenschaftler Beweise gefunden, dass die horizontale Zirkulation Kohlenstoff-reichen Ozeanwassers in den subpolaren Südlichen Ozeanen vereint mit der vertikalen Zirkulation erfolgt. Dies kontrolliert, wie viel Kohlenstoff in der in der Tiefsee gespeichert oder in die Atmosphäre freigesetzt wird.

MacGilchrist et al. untersuchten den Weddell Gyre mittels Daten von Schiffen sowie Satellitenbeobachtungen. Sie entdeckten, dass der Wirbel Kohlenstoff enthaltendes Phytoplankton vom offenen Ozean aus dem Gebiet hinaus transportiert mit einer Rate von etwa 80 Billionen Gramm pro Jahr. Das belegt, dass der Wirbel eine Schlüsselrolle spielt im Kohlenstoff-Transport der Südlichen Ozeane. Wichtig dabei ist, dass diese Studien dem konventionellen Verständnis des Kohlenstoff-Zyklus‘ in antarktischen Gewässern widersprechen, wonach die Kohlenstoff-Aufnahme der vertikalen Zirkulation zugeordnet wird, während die Verteilung großräumiger Systeme von Ozean-Wirbeln, Gyres genannt, übersehen werden.

Die Neubewertung des Kohlenstoff-Zyklus‘ im Südlichen Ozean ist ein unabdingbarer Schritt hin zu genaueren Computermodellen für die Prognose, wie der Klimawandel die Versauerung der Ozeane beeinflusst und Änderungen der Meereis-Bedeckung auslöst.

Link: https://www.thegwpf.com/new-studies-show-how-climate-models-fail/

Übersetzt von Chris Frey EIKE




Aus einem Rudbrief der GWPF: Neuseeland: James Cook University zur Zahlung von 1,2 Millionen an Peter Ridd verurteilt

Richter Salvatore Vasta verkündete die Strafe nach Anhörungen zu Beginn dieses Jahres. Er ordnete an, dass die Townsville University 1.094.214,47 [australische] Dollar an Dr. Ridd zahlen muss als Kompensation für ökonomische Verluste in der Vergangenheit und in Zukunft infolge der gesetzwidrigen Entlassung, und als Kompensation für über „drei Jahre unfairer Behandlung“. Zusätzlich muss die JCU noch 125.000 Dollar Strafe zahlen.

Der Richter kritisierte die Universität scharf und warf ihr vor, „die Rechte von Dr. Ridd auf intellektuelle Freiheit nicht beachtet zu haben“.

Der Physik-Professor, der sich auf maritime Umwelt spezialisiert und 30 Jahre lang an der JCU gearbeitet hatte, beklagte am Freitag die hässliche Affäre. Er sagte: „Dieser Kampf hätte von Anfang an niemals beginnen dürfen. Ich forschte 35 Jahre lang am Great Barriere Reef, und es ist mein fester Glaube, dass es systematische Probleme bei der Sicherstellung der Qualität an den Institutionen gebe, welche sich mit dem Riff befassen. Ich hatte das Recht, die Pflicht, das zu sagen. JCU hat dieses fundamentale Recht immer noch nicht akzeptiert, trotz der Bedeutung der Debatte für die Region Nord-Queensland.

Dr. Ridd sagte weiter, dass falls die JCU Berufung gegen dieses Urteil einlegt, was sie innerhalb der nächsten drei Wochen tun kann, dies ernste Zweifel an der Behauptung der Institution wecken würde, die akademische Freiheit hochzuhalten.

Nachdem er bereits über 200.000 Dollar aus seiner eigenen Schatulle für das Verfahren aufgebracht hatte, zusätzlich zu 260.000 Dollar für eine Crowdsourcing-Kampagne, sagte Dr. Ridd, dass er im Falle einer Fortsetzung des Verfahrens um weitere Spenden bitten müsste.

Man glaubt, dass die JCU über 600.000 Dollar Strafe zahlen musste.

Meine Anwälte sagen, es ist ein Grundsatzurteil, so dass es ein Erfordernis ist, den Kampf falls notwendig fortzusetzen“.

—————————————–

Der ganze Beitrag steht hier*.

[*Bemerkung: Der Link führt aber nur zur Titelseite der Zeitung The Australian. Der Beitrag müsste sich da irgendwo verstecken, ist aber nicht direkt verlinkt. Anm. d. Übers.]

Übersetzt von Chris Frey EIKE




Merkel, das IPCC und die Geister, die sie rief: Teil3 – klägliche Solar-Ergebnisse

Unsere moderne Welt ist elektrisch. Das gilt für alle Bereiche des Privatlebens ebenso wie für Gewerbe, Industrie und Verwaltung. Ein Haus ohne Stromversorgung ist heute unbewohnbar. Ohne Strom würden die Patienten im Krankenhaus sterben, und es gibt – bis vielleicht auf ein paar Wanderschäfer – so gut wie kein Gewerbe, das heute noch ohne Strom auskommen würde. Und sei es nur für die Computer und Telekommunikationssysteme in der Verwaltung. In jahrzehntelanger Arbeit haben unsere Vorgängergenerationen aus dem Schutt der Zerstörungen des zweiten Weltkriegs eine der besten Stromversorgungen der Welt aufgebaut. Die Sicherheit dieser Stromversorgung ist im Sinne des Wortes existenziell für das Überleben unserer Zivilisation und damit der Gesellschaft. Bricht unser Netz zusammen, so wird es schon nach kurzer Zeit gravierende Schäden geben, wenn Versorgungsketten und Kommunikation zusammenbrechen. Ohne Strom funktionieren Ampeln und Verkehrssignalisation genauso wenig wie die Mobiltelefone, mit denen z.B. Hilfe für Verletzte nach Unfällen oder für Kranke nach Herzinfarkten herbeigerufen werden könnte. Wer funktionierende Kraftwerke flächendeckend abschalten will, wie es die deutsche Regierung derzeit vorhat, sollte eigentlich nachweisen können, dass und wie gut der vorgesehene Ersatz die künftige Stromversorgung unserer Nation sichern kann. Schauen wir uns daher zunächst an, was eine künftige Stromversorgung leisten muss.

Ohne Strom keine moderne Zivilisation

Elektrizität ist das Lebensblut unserer Zivilisation. In so gut wie allen technischen Geräten vom Telefon über Produktionsmaschinen bis zum Auto sind heute Mikroprozessor- oder Computersteuerungen integriert. Diese reagieren meist äußerst empfindlich auf Störungen der elektrischen Versorgung. Schon sehr kurze Unterbrechungen im Sekundenbereich können dazu führen, dass ganze Fabriken zum Stillstand kommen oder IT-Systeme in den Streik treten. Da die Regierung vorhat, sowohl Kohle- als auch Kernkraftwerke stillzulegen und durch Wind- und Solarstromerzeugung zu ersetzen, wollen wir einen Blick darauf werfen, wieweit diese beiden künftigen Hauptlieferenten für Strom imstande sind, die Kriterien „bedarfsgerecht“ und „sicher“ zu erfüllen. Dass sie angesichts ihrer offenkundig exorbitanten Kosten nicht bezahlbar sind, wurde ja bereits im Teil 2 dieser Analyse besprochen.

Der Strombedarf Deutschlands

In unserer komplexen arbeitsteiligen Gesellschaft ist Zeit ein entscheidender Faktor. Ein Patient mit Herzinfarkt braucht SOFORT medizinische Hilfe. Moderne Produktions- und Logistikketten können nur funktionieren, wenn alle Leistungen vom Rohstoff bis zur fertigen Ware stets genau dann erbracht werden, wenn sie benötigt werden. Lebensmittelfabriken funktionieren ebenso nach diesem Prinzip wie Automobilwerke oder die Logistikketten, über die empfindliche Güter wie Impfstoffe oder Blut- und Gewebeproben für die Medizin gekühlt und innerhalb vorgeschriebener Zeiträume an ihren Bestimmungsort gelangen müssen. Dazu muss Strom jederzeit in der benötigten Menge abrufbar sein. Die Frage ist daher zunächst, ob Sonne und Wind diese Voraussetzungen erfüllen können. Bei der Betrachtung des Bedarfsprofils muss zwischen den Jahreszeiten, den verschiedenen Wochentagen und dem jeweiligen Tagesverlauf unterschieden werden, Bild 2, Bild 3 und Bild 4.

Bild 2. Tagesdurchschnitte des Leistungsbedarfs (entspricht der mittleren Netzlast) im Verlauf des Jahres 2018 (Grafik und Berechnungen: Autor, Daten)

Wie an den in Bild 2 aufgetragenen Tagesdurchschnitten des Leistungsbedarfs zu erkennen ist, unterliegt der Bedarf ständigen Schwankungen. Während er in der Woche am höchsten ist, sind die Wochenenden durch deutliche Rückgänge gekennzeichnet. Dem überlagert sich eine jahreszeitbedingte Schwebung aufgrund des erhöhten Bedarfs an Wärme und Beleuchtung in der kalten Jahreszeit. Besonders ausgeprägt ist der Rückgang in der Weihnachtszeit infolge der Betriebsruhe in weiten Teilen von Gewerbe und Industrie. Den niedrigsten mittleren Tages-Leistungsbedarf mit nur 44.617 MW gab es erwartungsgemäß an einem Sonntag in der Jahresmitte (3.6. 2018). Der höchste Wert wurde dagegen mit 78.175 MW an einem Donnerstag Anfang März (1.3.1208) verzeichnet. Grund hierfür war ein massiver Kälteeinbruch in den ersten Märztagen mit Nachttemperaturen bis zu -19 °C.

Bild 3. Wochen mit dem höchsten (26.2.2018-4.3.2018) bzw. niedrigsten (27.5.2018-3.6.2018) Verlauf der Netzlast (Grafik und Berechnungen: Autor, Daten)

In Bild 3 zeigt sich der typische Verlauf des Strombedarfs innerhalb der Woche sowie im Verlauf der einzelnen Wochentage. An Arbeitstagen ist der Bedarf wegen der laufenden Produktion erhöht und fällt zum Wochenende dann deutlich ab. Zeiten mit höheren Außentemperaturen und längerer Tageshelligkeit im Sommer bedingen einen erheblich geringeren Strombedarf als kalte Perioden in den Wintermonaten. So trat der höchste Strombedarf am 1.3.2018 (Donnerstag) um 12:30 Uhr auf, während der niedrigste Wert in den frühen Morgenstunden des 3.6.2018 (Sonntag) um 04:45 Uhr verzeichnet wurde. Auffällig ist hierbei, dass die Tag-Nacht-Schwankungen im Winter eher moderat ausfallen, während sie im Sommer deutlich stärker ausgeprägt sind.

Bild 4. Die Tage mit dem höchsten (1.3.2018) und niedrigstem (3.6.2018) Strombedarf zeigen tagestypische Profile für Werk- bzw. Feiertage im Winter- bzw. im Sommerhalbjahr (Grafik und Berechnungen: Autor, Daten)

Auch an Bild 4 fällt auf, dass der prozentuale Unterschied zwischen höchster und niedrigster Netzlast an einem Werktag im Winter mit nur 34 % deutlich geringer ausfällt als im Sommer, während der Rückgang am Wochenende im Sommer 55 % betragen kann. Ungeachtet der Tatsache, dass Hausheizungen heute weit überwiegend fossil betrieben werden, hängt der private Stromverbrauch offensichtlich sehr stark von der Witterung sowie der Dauer des Tageslichts ab.

Können Sonne und Wind bedarfsgerecht liefern?

Entscheidend für ein künftiges Stromkonzept ist letztlich die Frage, wieweit Sonne und Wind imstande sind, den oben aufgezeigten Bedarf der Bevölkerung – und dazu gehört auch der Strombedarf für ihre Arbeitsplätze – auch anforderungsgerecht zu decken. Schließlich sind Solarstrahlung und Wind Wetterphänomene, die zumindest lokal starken Schwankungen unterliegen. Die Vertreter der „erneuerbaren“ Energien behaupten hierzu häufig, dass sich dies über die Größe des Landes und die saisonal gegenläufige Produktion von Wind- und Solarsystemen ausgleiche. Typischer Spruch ist in diesem Zusammenhang: „Irgendwo weht immer Wind, und Sonne und Wind gleichen sich über die Jahreszeiten hinweg gegenseitig aus“. Schauen wir uns deshalb typische Charakteristiken dieser Erzeugungstechnologien an.

Sonnenstrom: Teils hervorragende Berechenbarkeit

Sonnenstrom ist die einzige „erneuerbare“ Energie, deren Verfügbarkeit mit hoher Präzision vorausberechnet werden kann, allerdings lediglich was ihre Nichtverfügbarkeit angeht: In den Nachtstunden liefern die in Deutschland installierten Fotovoltaikanlagen trotz ihrer enormen Kapazität von 43.037 MW mit höchster Zuverlässigkeit Null Strom. Der tatsächliche Nutzungsgrad dieser teuersten aller „EE“-Stromerzeuger lag im Durchschnitt des (außergewöhnlich sonnenreichen) Jahres 2018 bei rund 10,9 % und ist damit der schlechteste aller „erneuerbaren“ Stromerzeuger. Was die Stromerzeugung während der hellen Stunden des Tages angeht, so muss auch hier zwischen Jahresverlauf und Tagesverlauf unterschieden werden. Schauen wir uns dazu Bild 5, Bild 6 und Bild 7 an.

Bild 5. Gegenüberstellung der Tagesproduktion an Solarstrom zum jeweiligen Tagesbedarf in MWh/ d (Grafik und Berechnungen: Autor, Daten)

Schon ein kurzer Blick auf Bild 5 zeigt, dass Solarstrom trotz seiner überproportionalen Kosten (10,3 Mrd. € bzw. 38,2 % der EEG-Auszahlungen im Jahr 2018) und ungeachtet der außergewöhnlich hohen Sonnenstundenzahl des Jahres 2018 per Saldo nur 20 % des gesamten „EE“-Strombudgets geliefert hat. Zudem erzeugt die Fotovoltaik gerade dann kaum Strom, wenn der Bedarf in der kalten und dunklen Jahreszeit besonders hoch ist. Während die Sonnenpaneele am Best-Tag (6.5.2018) immerhin 20,39 % des benötigten Stroms ins Netz lieferten, waren es an ihrem schlechtesten Tag (21.12.2018) nur klägliche 0,40 %.

Bild 6. Der Beitrag der solaren Stromerzeugung zur Netzlast von 73.205 MW lag am 21.12.1018 selbst in der Spitze zur Mittagszeit bei geradezu kläglichen 1.414 MW (Grafik und Berechnungen: Autor, Daten)

Bild 6 zeigt überdeutlich, dass man den Beitrag der Fotovoltaik zur Stromversorgung an trüben Wintertagen getrost vergessen kann. Strom steht nur an den 7 Stunden von ca. 8:30 bis 15:30 zur Verfügung und selbst dann nur in Mengen, die selbst in der Spitzenzeit zur Tagesmitte nur etwa 2 % des Bedarfs decken können.

Bild 7. Leistungsabgabe der deutschen Solaranlagen am Tag mit der höchsten Produktion im Vergleich zum Tag mit der geringsten Produktion (Grafik und Berechnungen: Autor, Daten)

Auch Bild 7 verdeutlicht den katastrophalen Einbruch der Fotovoltaikleistung in der kalten Jahreszeit. Während die deutschen Solarpaneele am Mittag des 2.7.2018 insgesamt 29.051 MW und damit 67 % ihrer theoretischen Höchstleistung ablieferten, kamen sie am 21.12.2018 mit 1.414 MW auf lediglich 3 % der nominellen Kapazität. Fotovoltaikstrom ist daher nicht einmal bedingt für die Versorgung einer modernen Industrienation geeignet, selbst wenn es gelingen sollte, eine halbwegs taugliche Speicherlösung zu entwickeln. Das Handicap liegt darin, dass eine Speicherung nicht nur den Tag-Nacht-Zyklus, sondern darüber hinaus auch noch den halbjährigen saisonalen Sommer-Winter-Zyklus abdecken müsste, was die Installation von utopisch großen Speicherkapazitäten voraussetzt. Zudem sind die dadurch bedingten sehr langen Lade- und Entladezyklen mit klassischen Batterietechnologien nicht sinnvoll darstellbar. Anbieter, die Privatleuten solche Konzepte anzubieten versuchen, können als unseriös eingestuft werden. Der weitere Ausbau bzw. jegliche öffentliche Förderung von Fotovoltaiklösungen sollten daher möglichst sofort eingestellt werden.

Hintergrundliteratur

Limburg, M.; Mueller, F.: Strom ist nicht gleich Strom TvR Medienverlag, Jena, ISBN 978-3-940431-54-7




Anmer­kungen zur hemisphä­rischen Mittelwert­bildung mit dem Stefan-Boltzmann-Gesetz

Der vorläufigen IPCC-Inquisition ist in ihrer Kritik meines hemisphärischen S-B-Ansatzes weiterhin eine rein „astrophysikalische“ Sicht auf unsere Erde vorzuwerfen. Ausgerechnet jener Anblick aus dem All, der das optische Bild unseres „Blauen Planeten“ prägt, ist nämlich derjenige Anteil der solaren Einstrahlung, der gar nicht an der globalen Temperaturgenese auf der Tagseite unserer Erde beteiligt ist. Und der ominöse „Faktor 4“ der vorläufigen IPCC-Inquisition beschreibt dann sofort eine Art globaler Abstrahlung.

Nun liegt die „Temperaturwerdung“ (Temperaturgenese) auf der Tagseite unserer Erde (@2πR²) aber genau zwischen solarer Einstrahlung (@πR²) und terrestrischer Abstrahlung (@4πR²) – denn kein vernünftiger Mensch dürfte abstreiten, dass es auf unserer Erde Tag und Nacht gibt. Es gilt auf unserer Erde also für das rechnerische S-B-Temperaturäquivalent (S-B-T):

(S-B-T Einstrahlung @ πR²)(S-B-T Tagseite @ 2πR²) (S-B-T Abstrahlung @ 4πR²)

Um den ominösen „Faktor 4“ der vorläufigen IPCC-Inquisition für die Temperaturgenese auf unserer Erde vermittels eines vorgeblich „natürlichen atmosphärischen Treibhauseffektes“ zu erschüttern, mag ein Verständnis der Entwicklungsgeschichte meines hemisphärischen Stefan-Boltzmann-Ansatzes hilfreich sein. Ich erlaube ich mir daher, alle meine Beiträge zum hemisphärischen S-B-Ansatz hier auf EIKE unter (*) in der Schlussbemerkung noch einmal komplett aufzulisten.

Mit keinem anderen physikalischen Gesetz wird so viel Schindluder getrieben wie mit dem Stefan-Boltzmann-Gesetz. Das Stefan-Boltzmann-Gesetz stellt eine Beziehung zwischen Temperatur und Strahlungsleistung eines Schwarzen Körpers in einem GLEICHZEITIGEN gemeinsamen thermischen Gleichgewicht her. Dieses physikalische Gesetz wird aber häufig dazu missbraucht, um beliebig ermittelte Durchschnittswerte der Strahlungsleistung in eine Temperatur oder umgekehrt beliebig ermittelte Durchschnittstemperaturen in eine Strahlungsleistung umzurechnen, die weder zeitgleich eintreten noch physikalisch direkt miteinander interagieren.

Die allgemeine Form des Stefan-Boltzmann-Gesetzes wird auch als Umgebungsgleichung bezeichnet:

P/A = σ * (T4 – T04)

mit der Stefan-Boltzmann-Konstanten σ = 5,670 10 -8 [W m-2 K-4],

P = Strahlungsleistung in [W], A = Fläche [m²], T und T0 Temperaturen in [K]

In der üblicherweise dargestellten Form lautet das Stefan-Boltzmann-Gesetz:

P/A = σ * T4

Diese Form des Stefan-Boltzmann-Gesetzes stellt den astronomischen Spezialfall für eine Umgebungstemperatur T0 von 0 Kelvin dar.

Das Stefan-Boltzmann-Gesetz stellt somit eine feste Beziehung zwischen Strahlungsleistung, Oberfläche und Temperatur eines Schwarzen Körpers her, oder anders ausgedrückt, es setzt für eine konkrete TEMPERATUR eine flächenkonstante SPEZIFISCHE Strahlungsleistung (P/A=konst. @A) voraus. Denn im S-B-Experiment hat ein Schwarzer Körper eine genau DEFINIERTE Temperatur, bei der er über seine gesamte Oberfläche ZEITGLEICH mit einer DEFINIERTEN konstanten Leistung abstrahlt.

Lediglich im ersten Bericht des IPCC von 1992 wird der „natürliche atmosphärische Treibhauseffekt“ noch irgendwie beschrieben; alle Folgeberichte beziehen sich dann nur noch auf seine vorgebliche Wirkungsweise durch heiße Luft (=„klimaaktive Gase“). Eine exakte Herleitung dieses „natürlichen atmosphärischen Treibhauseffektes“ sucht man auch in der physikalischen Literatur vergebens (Gerlich & Tscheuschner 2009). Selbst im Internet beschränkt sich die aktuelle Information über den atmosphärischen Treibhauseffekt auf wenig konkrete Allgemeinplätze und verallgemeinerte Flussdiagramme; das amerikanische Wikipedia bietet immerhin noch eine dünne Erklärung mit konkreten Zahlenwerten an, Zitat mit Hervorhebungen:

“…If an ideal thermally conductive blackbody were the same distance from the Sun as Earth is, it would have a temperature of about 5.3 °C. However, because Earth reflects about 30% of the incoming sunlight, this idealized planet’s effective temperature (the temperature of a blackbody that would emit the same amount of radiation) would be about −18 °C. The surface temperature of this hypothetical planet is 33 °C below Earth’s actual surface temperature of approximately 14 °C. The mechanism that produces this difference between the actual surface temperature and the effective temperature is due to the atmosphere and is known as the greenhouse effect

Dank an den neutralen Google-Übersetzer mit einer [Korrektur]:

„… Wenn ein idealer wärmeleitender Schwarzkörper genauso weit von der Sonne entfernt wäre wie die Erde, hätte er eine Temperatur von etwa 5,3 ° C. Da die Erde jedoch ungefähr 30% des einfallenden Sonnenlichts reflektiert, würde die effektive Temperatur dieses idealisierten Planeten (die Temperatur eines schwarzen Körpers, der dieselbe Strahlungsmenge [-leistung] emittieren würde) ungefähr –18 ° C betragen. Die Oberflächentemperatur dieses hypothetischen Planeten liegt 33 ° C unter der tatsächlichen Oberflächentemperatur der Erde von ungefähr 14 ° C. Der Mechanismus, der diese Differenz zwischen der tatsächlichen Oberflächentemperatur und der effektiven Temperatur erzeugt, ist atmosphärisch bedingt und wird als Treibhauseffekt bezeichnet. “

Anmerkung: Auch hier auf Wikipedia sind bereits gewisse „Anpassungen“ an den „menschengemachten“ Klimawandel zu erkennen. Ursprünglich wurde der Beitrag eines „natürlichen atmosphärischen Treibhauseffektes“ (THE) zur Globaltemperatur nämlich als Differenz von 33°C zwischen den -18°C aus der konventionellen globalen S-B-Ableitung und einer vorgeblich „gemessenen“ globalen Durchschnittstemperatur von 15°C bestimmt (Sekundärzitat auf Kiehl et al. (1997) für diese Globaltemperatur hier auf Seite 7 im 2. Absatz). Auf Wikipedia wird durch deren Reduzierung auf 14°C (THE32°C) nunmehr Platz für einen „anthropogenen“ Temperaturanstieg von etwa 1°C geschaffen, wodurch der Temperaturanstieg seit Beginn der Industrialisierung allein dem anthropogenen CO2-Ausstoß zugerechnet wird.

Die WMO gibt die globalen Absoluttemperaturen für die vergangenen Jahre mit (14,57°C@2014, 14,76°C@2015, 14,83°C@2016, 14,76°C@2017 und 14,68°C@2018) an und bleibt damit sogar noch unter der Globaltemperatur von Kiehl et al. (1997).

Ein „natürlicher atmosphärischer Treibhauseffekt“ scheint also heutzutage zum gesicherten allgemeinen Glaubensrepertoire zu gehören und bedarf offenbar keiner tieferen physikalischen Erklärung mehr. Versuchen wir trotzdem einmal, die dargestellten Eckwerte zu rekonstruieren und ihre Relevanz zu hinterfragen. Wenn wir in die Solarkonstante “S0” (= 1.367 W/m²) in das S-B-Gesetz einfügen, dann erhalten wir für die temperaturwirksame Sonneneinstrahlung:

S0 * (1-α) = P/A = σ * T4 mit α = Albedo der Erde und (P/A=konst. @A)

Solange wir es mit selbststrahlenden Sternen und einheitlichen Werten der spezifischen Strahlungsleistung auf den betrachteten Flächen (P/A=konst.) zu tun haben, ist die Anwendung des Stefan-Boltzmann-Gesetzes trivial. Sehr viel komplizierter wird es, wenn wir uns mit einem passiv „beheizten“ Planeten wie der Erde (spezifische Einstrahlungsleistung = Funktion von Tageszeit und geographischer Breite) befassen. Denn das Stefan-Boltzmann-Gesetz muss vor einer jeglichen Mittelwertbildung für das S-B- Temperaturäquivalent zuerst auf die örtlich konstanten Individualwerte der spezifischen Strahlung angewendet werden (Gerlich 1995), wie auch meine nachstehende Ungleichung nachweist:

mit Si = individuelle spezifische Strahlungsleistung (Pi/Ai) und
TS-B = Gemittelte Durchschnittstemperatur aus den individuellen S-B-Temperaturäquivalenten
TM = Durchschnittstemperatur als aus einer gemittelten Strahlungsleistung

Nur wenn die einzelnen S-B Temperaturäquivalente vor der Mittelwertbildung aus der jeweiligen örtlichen Strahlungsleistung (Si=Pi/Ai=konst. @ Ai) berechnet werden, ergibt sich ein korrektes
Mittel für die Temperatur auf der Tagseite. Im S-B-Experiment strahlt ein Schwarzer Körper bei konstanter Temperatur mit einer konstanten Flächenleistung (P/A=konst. @A), aufgrund der Versuchsanordnung praktisch als Quasi-2-D-Strahler. Für eine Anwendung des S-B-Gesetzes auf eine beliebige bestrahlte Fläche „A“ ergibt sich also das folgende Dilemma:

Abbildung: Flächenverhältnisse für die solare Einstrahlung auf der Erde

Für die Anwendung des Stefan-Boltzmann-Gesetzes auf die passiv bestrahlte Erde ergibt sich damit die folgende Situation für das rechnerische S-B-Temperaturäquivalent (S-B-T):

S-B-T Einstrahlung @ πR²: Sonneneinstrahlung auf einer Kreisfläche mit (A = πR2) und (P/A=konst.)

=> eine direkte S-B Anwendung ist möglich

S-B-T Tagseite @ 2π: Sonnenstrahlung auf der Tagseite der Erde mit (A = 2πR2) und (P/Akonst.)

=> eine S-B Anwendung ist lediglich auf Teilflächen mit (P/A=konst.) möglich

S-B-T Abstrahlung @ 4π: Mittelung der solaren Einstrahlung über die gesamte Erdoberfläche mit (A = 4πR2) und (P/Akonst. @ Tagseite mit 2πR2) sowie (P/A=0 @ Nachtseite mit 2πR2)

=> es ist keine S-B-Anwendung über die Gesamtfläche der Erde möglich, denn die Nachtseite erfüllt die S-B-Bedingung eines gemeinsamen thermischen Gleichgewichtes NICHT (für die Abstrahlung @ 4πR2 gilt vielmehr die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes)

Schaunmeralsomalgenauhin:

Eine S-B konforme Temperaturberechnung muss demnach additiv über die Mittelung aller Flächenelemente mit gleicher spezifischer Sonneneinstrahlung auf der Tagseite der Erde erfolgen, wie die nachfolgende Abbildung zeigt.

Berechnungsschema:

Lotrechter Sonnenstand auf dem Äquator,
Berechnung des S-B-Temperaturäquivalents aus der
lokalen solaren Einstrahlung auf Mantelringen mit dem Radius ri
und dem Zenitwinkel i nach der Formel: Si = S0 * (1-α) * cos ?i = σ * Ti 4S-B
Summation von 0°-90° über konzentrische Mantelringe von 1° Breite

Die Gleichung für einen flächengewichteten Mittelwert der örtlichen S-B-Individualtemperaturen lautet dann:

Mittelwert der S-B-Temperaturäquivalente auf der Tagseite der Erde

Die Berechnungen für die nachfolgenden Abbildungen beruhen auf einem mittäglich zenitalen Sonnenhöchststand in äquinoktialer Position und wurden in konzentrischen 1°-Ringen des individuelle Zenitwinkels ?i von 0° bis 90° gegenüber einem äquatorialen Sonnenstand durchgeführt:

Dabei wurden die hemisphärischen Strahlungswerte Si und das zugehörige S-B-Temperaturäquivalent Ti für die jeweilige Ringmitte ermittelt, also beispielsweise bei 1,5° für den Ring von 1°-2°:

Abbildung: Vom Zenitwinkel abhängige Temperaturwirksame Sonnenstrahlung pro 1°-Segment in [W/m²]

Abbildung: Vom Zenitwinkel abhängiges S-B Temperaturäquivalent pro 1°-Segment in [°C]

Abbildung: Mantelfläche der individuellen 1°-Segmente in Quadratkilometern

Abbildung: Leistungsaufnahme der individuellen 1°-Segmente in Megawatt

Die Berechnungen für diese Grafiken stellen lediglich eine Momentaufnahme bei konstantem äquatorialem Sonnenstand dar und repräsentieren für keine Position auf der Taghalbkugel der Erde einen vollen Tageszyklus. Wir berechnen trotzdem einmal einen flächengewichteten Temperaturdurchschnitt aus den konzentrischen 1°-Mantelringen der Tagseite für individuelle Zenitwinkel von 0° bis 90° bei einem äquatorialen Sonnenstand:

mit Ti=S-B-Temperaturäquivalent und Fi=Fläche eines 1°-Mantelrings mit ri und ?i (= ?ri +/- 0,5°)

Anmerkung: Dieses Ergebnis für ein durchschnittliches hemisphärisches S-B-Temperaturäquivalent dürfte sich noch etwas erhöhen, wenn die Mantelringe schmaler gewählt werden.

Dieses Flächenmittel für das hemisphärische S-B-Temperaturäquivalent von 14,03 °C kommt schon recht nahe an die vorgeblich „gemessene“ globale Durchschnittstemperatur (NST) heran (S. dazu auch die obige Anmerkung zur Wikipedia-Übersetzung für den THE). Aus der „Brennglasperspektive“ der obigen hemisphärischen Summation erscheint die „Klimaküche“ zwischen den Wendekreisen gegenüber einem normalen Tagesverlauf unterrepräsentiert, während die randlichen Mantelringe in hohen relativen Breiten mit ihren negativen Celsius-Temperaturen überrepräsentiert sind. Aber die hier vorgestellte Approximation wird durch das Ergebnis von Gerlich and Tscheuschner (2009) gestützt, die eine Stefan-Boltzmann-Integrallösung für die Durchschnittstemperatur der gesamten Erdoberfläche (4R2) hergeleitet hatten. Diese physikalische Globaltemperatur Tphys beträgt -129 °C, respektive 144,15 °K für die gesamte Erdoberfläche (4R2). Wir haben aber gesehen, dass lediglich die Tagseite der Erde (2R2) im Strahlungsgleichgewicht zwischen Sonne und Erde mit dem Stefan-Boltzmann-Gesetz betrachtet werden darf. Von daher muss diese Lösung von Gerlich and Tscheuschner (2009) auf die Tagseite der Erde (2R2) reduziert werden:

Lösung G&T * 4πR2 / 2πR2 = 2 * Lösung G&T Korrektur der Integrallösung von G&T

Folglich verdoppelt sich die Lösung von Gerlich and Tscheuschner für die physikalische Temperatur auf Tagseite der Erde zu:

Tphys-korr = 288,3 °K oder 15,15 °C Integrallösung G&T mit der Korrektur des Autors @ 2πR2

Die Differenz zwischen der hemisphärischen Summation über das zenitabhängige S-B-Temperaturäquivalent Ti und der korrigierten Lösung von G&T (2009) verwundert nicht. Vielmehr dürfte diese korrigierte Integrallösung den Grenzwert (?? -> 0) für die vorgestellte Summation über konzentrische Mantelringe darstellen. Der Limes für den Mittelwert der Temperatur in beliebig kleinen Schritten ?? von ? =0° bis 90° ergäbe sich dann für (0° ?i 90° und ??i -> 0) zu:

(=15,15°C)

Die Temperaturgenese auf unserer Erde erfolgt also ausschließlich auf deren Tagseite (@ 2R2). Die Ableitung einer „theoretischen“ Durchschnittstemperatur für die gesamte Erdoberfläche muss also eine Fiktion bleiben, weil das Stefan-Boltzmann-Gesetz auf der Nachtseite der Erde nicht anwendbar ist, jedenfalls nicht in einem Zusammenhang mit der direkten Sonneneinstrahlung. Vielmehr gilt dort, wie natürlich auch auf der Tagseite (also insgesamt @ 4R2), die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes für die örtliche Abstrahlung aufgrund der thermischen Interaktion mit den globalen Wärmespeichern (Atmosphäre und Ozeane).

Die mit dem S-B Gesetz ermittelten Durchschnittstemperaturen für die Tagseite der Erde THEM und Tphys-korr lassen keinerlei Raum für einen „natürlichen atmosphärischen Treibhauseffekt“ von 33 °C, sondern sind vielmehr ein Beweis für meinen hemisphärischen Stefan-Boltzmann Ansatz.

—————————————

Danksagung: Der Autor bedankt sich bei der EIKE-Redaktion für Korrekturen am Text und fachliche Hinweise zur vorgeblich „gemessenen“ Globaltemperatur.

Schlussbemerkungen: Alle Strahlungswerte für die hier vorgestellten Berechnungen wurden aus den globalen Durchschnittswerten von KIEHL and TRENBERTH (1997) abgeleitet. Wegen der bereits darin enthaltenen Rundungen auf volle W/m² und weiteren Rundungen in den nachfolgenden Berechnungen, sowie unterschiedlichen Werten für die Albedo der Erde, kann es zu Differenzen gegenüber direkt abgeleiteten Strahlungswerten und S-B Temperaturäquivalenten kommen; das gilt beispielsweise für die „natürliche“ Temperatur der Erde von -18 °C respektive -19 °C.

(*) Die versprochene Auflistung meiner hemisphärischen S-B-Beiträge hier auf EIKE:

  1. 23. Januar 2017: Über einen vergeblichen Versuch, unsere Welt vor der Dekarbonisierung zu retten
  2. Februar 2017: Wer im Treibhaus sitzt…
  3. 16. Februar 2017: Nachdem sich der Rauch verzogen hat: Stefan-Boltzmann auf den Punkt gebracht
  4. 23. Juni 2017: Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt
  5. Juli 2017: Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?
  6. 19. August 2017: Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!
  7. 26. November 2017: Rückblick: Ein Jahr hemisphärischer Stefan-Boltzmann Ansatz
  8. 30. November 2017: Nicht immer passt wirklich alles zusammen
  9. 22. Februar 2018: Eine barrierefreie Erklärung für die hemisphärische Temperaturgenese auf unserer Erde
  10. Mai 2018: Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an
  11. 29. Juli 2019: Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz

Es ist abschließend anzumerken, dass es sich beim „Weber’schen Hemisphärenansatz“ um ein völlig neues Modell für die Temperaturgenese auf unserer Erde handelt. Mein Modell konkurriert also auf gleicher Ebene mit allen bestehenden Modellen, die diese Temperaturgenese ebenfalls zu beschreiben suchen. Eine Skandalisierung meines Modells anhand von bekanntem Lehrbuchwissen, in dem diese konkurrierenden Modelle dargestellt werden, ist also wissenschaftlich absolut unzulässig. Konkurrierende Modelle können sich untereinander weder bestätigen noch widerlegen; das geht nur über deren gemeinsame physikalische Grundlagen. Mein hemisphärischer Stefan-Boltzmann-Ansatz kann also jederzeit über die bestehenden grundlegenden physikalischen Gesetze widerlegt werden. Alle meine Kritiker sind daher höflich aufgefordert, meine bereits mehrfach erhobene Widerlegungsanforderung über einen physikalischen Gleichwertigkeitsnachweis von Tag und Nacht zu erbringen, Zitat:

Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.“

Die Skandalisierungen meiner Erkenntnisse erheben mich ungewollt in den Status von solchen naturwissenschaftlichen Größen, die mit bahnbrechenden wissenschaftlichen NEUERUNGEN gegen den Mainstream angeschwommen sind. In meinem Fall müssten aber hunderttausende von Menschen mit einer akademischen Ausbildung in Physik meiner Korrektur von BESTEHENDEM unmittelbar folgen können; von Abiturienten im gymnasialen Physik-Leistungskurs einmal ganz zu schweigen.
Denn mein hemisphärischer Stefan-Boltzmann-Ansatz basiert lediglich auf der strengen physikalischen Randbedingung der GLEICHZEITIGKEIT im Stefan-Boltzmann-Gesetz, die dort seit Stefan und Boltzmann fest verankert ist und durch das mathematische Gleichheitszeichen repräsentiert wird. Auch der gemeine Physikprofessor mag daher das Stefan-Boltzmann-Gesetz noch nicht vollständig durchdrungen haben. Der Lernhelfer zum S-B-Gesetz könnte vielleicht auch ihm eine Hilfestellung zum besseren Verständnis geben – und „Simsalabim“ ist der auf einer „Gegenstrahlung“ aufbauende „natürliche atmosphärische Treibhauseffekt“ einfach verschwunden!