Wenn der große Bruder nachts das Mittagessen kocht… Ökologisch korrektes Verhalten durch „intelligente“ Zähler
geschrieben von Günter Keil | 9. August 2011
Betrachtet man den tatsächlichen Stromverbrauch in einem Einfamilienhaus, so stellt sich rasch heraus, daß nur wenige "dicke" Verbraucher die gesamte Bilanz bestimmen. Es ist einfach, diese zu finden: Es sind allein die Geräte, die mit Strom Wärme oder Kälte erzeugen. Also der Kochherd, die Spülmaschine, der Kühlschrank, die Tiefkühltruhe, die Waschmaschine und der Wäschetrockner.
Vergessen Sie alle übrigen Verbraucher: Beleuchtung, Computer, Fernseher, alle Geräte mit Motor, die Umwälzpumpe der Heizung, selbst Fön, Toaster, Kaffeemaschine oder die Mikrowelle spielen – trotz teilweise intensiver Wärmeerzeugung – wegen ihrer geringen Nutzungsdauer praktisch keine Rolle bei Ihrer Stromrechnung. Geht man mit diesem Hintergrund auf die geeignete Geräte-Zielgruppe der intelligenten Zähler ein, bleiben allein die oben genannten "Dicken".
Dann geht es zur nächsten Frage: Welches dieser Geräte eignet sich dazu, extern vom Stromversorger je nach aktueller, sich ständig ändernder Tarifsituation ein- oder ausgeschaltet zu werden ? Die Antwort liegt in deren Nutzung: Kühlschrank und Tiefkühltruhe müssen ständig eingeschaltet bleiben; sie halten nur dann ihre Temperatur, wenn sie sich in einem regelmäßigen Takt selbst ein- und ausschalten.
Auch der Kochherd wird dann betrieben, wenn er zum Kochen gebraucht wird – und niemand wird auf die Idee kommen, mit der Zubereitung einer Mahlzeit so lange zu warten, bis das Energieversorgungsunternehmen (EVU) vielleicht um Mitternacht den Herd einschaltet.
Der Wäschetrockner verbraucht ziemlich viel Strom – aber nur Altgeräte tun das. Moderne Trockner arbeiten mit nicht aufgeheizter Luft. Kein Problem mit hohem Stromverbrauch.
Bleibt vor allem die Waschmaschine übrig. Jetzt fällt auf, daß in sämtlichen Werbeartikeln für die Smart Meter immer nur die Waschmaschine als tolles Beispiel dafür genannt wird, wie ein Verbraucher in den billigen Schwachlastzeiten extern ein- und ausgeschaltet werden kann und wie sehr das Strom spart.
Aber nicht einmal dieses Beispiel wird der Realität in einem Haushalt gerecht: Eine intelligent für verschiedene, nacheinander erfolgende Waschvorgänge genutzte Waschmaschine erfordert eine entsprechende Bedienung, die über das nächtliche EIN und AUS erheblich hinausgeht. Dieses restliche Beispiel hinkt auch noch auf einem weiteren Fuß: Eine Waschmaschine verbraucht für die meiste Zeit, in der sie in Betrieb ist, nur sehr wenig Strom, und zwar nur für ihren Motor. Zum nennenswerten Stromverbraucher wird sie einzig und allein dann, wenn sie Wasser aufheizt, also Wärme erzeugen muß. Und das geschieht nur während weniger Minuten. Das Gleiche gilt für die Spülmaschine.
Kaum jemand wird wegen der dabei vom intelligenten Zähler verursachten geringen Geldersparnis – die verbrauchte Energie bleibt schließlich die selbe, nur der Tarif ist billiger – das nächtliche Rumoren seiner Waschmaschine oder Spülmaschine in Kauf nehmen.
Daß es sehr wahrscheinlich zu überhaupt keiner Geldersparnis kommt, hat der SPIEGEL am 16.8.2010 in einem vernichtenden Artikel mit der Überschrift "Teure Ersparnis" dargelegt: Die Smart Meter führen zu beträchtlichen Kosten – für den Austausch des Zählers, eine jährliche Dienstleistungsgebühr, eine permanente DSL-Verbindung -, die sehr wahrscheinlich sehr viel mehr Geld verschlingen, als jemals gespart werden kann. Im Übrigen führt die DSL-Verbindung zu einem nicht unbeträchtlichen Strom-Mehrverbrauch, der am Ende sogar zu einer insgesamt höheren Stromrechnung führen kann.
Die einzigen Vorteile liegen bei den Herstellern der Geräte und beim Energieversorger. Aber in Anbetracht der offensichtlichen Unbrauchbarkeit dieser Technik für Privatkunden und ihres entsprechend geringen Interesses würden diese Unternehmen in einer normalen Marktwirtschaft ihre Aktivitäten auf Industriekunden richten, die schon lange darauf achten, zeitlich verschiebbaren hohen Stromverbrauch in günstige Tarifzeiten zu verlegen.
Aber leider leben wir in einem Land, in dem jede Regierung auch Technologien ohne Marktchancen nach Kräften zu fördern bereit ist, wenn ihnen ein ökologischer Anschein zugesprochen werden kann. Und Stromsparen ist zwar in der Wirtschaft ökonomisch sinnvoll, bei Privatleuten bedeutet es jedoch vor weitaus mehr ein umweltgerechtes Verhalten, erst recht, wenn die Kosten höher sind als die Ersparnis.
In der Technik der intelligenten Stromzähler sah die Regierung nun eine gute Gelegenheit, um unwilligen Bürgern das Stromsparen mit Nachdruck nahe zu bringen. Selbst wenn es in der Sache nichts bringt, dient es doch der Öko-Erziehung der Menschen.
Deshalb gaben die Unternehmen den Privatsektor nicht auf, sondern setzten auf die Politik. Und sie hatten damit recht, denn diese hat beschlossen, die von den Kunden überwiegend abgelehnte Technik nun zwangsweise einzuführen. Das hat inzwischen in Deutschland Tradition: Siehe das unsoziale Erneuerbare Energien-Gesetz (EEG), mit dem – koste es was es wolle – für eine zuverlässige Stromversorgung vollkommen unbrauchbare und teure Techniken wie die Photovoltaik und die Windkraft zwangsweise eingeführt werden. Von der massiv umweltschädlichen Biogaserzeugung gar nicht erst zu reden.
Der Hebel dazu und der Grund für die Gewinnerwartungen der Industrie ist die Novelle des Energiewirtschaftsgesetzes (EnWG) und der neuen Meßstellenzugangsverordnung von 2008. Mit der Änderung des EnWG besteht seit dem 1.1.2010 die Pflicht, bei Neubauten und Modernisierungsmaßnahmen Smart-Metering-Geräte zu verwenden. Ebenso muß allen Endverbrauchern ein "intelligentes Zählermanagement" angeboten werden. Diese Umstellung soll bis 2016 abgeschlossen sein.
Es beginnt vorsichtig: Zunächst soll der kluge Zähler den Verbrauchern nur einen Überblick über ihren Stromverbrauch geben.
Inzwischen wird bei den EVU und den Herstellern über die richtige Technik für die Kommunikation zwischen Zähler und EVU debattiert. Die bisher verwendete GPRS-Technik verursacht für jede abfrage deutliche Kosten. Auch sei die Anzeige-Verzögerung von 24 Stunden zu lang. Man denkt daher an eine Anbindung durch Breitbandnetze – z.B. das in Unternehmen verwendete Ethernet – nach. Dienstleister träumen jetzt von der Entwicklung neuer Geschäftsmodelle auf der Basis einer Echtzeit-Kommunikation mit dem Verbraucher. Gerade für die Versorger sei es interessant, nun ein viel größeres Produktspektrum aus einer Hand anzubieten, zum Beispiel Strom, Gas, Telefon und Internet – und dies zusätzlich mit neuen Informationsmöglichkeiten, sprich Werbung, zu verknüpfen. Die Kabelnetzbetreiber wiederum könnten über das Vermieten ihrer Leitungen hinausgehen und selbst als Meß-Dienstleister auftreten. Goldgräberstimmung kommt da auf.
Zwangseingriffe sind vorerst nicht geplant, bei unserer in Energiefragen auf Zwangsbeglückung fixierten Regierung aber keineswegs auszuschließen.
Man muß dazu das EnWG nur ein wenig ändern. Die Öko-Nachtigall hört man bereits trappsen:
In einem Fachartikel schwärmt Thomas Prauße, der geschäftsführende Vorsitzende der Stadtwerke Leipzig GmbH, daß "das eigene Verhalten somit auf objektiver Basis kritisch hinterfragt werden (kann). Eine Visualisierung des eigenen CO2 –Ausstoßes ermöglicht eine ökologische Bewertung des eigenen Verbrauchs." Es fehlt eigentlich nur noch die automatische Abbuchung von Strafgebühren bzw. Ablaßzahlungen für Bürger, die ein ihnen vom Staat zugestandenes CO2 – Kontingent überzogen haben.
Peinlich nur, wenn dann bei wachsendem Atomstrom-Import aus Frankreich und Tschechien der reuevolle CO2 –Sünder am Display sogar eine Verbesserung seiner Treibhausbilanz sieht – wahrscheinlich aber verbunden mit den erhöhten Kosten dieses CO2–freien Auslandsstroms.
Auch Herr Prauße träumt nach wie vor von "netzwerkfähigen Haushaltsgeräten", die "zukünftig exakt in den Zeiten betrieben werden, in denen Energie zum Beispiel durch mehr Sonne oder stärkeren Wind günstiger ist. Unabhängig von vordefinierten Zeiten (!!) werden Steuerimpulse für die netzintegrierten Haushaltsgeräte abgegeben, um diese einzuschalten."
Schöne Grüße vom Großen Bruder, der es auch mit dieser Entmündigung nur gut meint. Vom Nutzer dieser Haushaltsgeräte und seinen eigenen Interessen ist bezeichnenderweise gar nicht mehr die Rede.
Damit aber noch nicht genug: "Über das intelligente Netz (Smart Grid) sind Elektroautos in der Lage, einen Beitrag zur Ausbalancierung des schwankenden Angebots erneuerbarer Energien im Stromnetz zu leisten. Sie fungieren als mobile Speicher, die geladen werden können, wenn zu viel Strom zur Verfügung steht. Und sie können elektrische Energie ins Netz speisen, wenn ein Mehrbedarf verlangt wird." (T. Prauße, BWK Bd. 63 , 2011, Nr.3).
Was Herr Prauße übersieht: Die Lebensdauer der extrem teuren Batterien von Elektroautos wird wesentlich von der Anzahl der Lade-Entladezyklen bestimmt und es ist schwer vorstellbar, daß sich die Besitzer auf eine solche sowohl schädliche als auch zeitlich vollkommen unberechenbare Fremdnutzung einlassen würden.
Man muß diesem Herren dafür danken, daß er die Eingriffsmöglichkeiten in die Lebensführung der Bürger, die intelligente Stromzähler bieten, so deutlich beschrieben hat.
Er ist ein Visionär, der nur etwas voreilig beschrieben hat, wohin die Einführung der Smart Meter führen kann – bzw. führen soll.
Unseren Datenschützern ist es womöglich noch nicht aufgefallen, in welchem Maße mit einer derartigen Technik aber auch eine Kontrolle dieser Lebensführung verbunden ist und wie diese Kontrolle noch ausgeweitet werden kann.
Techniken sind wertfreie Werkzeuge, weder gut noch böse. Die Frage ist immer nur, was man damit macht. Und was man bleiben läßt.
Dr. Günter Keil
Dr. Ing. Günter Keil arbeitete bis zu seiner Pensionierung 2002 in leitender Funktion im Bundesforschungsministerium
Roy W. Spencer und William D. Braswell zufolge, beide vom Earth System Science Center (ESSC) an der University of Alabama in Huntsville, ist die Magnitude der Reaktion der Bodentemperatur im Klimasystem auf ein herbei geredetes Ungleichgewicht bei der Strahlungsenergie – die Klimasensitivität – heute genauso unsicher wie sie es vor Jahrzehnten auch schon war. In einer atemberaubenden Studie unter dem Titel „On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance“ [etwa: Über die Fehldiagnose der Feedbacks der Temperatur auf Variationen in der Bilanz der Strahlungsenergie der Erde], die im Journal Remote Sensing veröffentlicht worden ist, wird das Fehlen von Fortschritten bei der Verbesserung der Genauigkeit von Klimamodellen auf die Komplexität des Systems zurück geführt sowie auf die Unfähigkeit, Feedbacks im realen Klimasystem zu quantifizieren. In der Kurzbeschreibung (abstract) werden die von den Autoren gefundenen Ergebnisse gut zusammengefasst:
Die Sensitivität des Klimasystems hinsichtlich eines Strahlungsungleichgewichtes ist nach wie vor die größte Quelle der Unsicherheit bei Projektionen der zukünftigen anthropogenen Klimaänderung. Hier präsentieren wir weitere Beweise, dass diese Unsicherheit aus einer Beobachtungsperspektive hauptsächlich auf die Maskierung des Feedback-Signals durch den internen Strahlungsantrieb zurückzuführen ist, möglicherweise aufgrund natürlicher Veränderungen der Bewölkung. Dass diese internen Strahlungsantriebe existieren und wahrscheinlich die Diagnose des Feedback verschleiern, wird mit einer phasenverschobenen Regressionsanalyse und damit gekoppelten Klimadaten gezeigt und mit einem einfachen Feedback-Modell interpretiert. Während die satellitengestützten Messungen im Zeitraum 200 bis 2010 wesentlich in Richtung einer geringeren Klimasensitivität von den gleichen, von gekoppelten Klimamodellen simulierten Daten abweichen, sehen wir, dass es mit herkömmlichen Methoden nicht möglich ist, diese Diskrepanz hinsichtlich Feedbacks zur Klimasensitivität zu quantifizieren. Daraus schließen wir, dass die Diagnose des atmosphärischen Feedbacks zur Bestimmung der Klimasensitivität ein ungelöstes Problem bleibt, hauptsächlich wegen der Unfähigkeit, zwischen Strahlungsantrieb und –feedback aus dem mit Satelliten ermittelten Strahlungshaushalt zu unterscheiden.
Sie glauben, dass die wesentliche Schwierigkeit bei der Diagnose des Klimafeedbacks in der „Verunreinigung des Feedback-Abdrucks“ durch unbekannte Strahlungsfaktoren besteht, die intern erzeugt werden. Ein Beispiel eines solchen ‚unerzwungenen’ Feedbacks ist die natürliche Veränderung der Bewölkungsmenge. „Einfach gesagt, Strahlungsänderungen hervorgerufen durch Temperaturänderungen (feedback) können nicht so leicht von den Strahlungsänderungen getrennt werden, die eine Temperaturänderung verursachen (Antrieb)“, stellen die Autoren fest.
Zur Durchführung ihrer Analyse unterzogen die Autoren die Temperatur und die Strahlungsflüsse einer phasenverschobenen Regressionsanalyse. Die sich daraus ergebenden Regressions-Koeffizienten werden unten in der Abbildung dargestellt. Auflistungen der globalen Anomalien (a) und Anomalien, die nur aus Daten der globalen eisfreien Ozeane (b) stammen, werden separat gezeigt.
Phasenverschobene Regressionen zwischen der Temperatur und dem Strahlungsfluss
Die offensichtlichste Schlussfolgerung aus der obigen Abbildung lautet, dass die Satellitenbeobachtungen und die Klimamodelle ein markant unterschiedliches zeitabhängiges Verhalten zeigen. Temperaturunterschiede im Vergleich mit Variationen der Strahlung zeigen sich besonders über den Ozeanen. Man beachte die Änderung des Vorzeichens des Strahlungsungleichgewichtes, welches davon abhängt, ob die Strahlung[sänderung] vor oder nach der Temperatur[änderung] liegt. Die Modelle stimmen mit den realen Messungen ganz klar nicht überein. Die Daten, die für diese Studie genutzt worden sind, waren monatliche Anomalien des globalen Mittels der Temperatur von HadCRUT3 und Strahlungsflüsse gemessen von Terra CERES SSF Edition 2,5; und zwar im Zeitraum März 2000 bis Juni 2010.
Klimasensitivität wird allgemein so definiert: wie stark wird sich der Planet erwärmen, falls sich das Niveau des atmosphärischen CO2-Gehaltes verdoppelt? Die Beobachtungen von Spencer und Braswell lassen Versuche als albern erscheinen, die Klimaänderung auf nur einen einzigen Grund zu reduzieren. Natürlich ist dies nicht der erste Beitrag, aus dem hervorgeht, dass Klimamodelle keine akkurate Repräsentation des realen Klimasystems darstellen (siehe “The Sensitive Kind”).
Jüngste Untersuchungen haben gezeigt, dass die Modelle katastrophale Änderungen nicht vorhersagen können (hier). Jetzt haben Spencer und Braswell gezeigt, dass die Modelle nicht einmal in der Lage sind, die Änderungen von Tag zu Tag korrekt wiederzugeben. In der abschließenden Diskussion zu dieser Studie drücken sie es so aus:
Ein einfaches Modell des Antriebs-Feedbacks [?] zeigt, dass dies das Verhalten ist, das man von strahlungsbedingten Temperaturänderungen erwarten kann, und es ist mit Überlegungen hinsichtlich der Energieerhaltung konsistent. In solchen Fällen ist es schwierig, die Feedback-Parameter mit Regressionsverfahren abzuschätzen.
Im Gegensatz dazu würden vorherrschend nicht strahlungsbedingte Temperaturänderungen eine relativ genaue Diagnose der Feedback-Parameter mit Regressionen ohne Zeitverzögerung erlauben, da der größte Teil der Strahlungsvariabilität aus dem Feedback kommen würde. Unglücklicherweise scheint dies weder in Satellitenbeobachtungen noch in gekoppelten Klimamodellen der Fall zu sein.
Dies führt die Autoren zu der Schlussfolgerung, dass es eine „ziemlich große Diskrepanz“ zwischen dem Einfluss der Strahlung, wie sie das reale Klimasystem zeigt und von Satelliten gemessen wird, und den Klimamodellen gibt. Was bedeutet das für die Abschätzung der Klimasensitivität, einem der Lieblingsspiele der Klimawissenschaftler? „Während diese Diskrepanz nominell in Richtung einer geringeren Klimasensitivität des realen Klimasystems geht, gibt es eine Reihe von Parametern abweichend von Feedback, die die phasenverschobene Regressionsstatistik beeinflussen, so dass es schwierig ist, das genaue Feedback zu diagnostizieren.“ Mit anderen Worten, obwohl es schwierig ist, das zu beziffern, sagt ihre Analyse, dass sie niedriger liegt als die Angaben, die von den Alarmisten benutzt werden.
„Die Satellitenbeobachtungen weisen darauf hin, dass viel mehr Energie während und nach einer Erwärmung in den Weltraum abgestrahlt wird als die Klimamodelle zeigen“, sagt Spencer in einer Presseerklärung der University of Alabama. „Es gibt eine gewaltige Diskrepanz zwischen den Daten und der Vorhersage, die über den Ozeanen besonders groß ist“.
„Auf die Spitze getrieben zeigen die Satelliten, dass Energie verloren geht, während die Klimamodelle immer noch davon ausgehen, dass Energie gewonnen wird“, sagte Spencer. Also sind die Modelle falsch, aber können sie mit lediglich einigen weiteren Optimierungen verbessert werden, wie die Modellierer behaupten? „Das Hauptergebnis dieser Untersuchung besteht darin, dass es keine Lösung für die Messung des atmosphärischen Feedbacks gibt, hauptsächlich wegen unserer Unfähigkeit, zwischen dem Strahlungsantrieb und dem –feedback in unseren Beobachtungen zu unterscheiden“. Mit anderen Worten, die Modelle werden weiterhin falsch sein.
Diese Ergebnisse belegen ein weiteres Mal, wie inadäquat heute Klimawissenschaft betrieben wird: Die Modelle sind falsch; unser Wissen des Systems Erde steckt voller Lücken und Fehler; und die Komplexität des Systems macht jeden Versuch akkurater Vorhersagen zunichte. Die Studie illustriert auch die Überlegenheit von realen Daten über computererzeugte Ratereien. Die Zeloten der globalen Erwärmung sind vor eine harte Wahl gestellt – entweder sie bestehen weiterhin darauf, dass ihre Modelle genau sind, und geben alle Ansprüche auf, echte Wissenschaftler zu sein, oder sie geben zu, dass ihre Vorhersagen der zukünftigen Klimakalamität keinerlei Grundlage haben.
Wenn ein Arzt eine Krankheit falsch diagnostiziert und mit einer Behandlung fortfährt, die dem Patienten schadet, nennt man das Fehldiagnose. Ein weltumspannendes Kader von Klimapfuschern hat das irdische Klimasystem fehldiagnostiziert und Regierungen gedrängt, drakonische Maßnahmen durchzuführen, um die Krankheit der globalen Erwärmung zu „heilen“. Es ist höchste Zeit, dass diese wissenschaftlich Inkompetenten der Fehldiagnose bzgl. der Klimaänderung angeklagt werden, und dass sie für die Schäden, die sie damit angerichtet haben, bestraft werden.
Alles Gute, genießen sie das Interglazial und bleiben Sie skeptisch!
Haus-Wärmedämmung unter den neuen Energiespargesetzen
geschrieben von Lüdecke | 9. August 2011
Prof. Lüdecke: Sehr geehrter Herr Fischer, wie aus Ihrer Webseite hervorgeht, sind Sie ein gefragter Fachmann auf dem Sektor der Gebäudesanierung, Wärmedämmung und weiteren, angesichts der jüngsten Pläne der Bundesregierung aktuellen Tätigkeitsfelder (K. Fischer, Tel. 09574-3011). Wir alle, als Mieter oder als Hauseigentümer, werden davon betroffen sein. Können Sie bitte unseren Lesern kurz schildern, was sie hier erwartet und „wie heiß“ die Suppe gegessen werden muss?
Konrad Fischer: Seit den frühen 1980er Jahren beobachte ich aus beruflichen Gründen die Bau- und Energie-Gesetzgebungs- und Novellierungstätigkeit bis hin zu den amtlichen Begründungen. Dabei ist mir – wie wohl jedem aufmerksamen Beobachter – schnell aufgefallen, dass die Energiegesetze nach dem Stil der Salamitaktik immer weiter verschärft werden.
Prof. Lüdecke: Um welche Gesetze geht es dabei im Einzelnen?
Konrad Fischer: Bei den uns interessierenden aktuellen Gesetzgebungsverfahren handelt es sich um
– Gesetz zur Stärkung der klimagerechten Entwicklung in den Städten und Gemeinden
– Gesetz zur steuerlichen Förderung von energetischen Sanierungsmaßnahmen an Wohngebäuden
– Energiedienstleistungsgesetz
– Erneuerbare Energien Wärmegesetz
und die schon seit 2010 für 2012 vorbereitete Novelle der
– Energieeinsparverordnung mit Einbindung der neuen EU-Gebäuderichtlinie, Niedrigstenergiestandard für Neubauten
sowie weiter verschärfte Energieausweisregelungen. All diese Gesetze und Regelungen gießen meiner Meinung nach nur alten Wein in neue Schläuche und verfolgen dieselben Partikularinteressen wie seit jeher. Die sich um den Atomausstieg rankenden Vorstellungen unserer Regierung zur künftigen Energieversorgung unseres Landes – bis 2050 soll die Ökoenergie 100 Prozent übernehmen – beruhen auf einem grenzenlosen Optimismus und sind völlig unrealistisch. Orchestriert wird das von sogenannten Expertenstudien aus interessierten Kreisen, die von der Energiewenderei massiv profitieren. Widerlegende Gegendarstellungen haben dagegen keine Chance, ein typisches Merkmal der gesamten Klimaschutzwissenschaft und -gesetzgebung.
Prof. Lüdecke: Darf ich Ihren bisherigen Ausführungen entnehmen, dass sie diesen Bemühungen der deutschen Bundesregierung kritisch gegenüber stehen?
Konrad Fischer: Absolut korrekt! Der sich als „Klimaschutz“ gebende Politikstil der verbrannten Erde wird als entscheidender deutscher Beitrag zur Menschheitsrettung vor einer polaren Eiskernschmelze und sonstigen global wirksamen Wind- und Wetterereignissen verkauft. Zumindest Ihre EIKE-Leser wissen, was davon zu halten ist. Im Ergebnis zeigt sich die Klimaschutzpolitik bisher lediglich als Wirtschaftsförderung zugunsten der Kreditwirtschaft und der nachgeordneten Profitmacher mit den bewährten Folterinstrumenten und Stimulantien: Gesetzlich gestützter Investitionszwang mit sich verschärfendem Enteignungscharakter und Mißbrauch von Steuermitteln nach dem Gießkannenprinzip.
Prof. Lüdecke: Wird die Regierung die angekündigten Gesetze denn überhaupt durchsetzen können?
Konrad Fischer: Der sogenannte Atomausstieg ist scheinbar schon fast geschafft. Insider warten jetzt auf die leicht vorhersehbaren Folgen – massiv spürbare Energiepreisverteuerung, Energieimport im großen Stil, möglicherweise gekoppelt mit Stromausfällen im ganzen Land. Das scheinen die Regierung und ihre Einflüsterer aber nicht zu befürchten, oder es ist ihnen total egal. Nach den bisherigen Erfahrungen wird auch die folgende Verschärfung der „Energiewende „im großen und ganzen“ gelingen. Wenn nicht ganz genau nach Plan, dann eben wieder mal scheibchenweise. Die Pläne der Ministerialen und der Wunschkataloge ihrer Einflüsterer sind weitestgehend bekannt.
Prof. Lüdecke: Um was geht es da im Detail?
Konrad Fischer: Der Sanierungszwang für Altbauten ohne Beachtung der Wirtschaftlichkeit, sowie weitere Verschärfung der ohnehin schon gegebenen Ökovorschriften in sogenannten „städtischen Klimaschutzgebieten“ sind seit langem als Vorreiter der grenzenlosen Einflussnahmen von Profiteuren in der Pipeline und fertig ausformuliert. Auch der gesetzliche Zwangsanschluß an die Netze der Ökoenergie gehört dazu. Dies alles und noch mehr sollte mit der Novelle des Baugesetzbuches eingeführt werden. Nach einigem Medienspektakel hat man diesen weiteren merkelgestützten Anschlag auf das Eigentum – die DDR Wohnungszwangswirtschaft läßt grüßen! – Ende Juni erst mal etwas entschärft. Es bleiben diverse baurechtliche Begünstigungen der bizarren Alternativenergien aus Sonne und Wind, die in Wahrheit nichts taugen und nur den Strompreis erhöhen. Ob das in der ökologischen Reform des Baugesetzbuchs auf Anhieb durchgeht, wird der Herbst zeigen. Der Bundesrat hat die 100-Prozent-Abschreibung in Zehnjahresfrist für die energetische Sanierung eines Altbaus auf einen Energieverbrauch von nur noch 85 Prozent des Neubauniveaus erst einmal gestoppt. Die Länder befürchten dadurch krasse Verluste beim ihnen zustehenden Steueraufkommen. Doch der Vermittlungsauschuß wird sich bestimmt sehr bemühen, eine Entschädigungsregelung zu finden. Vielleicht durch eine weitere Mehrwertsteuererhöhung? Die sich um ihre gesetzlich garantierten Gewinne sorgenden Klimaschutzbegünstigten und sonstige Auftragslamentierer haben schon ihr bekanntes Greinen begonnen, das die Qualitätsmedien nun nach besten Kräften verstärken werden. Motto: Bundesrat verhindert sofortige Weltrettung durch deutsche Regierungskunst.
Prof. Lüdecke: Wie beurteilen Sie den Sachgehalt des vorgesehenen Sanierungszwangs? Sind damit wesentliche Einsparungen an den Energieträgern Gas, Kohle und evtl. Elektrizität erzielbar?
Konrad Fischer: Jetzt wird es lustig. Das extreme Einsparen der in Gebäuden verbrauchten Energie ist ein wesentlicher Baustein der Energiewende. Ohne diesen Minderverbrauch geht nämlich die angekündigte Komplettumstellung auf „Öko“ überhaupt nicht auf. Der Witz dabei ist, dass all die bisherigen Energiesparanstrengungen aber so gut wie nichts gebracht haben, da die gesetzlich erzwungenen und steuersubventionierten Maßnahmen überhaupt nicht geeignet sind, sinnvoll und wirtschaftlich Energie einzusparen. Probieren Sie mal, an unverfälschte Abrechnungsdaten heranzukommen, die belegen, dass Häuser allein durch nachträgliche Wärmedämmung Energie gespart haben. Es gibt sie nicht, wie erst unlängst der Verbraucherschutzverband Hausgeld-Vergleich/Hausverwalter-Check durch schriftliche Befragung der zuständigen Behörden und Institutionen herausgefunden hat. An vergleichende Verbrauchsdaten von gedämmten und ungedämmten Wohnblöcken gleicher Bauarten ist bisher nur mein Kollege und Gerichtssachverständige Prof. Jens Fehrenberg herangekommen. Ein stellvertretendes Ergebnis: Ein gedämmter Wohnblock in Hannover verbraucht nicht weniger, sondern am Ende mehr als die bauartgleichen ungedämmten Nachbarn. Das wissen sowohl die Regierung als auch die Dämmprofiteure. Deswegen gehen sie immer nur von berechneten „Bedarfszahlen“ und nicht erwiesenen „Verbrauchszahlen“ aus. Auch für die vorhin genannten „85-Prozent Energieverbrauch“ gilt das in gleicher Weise. Ein „Sachverständiger“ muß die Fiktion bestätigen – für ein Entgelt. So funktioniert der ganze Ökoladen: Prächtig auf dem Papier – in Wahrheit ein grausamer Flop.
Prof. Lüdecke: Wieso soll denn die Wärmedämmung nicht funktionieren?
Konrad Fischer: Die gedämmte Wand verhält sich eben nicht so, wie im getürkten Rechenmodell.
Prof. Lüdecke: Können Sie das etwas näher erläutern?
Konrad Fischer: Zum einen werden Dämmfassaden schnell naß. Da Dämmstoff keine Wärme speichern kann, kühlen sie nach Sonnenuntergang extrem ab und unterschreiten stundenlang den Taupunkt. Dabei kondensiert die Luftfeuchte auf und vor allem auch im Dämmstoff, er säuft ab. Die Thermografie-Aufnahme mit der Wärmebildkamera erfolgt – ein raffinierter Trick! – immer tief in der Nacht oder früh am Morgen und beweist dann die extrem abgekühlte Dämmfassade. Dann strahlt der Massivbau immer noch die tagsüber aufgenommene Solarenergie ab – im Bild rotgelb, während die aufnässende Dämmfassade unter dem Taupunkt blauschwarz dahinfrostet. Das lobt der Thermograf dann als „gut gedämmt“! Am Tag aufgenommene Wärmebilder zeigen dagegen „kalte“ Massivfassaden und glühende Dämmoberflächen, da deren dünne Putzschwarten durch Solarstrahlung extrem viel heißer als die Massivfassaden werden. Vom dünnen Autoblechdach in der Sommerhitze und seiner nächtlichen Befrostung kennt jeder diesen Effekt. (Anm. der Redaktion: Thermografie in Theorie und Praxis, http://members.aon.at/osterrg2/ebs.pdf)
Aber lassen Sie mich noch weiter ausholen. Es ist doch logisch, dass bei Sonneneinstrahlung die Verschattung bzw. Wärmedämmung der Hauswand weniger mitheizende Solarenergie in die Wand lässt. Nachts erhöht dagegen die nächtliche Extremabkühlung und vor allem die Nässung der Dämmfassade das Temperaturgefälle der Wand – und damit auch den Energieverbrauch. Wie mir vorliegende Vergleichsmessungen der Bundesanstalt für Landwirtschaft belegen, entsprechen die sich tatsächlich einstellenden Temperaturen an massiven und gedämmten Wänden im jahreszeitlichen Tag-und-Nacht-Rhythmus keinesfalls den stationär angesetzten Rechenmodellen.
Prof. Lüdecke: Noch einmal zum besseren Verständnis für unsere Leser. Darf ich Ihre Ausführungen so verstehen?: Nachts wird durch das Nasswerden des Dämmstoffs und durch starke Abkühlung beim Unterschreiten des Taupunkts die Dämmwirkung der Außendämmung ins Gegenteil verkehrt, denn seine Wärmeleitfähigkeit nähert sich der (guten Wärmeleitfähigkeit) des Wassers an. Der jetzt sehr kalte Dämmstoff verliert also seine Wärmeisolationseigenschaft und wird zum Wärmeleiter. Als Folge davon verliert die Massivwand des Hauses Wärme – also gerade dies, was man durch die Dämmung verhindern möchte. Und tagsüber, bei Sonneneinstrahlung, verhindert umgekehrt die Dämmung die erwünschte Erwärmung der Wand. Erwünscht deshalb, weil wir nicht in tropischem Klima leben, in dem jede Aufheizung der Wände verhindert werden soll.
Konrad Fischer: So ist es!
Prof. Lüdecke: Nun haben wir bislang ja nur von Dämmung der Hausaußenwand gesprochen. Wie verhält es sich aber mit Dämmung im Inneren, beispielsweise der Ausdämmung eines Dachstuhls, der bisher oft nur eine dünne Alufolie unter den Ziegeln aufwies?
Konrad Fischer: Bei der Dachdämmung müssen wir vor allem den sommerlichen Hitzeschutz betrachten. Es zählen die sogenannte Temperaturamplitudendämpfung und die Phasenverschiebung: Die einseitige Temperaturerhöhung außen – die Ziegeloberflächen kommen bei starker Sonneneinstrahlung locker auf 70 bis 80 Grad °C – soll stark abgemildert (Temperaturamplitudendämpfung) und möglichst erst in den kühlen Nachtstunden im Raum ankommen (Phasenverschiebung). Diesen Dämpfungs- und Verzögerungseffekt schaffen auf Grund ihrer geringen Dichte nicht die üblichen Dämmstoffe, sondern nur Massivbaustoffe wie Holz und Ziegel. Deren Speicherfähigkeit schützt auch im Winter am
besten vor der Raumauskühlung. Und obendrein schaffen es die Massivbaustoffe, dank ihrer Kapillarität, auch dem unausweichlichen Feuchteangriff durch sommerliches und winterliches Kondensat verlässlich standzuhalten. Fasrige und porige Dämmstoffe dagegen nässen oft auf, da die Dichtheit der sogenannten Dampfsperrfolie in der Leichtbaukonstruktion „Dach“ zwangsläufig nur von kurzer Dauerhaftigkeit ist.
Bei den anderen Formen der Innendämmung an Zimmerwänden sind die Feuchteeffekte inzwischen recht gut erforscht: Die Schimmelpilzgefahr ist geradezu extrem. Bei Fachwerkwänden ist dadurch die Trocknung gestört, Vermorschung droht. Und was die Kosten und den Nutzen betrifft: Ein krasses Mißverhältnis. Ich rate deswegen: Finger weg.
Prof. Lüdecke: Zurück zur Außendämmung. Kann man hier nicht sogar von vorsätzlichem Betrug sprechen?
Konrad Fischer: Wahrscheinlich könnte man das so bezeichnen.
Prof. Lüdecke: Wie reagiert denn das Material und die Struktur der Dämmfassaden a la longue auf die von Ihnen geschilderte Extrembewitterung?
Konrad Fischer: Da es sich um klapperige Leichtbautechnik handelt, ganz ihrem Naturell entsprechend. Sie müssen ständig repariert werden oder gehen schnell kaputt. Die Materialbelastung durch die dämmstofftypische Ausdehnung und Schrumpfung bei Temperaturwechsel – etwa das 15- bis 20-fache des Ziegelsteins – führt zum Auf- und Abreißen der Dämmhaut. Ihr feuchtebedingtes Absaufen fördert Verschmutzen und das mikrobiologische Wachstum von Schimmelpilzen und Algen. Jeder kennt inzwischen die versauten Dämmfassaden, oft muß man nur aus dem Fenster schauen. Die Dämmindustrie vergiftet deswegen die Dämmoberflächen mit Fungiziden und Algiziden. Leider werden die Pestizide schnell ausgeregnet und verseuchen dann das Grundwasser und die Kläranlagen. Die Ewald Dörken AG hat deswegen jüngst die im Dämmsystem eingebettete Fassadenheizung erfunden, mittels elektrischer Heizmatten oder warmwasserbeheizter Heizschlangen. Schilda läßt grüßen.
Ganz unbekannt ist hierzulande auch, was an den Holzrahmenhäusern Amerikas passierte: Dort haben die systematisch aufnässenden Wärmedämmverbundsysteme deutscher Bauart an über 90 Prozent der sachverständig untersuchten Fälle zu entsetzlichen Hausschwammkatastrophen und Bewohnerkrankheiten geführt. Sie sind deswegen seit 1996 sukzessive verboten worden, zuletzt 2007 in Oregon. In Deutschland nehmen wir dagegen jeden Pfusch in Kauf, fördern ihn mit Steuermitteln und erzwingen ihn mit Energiespar-Gesetzen. Über neun Euro pro Fassadenquadratmeter und Jahr kostet die Instandhaltung einer Dämmfassade mehr, als eine verputzte Massivfassade, so das Institut für Bauforschung in Hannover. Und die durch Sommer- und Winterkondensat aufgenässten Zwischensparrendämmungen sind Legion.
Prof. Lüdecke: Aber bei den Wärmeschutzfenstern mit extremer Abdichtung gegen Aussenluft sollte das Energiesparen doch wenigstens funktionieren?
Konrad Fischer: Dass man mit dichteren Fenstern den Heizenergieverbrauch etwas vermindern kann, ist zwar richtig – aber keinesfalls mit akzeptabler Amortisation der Investitionskosten und nur auf Kosten der Raumlüftung. Das Ergebnis heißt dann Geldverlust – was angesichts des Hausbesitzerreichtums vielleicht zu verschmerzen wäre, aber leider nicht der Schimmelpilzbefall in der überfeuchten Wohnung. Die propagierte Stoßlüftung bekommt nämlich die anfallende Raumluftfeuchte nicht in den Griff – bei vier Personen an die 10 bis 15 Liter täglich! Dies schafft nur die stetige Lüftung – durch schnell verkeimende Lüftungsanlagen im Dauerbetrieb oder eben mit der ausreichenden Luftwechselrate alter Fenster ohne Lippendichtung. Doch davon will die Fensterindustrie rein gar nichts wissen. Sie verkauft inzwischen Lüftungsschlitzbeschläge, rahmenintegrierte Lüftungsklapperatismen und perforierte Dichtungslippen – alles für teuer Geld und passivhauszertifiziert und die Lichtsäcke des Schildaer Rathaus an technischer Raffinesse weit hinter sich lassend.
Prof. Lüdecke: Wie sieht es dann mit den neuen Heiztechniken durch Wärmeentnahme aus dem Erdboden aus?
Konrad Fischer: Diese sind im Nachrüstfall meistens unwirtschaftlich, technisch anfällig und bleiben in ihrer tatsächlichen Effizienz weit hinter den Rechenannahmen zurück. In der Stadt Staufen hat sich das Extremrisiko der Tiefenbohrungen für den Wärmetauscher durch eine Unzahl fortschreitende Gebäuderisse gezeigt. Die Wärmeentnahme aus dem Boden kühlt diesen außerdem ab und mündet in immer geringeren Wärmeerträgen, denen mit immer aufwendigeren Verlegesystemen begegnet wird. Der gelieferte Energieüberfluß bleibt oft weit hinter den Erwartungen zurück und erfordert dann massive elektrische Zuheizung. Und die kühlen Abgastemperaturen moderner Heizkesseltechnik haben schnellere Korrosion im Kesselraum und aufwendige Kaminsanierung als betriebswirtschaftlichen Pferdefuß. All das erhöht den baulichen und finanziellen Aufwand und spart im Effekt doch keine Energie!
Prof. Lüdecke: Wie kann man denn dann richtig Heizenergie sparen?
Konrad Fischer: So richtig sparen kann man nach meiner Erfahrung nur, wenn man sinnlose Energiespar-Aufwendungen unterläßt, da liegt das größte Sparpotential. Und vielleicht die Wärmeverteilung einer alten Heizung mit eingeputzten Rohrleitungen gegen offen auf dem Putz liegende Rohre eintauscht und die Nachtabsenkung mit ihren exponentiellen Energieverlusten beim abendlichen Auskühlen und morgendlichen Aufheizen abstellt. Niemand putzt ja seine Neonleuchten ein, bis die Wand nur noch müde schimmert, und beim Autofahren weiß jeder, was Stop and Go im Stadtverkehr – das Analogon zur Nachtabsenkung der Heizung – sinnlos Sprit frißt. Bei der Wohnungsbeheizung verbaggern die Deutschen die Wärme jedoch am liebsten in Wand und Boden und lassen gerne die Reifen quietschen. Ganz davon abgesehen, dass sie extrem teure und störungsanfällige Holzheizmethoden in ihre Keller einbauen und sich daran freuen, mit aufquellenden Holzpellets, toxisch belastetem Altholz und schimmelversportem Holzschnitzelchen Giftgaswolken aus ihren Hauskaminen zu pusten oder mit wasserbasierter Wärmetauscherei ganze Städte in Rißruinen und ihre Gartenböden in Permafrostgebiete zu verwandeln.
Prof. Lüdecke: Was ist mit Brennwertheizungen? Sind die sinnvoll? Ich bin da persönlich ein wenig skeptisch, weil diese neuen Systeme wesentlich teurer sowie anfälliger sind und daher auch höhere Wartungskosten verursachen. Gibt es hier seriöse Vergleiche?
Konrad Fischer: Da möchte ich keine langatmigen Technikdiskussionen entfalten, ich zitiere eine Zuschrift eines Beratungskunden: „Entgegen der Zusicherung des Heizungsbauers, mit einem neuen Gasbrennwertkessel 25-30% Energie einsparen zu können, habe ich in der Heizperiode 2007/2008 gegenüber der Vorperiode 9% mehr Gas verbraucht – was unter Berücksichtigung des um 15% höheren Klimafaktors der Vorperiode für meine Postleitzahl lt. DWD einem 6% höheren Wirkungsgrad entspricht.“ Ich finde, das sagt alles. In zwei Worten: Finger weg!
Prof. Lüdecke: Wie kann sich der Hausbesitzer gegen die offensichtlich sinnlosen Zumutungen der Energiesparvorschriften schützen?
Konrad Fischer: Bisher ist das Wirtschaftlichkeitsgebot des Energieeinspargesetzes entscheidend. Deswegen gibt es in den darauf fußenden Verordnungen – die Heizkostenverordnung und die Energieeinsparverordnung – Befreiungsregelungen. Sie greifen immer, wenn die Investition unwirtschaftlich ist. Jeder Planer ist aus haftungsrechtlichen Gründen verpflichtet, seinen Bauherren darüber aufzuklären, denn er schuldet ja die Wirtschaftlichkeit der Planung als vertragliche Nebenpflicht. Wer das als Planer und Energieberater vernachlässigt, setzt sich dann eben einem schwer einzuschätzenden Haftungsrisiko aus. Entsprechende Prozesse sind am laufen und auch früher schon zuungunsten der untreuen Planer entschieden worden.
Prof. Lüdecke: Und wie ist der Begriff „Unwirtschaftlich“ hier zu verstehen, um welche Amortisationszeit handelt es sich denn dabei?
Konrad Fischer: Zunächst die amtliche Vorschrift zur Frage der Unwirtschaftlichkeit einer Energiespar-Investition im Verhältnis zur Ersparnis. Im Paragrafen 11 der Heizkostenverordnung hat der Gesetzgeber selbst den angemessenen Amortisationszeitraum festgesetzt: „Unverhältnismäßig hohe Kosten liegen vor, wenn diese nicht durch die Einsparungen, die in der Regel innerhalb von zehn Jahren erzielt werden können, erwirtschaftet werden können.“ An diese Frist hat sich bisher auch die einschlägige Rechtsprechung gehalten und deswegen ist sie auch für die Bearbeitung unserer Befreiungsanträge von der Energieeinsparverordnung im Altbau maßgeblich, wobei wir im Neubau und bei der Befreiung vom Erneuerbare-Energien-Wärmegesetz die zu erwartende Lebensdauer der betroffenen Bauteile heranziehen. Und damit – bisher jedenfalls – immer eine Befreiung erwirken konnten.
Doch viele Hausbesitzer sind der Klimaschutz-Halluzination schon erlegen und machen jeden Blödsinn eifrig mit, egal wie unwirtschaftlich das auch sein mag.
Für die vernünftigen gilt: Skeptisch bleiben, nachrechnen und sich befreien lassen. So lange das noch geht.
Prof. Lüdecke: Ich danke Ihnen für dieses Gespräch.
Nachtrag: Konrad Fischer ist mit seiner Expertise nicht alleine. Immer öfter berichten regionale und überregionale Zeitungen über die Fragwürdigkeit, Häuser nachträglich mit den heute von der einschlägigen Industrie und den ausführenden Handwerksbetrieben angebotenen Maßnahmen zu dämmen. EIKE hatte schon einmal darüber berichtet.Am 22. Juli 2011 schrieb Rolf Kornemann in der FAZ (Preisschulder für die Energiewende, Immobilienbrief) einen kritischen Beitrag, ferner die WELT Online am 21.Juli 2011 den Artikel „Schimmel-Dämmplatten können krank machen“. Für weiter Interessierte ein Video-Beitrag von Fischer hier.
Sensationelle Meldung: Die globale Temperatur steuert das CO2-Niveau – nicht der Mensch!
Die CO2-Variationen korrelieren nicht mit den anthropogenen Emissionen. Spitzen und Senken korrelieren mit warmen Jahren (z. B. 1998) und kalten Jahren (1991-1992). Von Salbys Studie oder seinem Vortrag stehen noch keine Graphen zur Verfügung. Der Graph oben stammt aus einer hiermit zusammenhängenden Arbeit von Tom Quirk (siehe unten).
Die höheren Niveaus von CO2 während der letzten Dekaden scheinen hauptsächlich aus natürlichen Quellen zu kommen. Er präsentierte seine Forschungen vor kurzem auf der IUGG-Konferenz in Melbourne, was eine Reihe von Leuten erschreckt hat und zu intensiven Diskussionen führte. Das Sydney Institute hörte davon und beeilte sich, einen Vortrag von ihm zu arrangieren, und zwar wegen der Wichtigkeit seiner Arbeit im gegenwärtigen politischen Klima Australiens.
Das Verhältnis von C13 zu C12 (zwei Isotope von Kohlenstoff) in unserer Atmosphäre ist zurückgegangen, was gewöhnlich als ein Hinweis menschlicher CO2-Emissionen angesehen wird. C12 bildet 99% des Kohlenstoffs in der Atmosphäre (nahezu der gesamte Kohlenstoff in der Atmosphäre liegt in der Form von CO2 vor). C13 ist viel seltener – nur etwa 1%. Pflanzen mögen den selteneren C13-Anteil nicht so sehr; die Photosynthese geht am Besten mit dem C12-Typ von Kohlendioxid und nicht mit dem C13-Typ, wenn sie der Luft das CO2 entnehmen.
Prof. Salby weist auf Folgendes hin: Während fossile Treibstoffe mehr mit C12 angereichert sind als die Atmosphäre, so gilt das auch für die Pflanzen der Erde, und es gibt keinen großen Unterschied (nur 2,6%) im Verhältnis zwischen C13 und C12 im Vergleich zwischen Pflanzen und fossilen Treibstoffen. (Fossile Treibstoffe sind nach der Theorie aus Pflanzen entstanden, von daher ist es nicht überraschend, dass es schwierig ist, ihre „Signatur“ zu separieren). Wenn also das Verhältnis zwischen C13 zu C12 fällt (da mehr C12-Kohlenstoff durch das Verbrennen fossiler Treibstoffe in die Luft gelangt), können wir nicht mehr unterscheiden, ob dies aus anthropogen erzeugten CO2 oder dem natürlich von Pflanzen erzeugen CO2 stammt.
Im Wesentlichen können wir anthropogene Emissionen ganz gut messen, nicht jedoch die natürlichen Emissionen und Abscheidungen – die Fehlergrenzen sind gewaltig. Die Menschen emittieren 5 Gt oder so pro Jahr, aber die Ozeane emittieren 90 GT und die Landpflanzen etwa 60 GT, was zu einer Gesamtemeission von etwa 150 Gt führt. Viele Wissenschaftler haben vermutet, dass sich der Austausch von Kohlenstoff zwischen natürlichen Quellen und Senken in etwa die Waage hält, aber es gibt keine realen Daten, die dies bestätigen, und so ist es nichts weiter als eine bequeme Hypothese. Das Problem besteht darin, dass selbst bruchstückhafte Änderungen in den natürlichen Emissionen oder Abscheidungen durch die menschlichen Emissionen schwappen.
… „Es wird oft erklärt, dass wir den menschlichen Beitrag zum atmosphärischen CO2 messen können, indem wir uns das Verhältnis zwischen C12 und C13 ansehen. In der Theorie absorbieren Pflanzen mehr C12 als C13 (um etwa 2%, keine große Signatur), so dass wir uns nur die Luft ansehen müssen, um zu wissen, welches CO2 von Pflanzen, welches aus Vulkanen und welches von fossilen Treibstoffen stammt, von uns. Pflanzen sind hinsichtlich C13 „instabil“, und daraus folgt, dass dies auch für das aus unseren fossilen Brennstoffen gebildete CO2 gelten müsste.
Da Kohle und Öl von Pflanzen stammt, geht man allgemein davon aus, dass „Pflanzenabdruck“ heißt „menschlich über fossile Treibstoffe“. Aber ganz so einfach ist es nicht. Man betrachte die Abbildung oben rechts. Von uns stammen 5,5, und Pflanzen bringen 121,6 jedes Jahr in die Luft (ohne Meerespflanzen). Es gibt z.B. eine Menge Kohlenstoff, der zwischen Quellen und Senken hin und her wandert.
Chiefio fand auch einige interessante Details, die darauf hinweisen, dass Mais (eine C4-Pflanze) mehr C13 absorbiert, und unser Massenanbau von Mais könnte die Statistik aufmischen… (es ist ein guter Beitrag).
Die Quellen von CO2 scheinen nicht industrialisierte Gebiete zu sein!
Wenn Satelliten das atmosphärische CO2-Niveau weltweit aufzeichnen, finden sie komischerweise, dass die Hauptquellen offensichtlich nicht an den Orten liegen, an denen wir sie vermuten – Industrie- oder Bevölkerungskonzentrationen wie in Westeuropa, das Ohio-Tal oder China. Statt dessen scheinen die Hauptquellen an Orten wie dem Amazonas-Becken, Südostasien und dem tropischen Afrika zu liegen – also nicht so sehr Orte mit großen menschlichen CO2-Emissionen!
Aber CO2 ist ein gut durchmischtes Gas, und daher ist es nicht möglich, Quellen oder Senken mit Messungen von CO2 auszumachen. Die Unterschiede liegen nur in einer Größenordnung von 5%.
Der bessere Weg, dieses Puzzle aufzulösen, besteht darin, die eine lange Reihe der Aufzeichnung zu betrachten, die wir haben (vom Mauna Loa in Hawaii seit 1959) und die Änderungen von CO2 und C13 Jahr für Jahr aufzutragen. In manchen Jahren von Januar bis Januar könnte es einen Anstieg von 0 ppmv geben (d. h. keine Änderung), in anderen bis zu 3 ppmv. Falls diese Änderungen auf den menschlichen CO2-Eintrag zurückzuführen sind, sollten wir in jüngster Zeit mehr dieser raschen Anstiege sehen im Zuge der immer schneller steigenden menschlichen Emissionen.
Was Salby jedoch fand, entsprach nicht im Mindesten den Erwartungen!
Die größten Steigerungen von Jahr zu Jahr gab es bei starken globalen Erwärmungen unter El Niño-Bedingungen. Die geringsten Zuwächse korrelieren mit Vulkanausbrüchen, die Staub hoch in die Atmosphäre blasen und die Welt eine Zeitlang kühler halten. Mit anderen Worten, die Temperatur kontrolliert das CO2-Niveau in einer jährlichen Zeitskala, und Salby zufolge haben menschliche Emissionen darauf wenig Einfluss.
Die Klimamodelle nehmen an, dass der meiste Anstieg des CO2 (von 280 ppmv 1780 bis 392 ppmv heute) infolge der Industrialisierung und dem Verbrennen fossiler Energieträger erfolgt ist. Aber der Globus hat sich in dieser Zeit auch erwärmt (tatsächlich seit den Tiefen der kleinen Eiszeit um das Jahr 1680), so dass auch die wärmeren Bedingungen Grund für den Anstieg des CO2-Gehaltes sein können.
Salby bestreitet nicht, dass Einiges des CO2-Anstiegs tatsächlich von menschlichen Emissionen herrührt, fand aber heraus, dass Temperaturänderungen allein bereits 80% der Veränderungen des CO2-Gehaltes erklären können.
Die entsprechende Studie mit allen Darstellungen wird in sechs Wochen erscheinen. Sie wurde bereits wissenschaftlich begutachtet und klingt so, als ob bis zum Erscheinen viel Zeit vergangen sei. Salby erklärte, dass er sechs Monate lang über die Ergebnisse gegrübelt und sich die Frage gestellt hatte, ob nicht irgendeine andere Interpretation möglich sei, und als er dann Wissenschaftler einlud, die er bewunderte und denen er vertraute, die Studie zu kommentieren, brüteten auch diese darüber ein halbes Jahr. Sein Vortrag schlug Wellen auf der IUGG-Konferenz, und seine Worte breiten sich aus.
“Could the Ocean, Rather Than Mankind, Be the Reason?” and Part II
[etwa: „Könnte der Grund eher im Ozean als bei den Menschen liegen?” und Teil II“]
…In der Abbildung kann man erkennen, dass die jährliche mittlere CO2-Zunahme auf dem Mauna Loa weit entfernt von 0% der menschlichen Quelle liegt, bis 130%. Dies scheint mir ein Beweis zu sein, dass natürliche Ungleichgewichte im Fluss zumindest genauso groß sind wie die menschliche Quelle (Roy Spencer)
…die menschliche Quelle repräsentiert nur 3% (oder weniger) des natürlichen Flusses aus dem Erdboden und in hinein. Dies bedeutet, dass wir über die natürlichen steigenden und fallenden Flüsse viel besser als die 3% Bescheid wissen müssten, um zu sagen, ob die Menschen für den gegenwärtigen Aufwärtstrend des atmosphärischen CO2-Gehaltes verantwortlich sind. Sind Messungen des globalen CO2-Flusses genauer als 3%?? Ich bezweifle es.“
Roy Spencer
Tom Quirk hat diese Fragen in Australien seit Jahren gestellt
Tom Quirk konnte zeigen, dass das meiste CO2 in der Nordhemisphäre erzeugt wird und die Stationen auf der Südhemisphäre Monate brauchen würden, um diesen Anstieg zu registrieren. Statt dessen scheint es nicht die geringste Zeitverzögerung zu geben… [ there did not appear to be any lag…] (d. h. die Hauptquelle des CO2 ist global und nicht menschliche Aktivität).
Über 95% der (anthropogen emittierten) CO2 wurde in der Nordhemisphäre freigesetzt…
„Der CO2-Transport von der nördlichen auf die südliche Hemisphäre konnte mit dem bei den Atombombentests der fünfziger und sechziger Jahre freigesetzten Isotop C14 gemessen werden. Die Analyse von C14 im atmosphärischen CO2 zeigte, dass es einige Jahre dauerte, bis das C14-Isotop relativ gleichmäßig in beiden Hemisphären verteilt war…
Wenn wirklich 75% CO2 aus Verbrennung fossiler Rohstoffe nördlich des 30. Breitengrades kommt, sollte man einige Zeitverzögerungen wegen der Variationen der geschätzten Menge von Jahr zu Jahr erwarten. Ein einfaches Modell, das dem Beispiel der C14-Daten diesen ein Jahr Zeit zur Durchmischung gibt, würde eine Verzögerung von 6 Monaten ergeben, bis sich Änderungen des CO2-Gehaltes in der Nordhalbkugel auch in der Südhalbkugel bemerkbar machen.
Stellt man die Unterschiede der monatlichen Messungen auf dem Mauna Loa von Jahr zu Jahr mit denen am Südpol gegenüber … zeigt sich eine positive Differenz, wenn die Daten am Südpol größer sind als die Daten vom Mauna Loa. Jeder negative Bias (Verzerrung in der Graphik) würde auf eine verspätete Ankunft des CO2 in der Südhemisphäre hindeuten.
Es scheint jedoch keinerlei Zeitunterschied zwischen den Hemisphären zu geben. Dies bedeutet, dass die jährliche Zunahme (des atmosphärischen CO2) aus einer globalen oder äquatornahen Quelle stammen“.
Tom hat hierzu viel gearbeitet:
Die Konstanz jahreszeitlicher Änderungen des CO2 und das Fehlen von Zeitverzögerungen zwischen den Hemisphären zeigt, dass das aus fossiler Verbrennung stammende CO2 im Jahr, in dem es emittiert worden ist, fast vollständig lokal absorbiert wird. Dies bedeutet, dass die natürliche Variabilität des Klimas der hauptsächliche Grund für die Zunahme des CO2 ist, und nicht das CO2 aus dem Gebrauch fossiler Brennstoffe.
‘Sources and Sinks of Carbon Dioxide’ von Tom Quirk, Energy and Environment, Volume 20, Seiten 103-119. http://www.multi-science.co.uk/ee.htm
Mehr Informationen von Tom Quirk: SOURCES AND SINKS OF CARBON DIOXIDE [17 page PDF]
Aber was ist mit den Eisbohrkernen?
Der Eisbohrkern aus Wostok zeigt, dass das CO2-Niveau seit 800 000 Jahren nicht mehr so hoch lag, aber wenn Salby recht hat und die Temperatur den CO2-Gehalt bestimmt, sollte das CO2-Niveau vor – sagen wir – 130 000 Jahren höher gewesen sein, als es global 2 bis 4 Grad wärmer war als jetzt.
Salby stellt die Proxies aus dem Eiskern in Frage und weist darauf hin, dass mit dem Temperaturanstieg C13 zurückgeht, wie es während der letzten 50 Jahre der Fall war. Wenn der Eiskern auf die gleiche Weise vor hunderttausenden von Jahren ähnlich reagiert, kann man das Verhältnis zwischen C12 und C13 kaum als Fingerabdruck menschlicher Emissionen bezeichnet werden.
Über die Natur der Wissenschaft
Nach Salby besteht Wissenschaft aus Diskussion und Fragen. Er betonte, wie wichtig die Debatte „Der Ausschluss von Diskussion ist keine Wissenschaft!“ sei. Er fühlte sich nicht in der Position Politik zu kommentieren und sagte, dass Wissenschaftler, die dies tun, mehr Aktivisten als Wissenschaftler sind.
Nachdem er mit sorgfältig gewählten Worten vorgetragen hatte, beendete er seine Präsentation mit der Bemerkung „jeder, der glaubt, dass die Wissenschaft zu diesem Thema gesichert [settled] ist, befindet sich in Phantasien“.
Salby war früher IPCC-Reviewer und kommentierte verdammenswerterweise, falls es diese Ergebnisse schon 2007 gegeben hätte, „hätte das IPCC nicht die Schlussfolgerungen ziehen können, die es gezogen hat“. Ich glaube, dass er dem IPCC auch die rote Karte gezeigt hat.
———————————————————
Professor Murry Salby ist Vorsitzender von Climate Science an der Macquarie University. Er hatte Gastprofessuren in Paris, Stockholm, Jerusalem und Kyoto. Außerdem verbrachte er einige Zeit im Bureau of Meteorology in Australien. Er hat in führenden Forschungseinrichtungen gearbeitet, einschließlich des US National Center for Atmospheric Research, der Princeton University und der University of Colorado. Er ist Autor von Fundamentals of Atmospheric Physics und Physics of the Atmosphere and Climate,welches 2011 erscheinen soll (mit Dank an Andrew Bolt)