Sommer 2016 in Deutschland – viel geschmäht, doch besser als sein Ruf?

Bild rechts: Ein bunter Sonne- Wolken- Mix mit häufigeren, aber nur kurzen, wenig ergiebigen Regenphasen bei meist angenehmen Temperaturen, so zeigte sich der 2016er Sommer in Thüringen. Foto: Stefan Kämpfe

Die Mär vom „nassen, verregneten, unwetterträchtigen“ Sommer 2016

Dieser Sommer (wir betrachten stets den „meteorologischen“ Sommer vom 1. Juni bis zum 31. August) traf mit geschätzten 240mm Niederschlag im Deutschland- Flächenmittel fast genau den Langjährigen Sommer-Mittelwert 1881 bis 2015 von 246mm (die „amtlichen“ Werte fehlten zum Redaktionsschluss; geringe Abweichungen sind noch möglich). Dabei fiel der Juni deutlich zu nass, Juli und August aber etwas zu trocken aus. Einen „verregneten“ Sommer, speziell in den Ferienmonaten Juli/August, gab es nicht; einziges Manko war die insgesamt leicht unterdurchschnittliche Sonnenscheindauer. Die „Klimamodelle“ prophezeien uns ja seit langem eine abnehmende sommerliche Niederschlagsmenge mit mehr Dürren in Deutschland, doch die Realität weigert sich beharrlich, diesen Horror- Prognosen zu folgen:

Abb. 1: In Deutschland wurde der Sommer seit 1881 weder feuchter, noch trockener (ebene, blaugrüne Trendlinie). Auch die Schwankungsbreite von Sommer zu Sommer, also zu immer extremerer Nässe oder Trockenheit, nahm nicht zu. Die Werte für 2016 sind geschätzt und können um wenige Millimeter abweichen, was auf den Trend und die Gesamtaussagen keinen Einfluss hat.

Und die Juni-Unwetter? Der Begriff „Unwetter“ ist relativ, es gibt nur willkürlich festgelegte Grenzwerte für Starkregen, wie sie auch der DWD (Deutscher Wetterdienst) gebraucht. Die politischen, wirtschaftlichen sowie technischen Bedingungen und Fähigkeiten einer Gesellschaft entscheiden, ob ein stärkeres Regenereignis zum „Unwetter“ wird. Falsche Siedlungspolitik, wie übermäßige Bebauung von Bach- und Flussauen, Bodenverdichtungen und fehlender oder unzureichender Hochwasserschutz (oft würde schon die Wiederaufnahme der früher geregelten Pflege vieler kleinerer Gräben und Vorfluter helfen!) machen aus normalen Sommergewittern Katastrophen. Die meisten sommerlichen Starkregenereignisse sind gewittrig. Daher sollte die Anzahl der je Sommer beobachteten Gewittertage grobe Hinweise auf deren „Unwetterträchtigkeit“ geben. Leider liegt hierfür kein Deutschland- Mittel vor, wohl aber gibt es zuverlässige Aufzeichnungen an der Station Potsdam. Dort traten im Juni mit 6 und im Juli mit 7 Gewittertagen in etwa so viele auf, wie im Langjährigen Mittel; auch der August verlief nach Sichtung der Wetterkarten nicht ungewöhnlich gewitterreich. Wir schätzten höchstens 20 Gewittertage für den gesamten Sommer, das langjährige Mittel beträgt 17,25 Tage. Erstaunliches zeigt sich aber beim Langzeittrend der Häufigkeit sommerlicher Gewittertage (Aufzeichnungen seit 1893):

Abb. 2: In Potsdam zeigt sich keine langfristige Zunahme der Gewittertage. Wegen der hohen Schwankung der Einzelwerte (in gewitterarmen Sommern treten weniger als 10, in gewitterreichen aber mehr als 25 Gewittertage auf) ist der leicht fallende Trend nicht signifikant.

War der Sommer 2016 wirklich zu kühl?

Nein. Viele werden ihn wohl nur wegen der sehr wechselhaften Witterung und der relativ kühlen ersten Augusthälfte in schlechter Erinnerung behalten. Das Deutschland- Mittel für den Sommer in der aktuellen klimatologischen Normalperiode („CLINO“) 1981 bis 2010 beträgt 17,1°C; der Sommer 2016 erreichte mit etwa 17,7°C ein leichtes Temperaturplus. Auch in Zentralengland fiel er um etwa ein halbes Grad zu warm aus. Solche geringfügigen Temperaturabweichungen spürt man kaum, also war dieser Sommer fast normal temperiert. Normal ist auch der stete Wechsel kürzerer sonniger und längerer bewölkter Phasen mit Schauern, Gewittern oder Regenfällen, denn wir liegen in einer Westwindzone, in der sich (meist) seltenere Hochdruckwetterphasen mit längerem Tiefdruckwetter abwechseln. Bemerkenswert, aber nicht völlig ungewöhnlich ist das vereinzelte, örtlich aber eng begrenzte Auftreten von Bodenfrösten schon im August, was in Mitteldeutschland beispielsweise am 11. und am 18.08. besonders in den Mittelgebirgen und deren Vorländern beobachtet wurde, Quelle http://www.mdr.de/nachrichten/vermischtes/sommer-frost-minusgrade-im-august-100.html . Man darf das nicht voreilig als Beginn einer Abkühlungsphase werten, aber es weckt erhebliche Zweifel an der stets behaupteten „starken Erwärmungswirkung“ durch CO2.

Die langfristige Entwicklung der Sommertemperaturen in England und Deutschland

Der Einfachheit halber betrachten wir in diesem Abschnitt nur die Sommerwerte bis einschließlich 2015, denn 2016 fällt langfristig kaum ins Gewicht. Vertrauenswürdige Daten („DWD- Mittel“) liegen leider erst ab 1881 vor. Seitdem erwärmte sich der Sommer um knapp 1,3 Kelvin (1 K entspricht 1°C), was zunächst an eine „CO2- verursachte Klimaerwärmung“ denken lässt. Erstaunt waren wir jedoch über die Messreihe aus Zentralengland (CET), die bis 1659 zurückreicht und damit den Höhepunkt der „Kleinen Eiszeit“ mit erfasst. Seit dieser sehr kalten Zeit sollte sich der Sommer dort doch kräftig erwärmt haben; so 1,5 bis 2 K wären angesichts der „besorgniserregenden Klimaerwärmung“ in mehr als 350 Jahren sicher zu erwarten. Aber die Realität zeigt etwas anderes:

Abb. 3: In Zentralengland (CET = Central England Temperature Records) stieg die Sommertemperatur (Juni bis August) in mehr als 350 Jahren um lediglich 0,36 K (linearer Trend), das sind nur etwa 0,1 K pro 100 Jahre. Es dominiert ein wellenförmiger Verlauf. Den bisher tiefsten Werten um 1700 folgte ein der heutigen Erwärmung ähnelnder Anstieg bis etwa 1750; weitere Warmphasen sind Mitte des 20. Jahrhunderts und in der Gegenwart (1990er bis 2000er Jahre) zu erkennen.

Problematisch für die (zweifelhafte) CO2- basierte Klimaerwärmungstheorie sind besonders die starke Erwärmung im frühen 18. Jahrhundert (damals wohl kaum steigende CO2- Konzentration) sowie die Abkühlungsphase der 1960er bis 1980er Jahre trotz stark steigender CO2- Konzentrationen. Und seit 1986 stagniert die sommerliche Erwärmung in Zentralengland auf hohem Niveau. Bei der Suche nach anderen Ursachen stießen wir auf die Sonnenaktivität. Zahlreiche Wissenschaftler (u. a. SVENSMARK, MALBERG, VAHRENHOLT/LÜNING) haben sich mit dem Einfluss der Sonnenaktivität auf das Klima beschäftigt. In Zeiten höherer Sonnenaktivität erwärmte sich das Klima. Aufzeichnungen der Sonnenfleckenhäufigkeit, welche ein grobes Maß für die Sonnenaktivität ist, liegen mit gewissen Unsicherheiten mittlerweile bis 1700 vor (Datenquelle https://www.quandl.com/data/SIDC/SUNSPOTS_A-Total-Sunspot-Numbers-Annual ). Wir setzen nun die Temperaturreihe von Zentralengland (CET) mit der Sonnenfleckenhäufigkeit in Relation. Die Sonnenaktivität wirkt vor allem langfristig und zeitversetzt (verzögert), was wir bei der folgenden Abbildung berücksichtigt haben:

Abb. 4: Mit gewissen Abstrichen (grüner Pfeil) besteht eine gute Übereinstimmung zwischen Sonnenaktivität (gelb, unten) und den Augusttemperaturen in Zentralengland (rot). Die glatten Kurven sind die Polynome zweiten Grades. Weil die Sonnenaktivität mit einer Verzögerung von 10 bis 30 Jahren am stärksten temperaturwirksam wird, wurde hier ein zwölfjähriger Versatz betrachtet (das 31ig jährige Gleitmittel der Sonnenfleckenzahlen beginnt schon mit dem Jahr 1730 und endet 2003). Anmerkung: Wir verwenden die für die Sonnenaktivität nur bedingt aussagefähigen Sonnenfleckenzahlen, weil sie numerisch vorliegen und gut für Excel- Grafiken verarbeitbar sind. Mehr über die Sonnenaktivität siehe Quellenangabe am Beitragsende.

Allerdings erklärt uns die Sonnenaktivität die Abkühlungsphase der 1960er bis 1980er Jahre und den anschließenden, markanten Anstieg bis etwa 2000 auch nicht, denn trotz berücksichtigtem „Zeitversatz“ erreichte sie ihr absolutes Maximum seit Aufzeichnungsbeginn etwa auf dem Höhepunkt der Abkühlung. Es muss also noch andere Einflussfaktoren auf den Temperaturverlauf geben, welche wir nun kurz betrachten wollen.

Die AMO- Wie der Atlantik unser Klima beeinflusst

Gewissen Einfluss auf das Temperaturverhalten der drei Jahreszeiten Frühling bis Herbst hat die so genannte AMO (Atlantische Mehrzehnjährige Oszillation, ein Maß für die Schwankung der Wassertemperaturen im zentralen Nordatlantik), wobei nach den Untersuchungen von KÄMPFE der Einfluss im Sommer und Herbst am größten ist. In AMO- Warmphasen, welche etwa alle 50 bis 80 Jahre für etwa 20 bis 35 Jahre auftreten, sind die Sommer tendenziell deutlich wärmer, als in den AMO- Kaltphasen. Die AMO- Werte liegen bis 1856 vor; wir haben sie anhand der 31ig- jährigen Gleitmittel in Relation zu den Sommertemperaturen Zentralenglands gesetzt, somit beginnt die folgende Grafik mit dem Jahre 1886:

Abb. 5: Die Atlantische Mehrzehnjährige Oszillation (AMO, eine Schwankung der Wassertemperaturen im Nordatlantik, untere, grüne Kurve), stieg seit 1856, dem Beginn ihrer Erfassung, merklich an und weist außerdem eine etwa 70ig jährige Rhythmik mit Maxima von den späten 1930er bis 1950er und den 1990er bis in die 2000er Jahre auf. In den AMO- Maxima waren die Sommertemperaturen in Zentralengland tendenziell erhöht; Ähnliches gilt auch für Deutschland. Nach 2010 deutet sich eine Stagnation oder gar ein Rückgang aller Werte an; doch muss die weitere Entwicklung hier noch abgewartet werden.

Die bislang letzte AMO- Kaltphase (1960er bis 1980er) fiel mit der Phase der stärksten Sonnenaktivität zusammen und überkompensierte vermutlich deren Wirkung. Auch die Sonnenscheindauer beeinflusst die Sommertemperaturen stark. Vertrauenswürdige langfristige Sonnenscheindauer- Aufzeichnungen fehlen für das Deutschland- Mittel und für Zentralengland. KÄMPFE hat aber die bis 1893 reichenden Aufzeichnungen von Potsdam untersucht und fand für die einzelnen Sommermonate hoch signifikante Bestimmtheitsmaße von 60 bis über 70%, die höchsten Werte für den Juli. Im gesamten Sommer ließen sich knapp 2/3 der Variabilität der Sommertemperaturen mit der Länge der Sonnenscheindauer erklären; sehr sonnenscheinreiche Sommer sind fast immer deutlich wärmer, als sonnenscheinarme. Die starke Luftverschmutzung der späten 1950er bis 1980er Jahre (SO2, Staub) könnte nun Intensität und Dauer der Sonneneinstrahlung vermindert haben, was ebenfalls leicht kühlend wirkte. Zumindest in Potsdam verhielt sich die Sonnenscheindauer ähnlich wie die AMO; bei ihr ist allerdings nur ein leichter Rückgang von etwa 1960 bis in die späten 1980er Jahre erkennbar:

Abb. 6: In Potsdam zeigen Sonnenscheindauer (unten, gelb), Lufttemperaturen (rotbraun, Mitte) und AMO (grün, oben) ein ähnliches Verhalten. Die fetten Ausgleichskurven sind die 15- jährigen gleitenden Mittelwerte. In den relativ warmen 1930er bis 1950er und ab den 1990er Jahren waren alle Werte erhöht; dazwischen lag eine Abkühlungsphase. Auch bei der Globalstrahlung zeigt sich ein Rückgang von etwa 1960 bis 1985; leider liegen Werte aber erst seit 1937 vor.

Die Großwetterlagen entscheiden – Badehose oder Ostfriesennerz?

Ein weiterer Einflussfaktor verdient Beachtung und spielt vermutlich in Deutschland eine viel größere Rolle als in Zentralengland bei der langfristigen sommerlichen Erwärmung- die Änderung der Häufigkeitsverhältnisse der Großwetterlagen. Diese lassen sich mit einiger Sicherheit bis 1881 zurückverfolgen und mit den Sommertemperaturen in Beziehung setzen. Im Sommer kühlende und meist wolkenreiche Großwetterlagen (Klassifikation nach HESS/BREZOWSKY) sind alle West-, Nordwest- und Nordlagen. In der folgenden Abbildung sind die Summen der Häufigkeiten der Großwettertypen West, Nordwest und Nord als Indexwerte zusammen mit dem Sommermittel der Deutschland- Temperaturen dargestellt:

Abb. 7: Eine „Schere“ öffnet sich: Auch weil im Sommer kühlende Großwettertypen (solche aus West, Nordwest oder Nord) langfristig seltener auftraten, wurden die Sommer in Deutschland etwas wärmer. Dominierten diese 3 Großwettertypen am Anfang der Beobachtungsreihe noch mit etwa 62 Tagen je Sommer (Mittelwert 1881 bis 1910) die gesamte Jahreszeit, so waren es im Mittel 1991 bis 2010 nur noch 44 Tage- ein Rückgang um 30%. Zugenommen hat vor allem die Häufigkeit der Lagen mit südlichem Strömungsanteil (hier nicht gezeigt).

Wie stark kühlend Einbrüche feucht- kalter Polarluft sein können, zeigte sich im Thüringer Flachland kurzzeitig am 15. Juli und am 10. August 2016, da wurden nur Tageshöchstwerte von 14 bis 17°C gemessen. Hätten sie länger angedauert, wäre dieser Hochsommer viel kühler ausgefallen, wie etwa teilweise der Sommer 2000, als im kalten, sonnenscheinarmen Juli (24 von 31 Tagen mit West- und Nordwetter!) fast alle Freibäder wochenlang schließen mussten. Und bei häufigeren Hitzewellen wie der von Ende August mit sonnigem Südwetter, hätten wir eine Kopie des 2015er Hitzesommers erlebt.

Der UHI- Effekt- die wirklich menschengemachte Hitzeplage in den Städten

Als wesentliche Einflussfaktoren gelten so genannte Wärmeinsel- Effekte (WI). Über diese hatten KOWATSCH/KÄMPFE häufig berichtet. Wir verzichten im Interesse der Knappheit auf ausführliche Erklärungen. Anhand der Vergleiche von in der Großstadt Berlin gelegenen Stationen mit denen des Berliner Umlandes (höhenbereinigt) und der Relation des Temperaturverlaufs in Jena- Sternwarte zur Entwicklung der Einwohnerzahlen Jenas hatten wir den aktuellen UHI- Effekt auf etwa 0,5 bis 0,8 K geschätzt (in Großstädten ist es gegenüber ländlicheren Stationen im Mittel um diesen Betrag wärmer). Der UHI entstand mit der Verstädterung Deutschlands zwischen etwa 1870 und 1940; sein Erwärmungspotential ist weitgehend (bis auf wenige Ausnahmen, wie etwa Frankfurt/Main) ausgeschöpft:

Abb. 8a und 8b: In der aktuellen CLINO- Periode 1981 bis 2010 traten im Mittel zwischen in der Großstadt Berlin und ländlicheren, nahe gelegenen Stationen in Brandenburg höhenbereinigte Stadt- Umlanddifferenzen im Sommer von 0,8 K (Juni) und knapp über 0,6 K (August) auf (obere Abb.). In Jena gab es seit 1880- besonders nach 1900- einen beträchtlichen Temperaturanstieg von gut 2 K, ein gutes Drittel davon dürfte UHI- bedingt gewesen sein; der dort beträchtliche „neuzeitliche“ Temperaturanstieg ab etwa 1988 hatte aber andere Ursachen (AMO, Sonneneinstrahlung und geänderte Großwetterlagenhäufigkeiten).

Flächenhafte Wärmeinseleffekte (WI) in den DWD- Sommertemperaturreihen

Die von den DWD- Stationen gemessenen Sommertemperaturen sind nicht wärmeinselbereinigt. Besonders nach dem letzten Weltkrieg dehnten sich mittels Straßenbau, Entwässerung und Zersiedlung die WI- Effekte in das Umland aus, zusammenhängende Wärmeregionen sind entstanden wie der Oberrheingraben, der Mittlere Neckarraum oder der Bodenseeraum in Baden-Württemberg. Wir unterscheiden somit zwischen UHI-Effekt (größtenteils vor 1945 entstanden) und dem sich zunehmend entwickelnden flächenhaftem WI- Effekt, letzterer ist vom Betrag her höher (siehe letzte Quellenangabe), und wird neuerdings stark durch die ausufernden Wind- und Solarparks beschleunigt. Ein Teil der Sommererwärmung der letzten Jahrzehnte ist somit WI- bedingt, weil die Messstationen des Deutschen Wetterdienstes (DWD) größtenteils dort stehen, wo die Menschen leben und arbeiten. Betrachten wir zunächst die Entwicklung der Sommertemperaturen nach 1945 (DWD- Originaldaten). Wie alle anderen Jahreszeiten zeigt der Sommer zunächst nach der Jahrhundertmitte eine Abkühlung. Hatte etwa die angebliche CO2-Erwärmungswirkung knapp 30 Jahre lang ausgesetzt, wo doch allein CO2 die Temperatur bestimmen soll? Eine schlüssige Antwort der CO2- Erwärmungstheoretiker auf dieses Problem steht aus.

Abb. 9: Keineswegs wurden die drei Sommermonate konstant wärmer, sondern nach dem Krieg erfolgte zunächst eine Abkühlung und die Temperaturen verharrten zwei Jahrzehnte in einem Wellental. Trotz der nun eventuell erneut beginnenden Abkühlungstendenz ist das aktuelle Temperaturniveau immer noch höher als zu Beginn der Betrachtung um 1945. Eine lineare Trendlinie hätte die Steigung von y = 0,017x.

Der beschleunigte Wärmeinseleffekt hatte an dieser Erwärmung einen erheblichen Anteil. (Beschreibung und Gründe dieses eindeutig anthropogenen, in den DWD- Messreihen verborgenen Effektes siehe Quellenangaben am Schluss des Artikels). Um den WI- Anteil beim Sommertemperatur -Anstieg annähernd zu ermitteln, suchten wir fast WI- freie Stationen und fanden Amtsberg am Fuße des Erzgebirges und Schneifelforsthaus, nahe der Belgischen Grenze.

Wir beginnen 1953, weil die Daten der 2 Vergleichsstationen so weit zurückreichen. Wir vergleichen zunächst das DWD- Mittel mit der Station Amtsberg-Dittersdorf in Sachsen. Leider stand diese Station vor 1982 an einem anderen Ort. Der Stationsleiter hat uns gegenüber beteuert, dass er die Temperaturen vor 1982 richtig auf den jetzigen Standort umgerechnet habe. Trotzdem sollte die nächste Grafik 10 unter diesem Vorbehalt betrachtet werden, da beide Standorte doch räumlich einige Kilometer auseinander lagen.

Abb. 10a/10b: Auch an WI-armen Standorten wurde es ab 1953 bis heute wärmer. Die Trendlinie weist jedoch – wie erwartet – mit eine deutlich geringere Steigung auf, was am Ende 0,8 K weniger Erwärmung seit 1953 für die drei Sommermonate im Raum Amtsberg am Fuße des Erzgebirges ausmacht.

Ab 1975 wurden die Sommer aus verschiedenen Gründen (siehe oben) wieder wärmer. Auch bei der WI- armen Station Schneifelforsthaus zeigt sich ein moderater Anstieg:

Abb. 11: Mit y = 0,0248x hat Schneifelforsthaus seit 1975 einen ähnlichen Anstieg der Trendlinie wie Amtsberg-Dittersdorf mit y = 0,027x. Die DWD-Trendlinie mit y = 0,038x ist deutlich steiler, was letztlich 0,5 K Temperaturgewinn in 41 Jahren zwischen DWD und Schneifelforsthaus ausmachen würde. (0,4K zu Amtsberg). Aus Platzgründen wollen wir auf diese beiden Grafiken verzichten.

Anhand der letzten Grafiken erkennt man überall in Deutschland nach der Kaltphase (um 1970) eine Erwärmung. Bei WI- armen Standorten wie Amtsberg und Schneifelforsthaus ist der Wärmezugewinn aber wesentlich moderater.

Aus dem Verlauf der Grafik 9 – Sommer seit 1945- deutet sich seit gut einem Jahrzehnt möglicherweise wieder eine Abkühlung an. Wir fragen uns zum Schluss, auf welchem Temperaturniveau wir 2016 wieder angekommen sind, bzw. seit wann die Sommertemperaturen stagnieren. Eine WI-arme Klimastation müsste über einen längeren Zeitraum stagnierend sein wie eine WI-behaftete. Das zeigt uns Amtsberg:

Abb. 12: Die drei Sommermonate zeigen in der ländlichen Region am Fuße des Erzgebirges seit 35 Jahren eine Stagnation der Sommertemperaturen.

In der Region Amtsberg fand also seit 1982 keine sommerliche Erwärmung mehr statt; noch ist das ein Einzelfall. Schneifelforsthaus zeigt ab 1990 keine Erwärmung mehr. Die DWD- Sommer-Trendlinie ist im Gegensatz dazu erst seit 1999 eben.

Damit gilt mit aller Vorsicht und Vorbehalt: In der freien Fläche Deutschlands, das sind immerhin 85% der Fläche unseres Staates, stagnieren die Sommertemperaturen möglicherweise bereits seit etwa 30 Jahren. Aber selbst beim Schnitt der wärmeinselbehafteten DWD Orte – etwa 15% der Fläche Deutschlands – stagnieren die Sommertemperaturen seit 1999.

Zusammenfassung

Der Sommer 2016 war nach den offiziellen Daten des Deutschen Wetterdienstes weder besonders reich an Unwettern, noch zu nass oder zu kalt. Insgesamt ein ganz normaler, wechselhafter Sommer mit Höhen und Tiefen. Langfristig betrachtet, wurden die Sommer in Deutschland etwas wärmer, was vor allem auf eine höhere Sonnenaktivität und Sonnenscheindauer, gestiegene AMO- Werte, seltener werdende West-, Nordwest- und Nordlagen sowie verschiedene WI- Effekte zurückzuführen ist. Nur für Zentralengland liegen seit über 350 Jahren Temperaturaufzeichnungen vor; dort erwärmte sich der Sommer seit 1659 nur um knapp 0,4 Kelvin- von einer „katastrophalen Klimaerwärmung“ ist nichts zu spüren. Die sommerliche Erwärmung vollzog sich nicht kontinuierlich, sondern folgte grob der Rhythmik der AMO. Die beschleunigt steigende CO2- Konzentration vermag dieses rhythmische Temperaturverhalten, vor allem aber die Abkühlungsphase um 1970, sowie die Stagnation in Zentralengland seit gut 30 Jahren, hingegen nicht zu erklären. Der Mensch beeinflusste jedoch durch seine Bau- und Siedlungstätigkeit sowie durch geänderte Landnutzung (WI- Effekte) die Erwärmung wesentlich. Mit dem Ausbau der so genannten „Erneuerbaren Energien“ sind nicht nur massive Landschaftszerstörungen und neue Umweltschäden, sondern auch weitere massive Erwärmungen in der Fläche zu erwarten.

Quellen

Großwetterlagen und AMO

http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-1-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/

http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/

http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/

Sonnenscheindauer und Sonnenaktivität

http://www.eike-klima-energie.eu/klima-anzeige/der-heisse-ueberwiegend-trockene-juli-2013-k-ein-ungewoehnliches-ereignis/

http://www.eike-klima-energie.eu/climategate-anzeige/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

http://www.eike-klima-energie.eu/news-cache/eine-kleine-sensation-von-der-presse-unbemerkt-sonnenaktivitaet-erreichte-im-spaeten-20-jahrhundert-nun-doch-maximalwerte/

Literatur Wärmeinseleffekte in den Temperaturreihen.

http://www.eike-klima-energie.eu/climategate-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-als-massgeblicher-treiber-der-gemessenen-temperaturen/

http://www.eike-klima-energie.eu/news-cache/der-waermeinsel-effekt-eine-bestandsaufnahme-teil-1/

Wärmeinseleffekt in deutschen Wetterdaten

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-die-station-frankfurtmain-flughafen-ffm-ein-extremer-erwaermungsfall-teil-2/

http://www.eike-klima-energie.eu/news-cache/der-wi-effekt-eine-bestandsaufnahme-teil-3-und-schluss-die-umland-problematik-flaechiger-wi-effekt-mehr-fragen-als-antworten/

http://www.eike-klima-energie.eu/news-cache/extremes-winterwetter-in-europa-der-waermeinseleffekt-und-das-maerchen-vom-co2-treibhauseffekt-teil-2-die-waermeinseln-breiten-sich-aus/

http://www.eike-klima-energie.eu/news-cache/die-zunahme-der-waermeinseln-brachte-den-grossteil-des-temperaturanstieges-der-letzten-125-jahre/

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Vor 200 Jahren: Der Vulkan und das „Jahr ohne Sommer“

Gar nicht auszudenken, was diese Herrschaften genau vor 200 Jahren angestellt hätten, denn das Jahr 1816 darf mit Fug und Recht ein echtes Klima-Katastrophenjahr genannt werden. Das "Jahr ohne Sommer" folgte auf den größten Vulkanausbruch der Menschheitsgeschichte, den des Tambora in Indonesien. Hierzulande wussten aber nur wenige davon. Die Auswirkungen der Vulkanstaubwolken, die sich rund um den Globus verteilten, waren verheerend. Der Winter 1815/1816 war brechend kalt, das Frühjahr 1816 war wie ein normaler Winter, einen Sommer 1816 gab es nicht und im späten Herbst war es laut historischer Aufzeichnungen beispielsweise in Bozen schon wieder minus 19 Grad kalt.

Die Lebensmittelpreise stiegen ins schwindelnde Höhen und viele Menschen verhungerten. Klima-Kassandras gab es übrigens damals schon. Sie sagten den baldigen Weltuntergang voraus, sprachen von einer „gottgewollten Verunreinigung der Sonne“, einer hatte auch schon den Tag terminiert, an dem „Die Sonne ausbrenne“: 18.Juli 1816. Nachzulesen ist das alles in dem Buch "Tambora und das Jahr ohne Sommer: Wie ein Vulkan die Welt in die Krise stürzte“ des Klima-Historikers Wolfgang Behringer.

Was macht man in einem „Jahr ohne Sommer“ mit Solarzellen?

Egal ob gegenwärtige Klima-Veränderungen nun vom Menschen verursacht werden oder nicht, so lehrt uns das Jahr 1816 dennoch, dass man die Natur immer auf der Rechnung haben muss. Das spricht dafür, sich Klimaveränderungen anzupassen und sich auf solche Ereignisse vorzubereiten, so gut es eben geht. Es ist garantiert nicht so, dass das Klima auf der Welt in einen sanften Schlummerschlaf versetzt wird, nur weil der Mensch beschließt, mit Billionensummen den Kohlendioxid-Ausstoß zu reduzieren. Es gibt kein Thermostat an dem Politiker einfach drehen können – und alles wird gut. Das ist eine ahistorische Sichtweise, die im übrigen einer sinnvollen Verwendung von Geldmitteln im Wege steht.

Da Geld nur einmal ausgegeben werden kann, stellt sich die Frage, ob die Anpassung an das möglicherweise Unvermeidliche nicht Vorrang haben sollte. So werden Unsummen für die unsichere Hoffnung ausgegeben, den Meeresspiegel in 100 Jahren um ein paar Zentimeter weniger ansteigen zu lassen. Wer dieses Geld dafür verwendet, den Menschen heute Deiche und Schutzvorrichtungen zu bauen, hilft ihnen wahrscheinlich sehr viel wirkungsvoller.

Das zeigt nicht zuletzt unsere eigene Vergangenheit. Nicht nur Vulkanausbrüche richteten ungeheure Schäden an, auch die Geschichte der Sturmfluten an der Nordseeküste ist von schweren Katastrophen geprägt. Doch die tödliche Gefahr durch Sturmfluten wurde durch entsprechende Schutzmaßnahmen sehr viel geringer. Das Klima wird sich auch weiterhin wandeln, weil es das immer getan hat. Anpassungsmaßnahmen sind also in jedem Fall sinnvoll, egal ob nun menschliche oder natürliche  Uraschen überwiegen. Stabilere Häuser, höhere Deiche und eine sichere Energieversorgung (Wieviel Strom produzieren Photovoltaik-Anklagen wohl in einem „Jahr ohne Sommer“?) können Menschen in besonders gefährdeten Regionen heute schon mehr Sicherheit bringen und nicht erst in ferner Zukunft.

Wer etwas über Vulkane lernen will, ist  in Island genau richtig

Wer etwas über Vulkane lernen will, ist übrigens In Island genau richtig. „Elefanten können es hören, Menschen nicht“, beschreibt Haraldur Sigurdsson jene gespenstischen Momente, bevor ein Vulkan ausbricht. Der Hörbereich des Menschen beginnt bei 20 Hertz, das Infraschall-Geräusch entzieht sich mit nur 15 Hertz dem menschlichen Gehör, nicht aber unserer Wahrnehmung. „Du spürst etwas tief in Deiner Brust“, erzählt Sigurdsson. Der isländische Vulkanologe, hat das nicht in seiner Heimat sondern auf der indonesischen Insel Java bei einem Ausbruch erlebt. Nach der Infraschallphase, so erinnert er sich,  wird die Geräuschkulisse dann sehr militärisch: „Pfeifen und Heulen, also die Windgeräusche fliegender Gesteinsbrocken.“ Die Lava, die den Berg hinunterfließt gibt ebenfalls Töne von sich: „Das macht ‚Kling, kling, kling‘, wie zerbrechendes Glas“.

Sigurdsson hat das Standardwerk "Melting The Earth – the hisory of ideas on Volcanic Eruptions" geschrieben, ist Mitherausgeber der „Encyclopedia of Volcanoes“ und gehört einem recht exklusiven Club von einigen hundert Forschern an, die sich darüber Gedanken machen, wie es im Inneren der Erde aussieht und warum es mal hier, mal dort zu vulkanischen Eruptionen kommt. 1939 in Stykkisholmur, einem Fischerdorf im mittleren Westen Islands geboren, hat er ein ein wunderbares Vulkanmuseum eröffnet.

Wenn er morgens aufwacht, geht er als erstes vor sein Haus und schaut sich um: in den Westen, zum Snaefellsjökull, wo Jules Verne seine „Reise zum Mittelpunkt der Erde“ anfangen ließ, in den Südosten zum Ljosufjöll, einem Bergmassiv, das zu dieser Zeit unter einer schweren Wolkendecke liegt. Beide Vulkane sind schon lange inaktiv, aber Haraldur Sigurdsson weiß, dass es so etwas wie „tote Vulkane“ nicht gibt. „Die Wahrscheinlichkeit, dass einer plötzlich zum Leben erwacht, ist minimal, aber ganz ausschließen kann man es nicht.“ Und das gilt noch nicht einmal für die deutschen Vulkane, etwa in der Eifel, die gerade erst 11.000 Jahre alt sind.

„Statistisch gesehen passiert so etwas alle 300 Jahre“

„Geologisch gesehen ist das eine kurze Zeit“ sagt er, „auf den Westermänner-Inseln schwiegen die Vulkane 12.000 Jahre und 1963 gab es plötzlich einen gewaltigen Knall“. Der Hauptort Heimæy wurde zur Hälfte von Lava und Asche verschüttet, ein Pompeji des 20. Jahrhunderts (einige Gebäude werden derzeit zu Anschauungszwecken wieder ausgegraben). Es gab dennoch keine Toten, weil die zufällig anwesende Fischereiflotte innerhalb weniger Stunden über 5.000 Bewohner evakuierte.

Nicht so viel Glück hatten 1816 die Bewohner des Landstriches um den Tambora herum. Sein oben bereits erwähnter Ausbruch 1815 kostete 107.000 Menschen das Leben, die meisten davon wurden von einer glühend heißen Gaswolke getötet, die den Berg hinab brauste. Die Überreste der Stadt, die damals komplett zerstört wurde, fand der isländische Vulkanologe im Jahr 2004 in etwa 25 Kilometer Entfernung vom Vulkan entdeckt. Die Folgen des Ausbruchs waren global und die Erdabkühlung verursachte Hungernöte bis hinein nach Europa.  „Das war die letzte Krise dieser Art“ sagt Haraldur, „aber statistisch gesehen passiert so etwas alle 300 Jahre“. Er nennt so eine Katastrophe einen „schwarzen Schwan“. Die moderne Industriegesellschaft würde nach einem solchen Ereignis kollabieren, da ist er sich ziemlich sicher. „So etwas bedeutet komplettes Chaos und man kann nur versuchen irgendwie zu überleben.“

Haraldur hebt einen Gesteinbrocken auf, der aussieht wie eine Kanonenkugel. „Das glühende Material ist irgendwann ausgeworfen und so von der Luftströmung geformt worden“. Die Geologen und Vulkanologen können solche Klumpen zum sprechen bringen wie die Forensiker von CSI. „Material, Beschaffung, Form, Gewicht, Entfernung vom Krater, all das hilft uns, die Gewalt einer Eruption nachzuvollziehen.“ Im Falle des Tambora heißen die Ergebnisse: Die Geschosse flogen bis zu 42 Kilometer hoch und eine Billion Kilogramm Gesteinsmasse wurden pro Sekunde in die Luft geschleudert. 100 Kubikkilometer Masse drangen aus dem Erdinneren nach außen. Die Erde hat zahllose solche Ereignisse über sich ergehen lassen, was Haraldur mit der Bemerkung zusammenfasst: " Alles ist Recyling, jeder Teil der Erde ist schon einmal durchgelaufen.“

Übernommen von ACHGUT hier

Anmerkung der EIKE Redaktion: Die 10. IKEK wird Mitte November in Berlin stattfinden und das Oberthema "Tambora – vor 200 Jahren gab es keinen Sommer" stehen




Die Konzeption Zivile Verteidigung – oder „Haltet den Dieb“

Keine Terroristengruppe kann die Versorgung mit Nahrungsmitteln, Wasser, Strom, Treibstoff oder Medizin so massiv stören, dass es zu bedrohlichen Engpässen kommen kann. Man arbeitet mit den in TV-Serien oft gesehenen, aber unrealistischen Hackerangriffen, die große Versorger lahmlegen und Chaos erzeugen. In Wahrheit haben sich diese Unternehmen längst auf derartige Bedrohungen eingestellt und haben ihre sensitiven und durch Störungen beeinflussbaren Bereiche abgeschirmt – z.B. durch deren völlige Isolierung vom hausinternen Computernetz, das wiederum ebenfalls gegen das Internet abgesichert werden kann und wird.

Vereinfacht gesagt: Man braucht nur den Stecker zum Internet oder zur WLAN-Verbindung ziehen.

In letzter Zeit hat es Hackerangriffe auf noch ungenügend geschützte Unternehmen gegeben, denen die massive Störung ihres hausinternen Computernetzwerks angedroht wurde, falls nicht gezahlt wird. Das wird vermutlich die Absicherungsmaßnahmen weiter vorantreiben.

Bisher gingen aber die meisten Probleme mit Computerstörungen in Unternehmen auf die eigenen Mitarbeiter zurück, die mit USB-Sticks Viren-verseuchte Spiele-, Video- und Musikdateien in ihren Arbeitsplatzrechner einfütterten.

Es ist absehbar, dass der unautorisierte Zugang zu der EDV von Unternehmen, Dienstleistern, Behörden und anderen Nutzern von schutzwürdigen Computerprozessen bald durch die  verschiedenen Abwehrmaßnahmen ein Ende haben wird.

Die Regierung weiß das natürlich längst. Was also treibt sie jetzt ? Es ist in Wahrheit die berechtigte Furcht vor dem schon lange befürchteten großen Blackout – also vor dem Zusammenbruch des deutschen Stromnetzes, der ohne weiteres 2 Wochen andauern kann. Die Stromnetzbetreiber warnen seit Jahren vor dieser immer wahrscheinlicher werdenden Situation, die sich speziell im Winter einstellt. Es sind die mit ihrer Energiewende und dem Erneuerbaren Energie-Gesetz EEG unbedacht und leichtsinnig von der Regierung herbeigeführten Probleme, deren Gefährlichkeit stetig zunimmt: Der riesenhafte Zubau an Windrädern – jetzt  27.000 Stück – bringt speziell in den Wintermonaten ebenso riesenhafte Leistungsspitzen, die das Stromnetz nicht mehr verkraften kann.  Nicht einmal der hundertste Teil der für deren Ausgleich nötigen Pumpspeicher existiert – und kann auch nicht für noch so viel Geld gebaut werden. 

Die Grundlast-Stromversorgung ist mit der Kernkraft-Abschaltung ruiniert worden und mit dem EEG treibt die Regierung immer mehr Kohlekraftwerke in die Unrentabilität und damit deren Stilllegung – nachdem bereits die Gaskraftwerke sämtlich ins Aus getrieben wurden. Weil aber der Strombedarf geblieben ist und im Winter wie immer beträchtlich ansteigt, nähert sich das durch die Regierung massiv beschädigte deutsche System der Stromversorgung immer rascher dem Kollaps.

Die verzweifelten Ausgleichsmaßnahmen der Netzbetreiber helfen kaum noch, die von den wetterabhängigen „Erneuerbaren“ verursachten gefährlichen Frequenzschwankungen innerhalb der Grenzen zu halten, jenseits derer der Zusammenbruch des Netzes und die totale Abschaltung folgt. Unsere Nachbarn können im Winter nicht helfen; sie brauchen ihren Strom selbst. Schlimmer noch: Polen und Tschechien, die von deutscher Seite als unfreiwillige Abnehmer der überflüssigen, gefährlichen Windstromspitzen missbraucht wurden, wehren sich jetzt dagegen mit sog. Phasenschiebern (Sperr-Schaltern) an ihren Grenzen, die die Deutschen zwingen, mit ihren  Windstrom-Tsunamis selbst fertig zu werden.

Und jetzt scheinen die Warnungen endlich bis nach Berlin durchgedrungen zu sein. Die Angst vor dem großen Blackout ist nur zu berechtigt. Es wäre die größte wirtschaftliche Katastrophe der Nachkriegszeit – und es würde Tote geben.

Dass die Regierung in dieser Situation ihre Pleite mit der Energiewende eingestehen würde, war nicht zu erwarten. Sie legte am 24.August eine „Konzeption Zivile Verteidigung (KZV)“ vor, die kurz zuvor vom Kabinett verabschiedet worden war. Wichtig der Hinweis, dass dies nichts mit der aktuellen Terrorlage in Deutschland zu tun habe. Vielmehr sei das Konzept jetzt „einfach fertig gewesen.“

In diesem Punkt hat man sogar die Wahrheit gesagt. Man muss dazu die Arbeit der sog. nachgeordneten Behörden wie Bundesämter betrachten; insbesondere derjenigen Ämter, die die undankbare Ausgabe haben, für einen fiktiven Vorgang, der irgendwann eintreten könnte, bereit zu sein und vorgesorgt zu haben.

Der in dieser Hinsicht undankbarste Job ist der des ehemaligen (1958) Bundesamtes für zivilen Bevölkerungsschutz (BzB) und 1974 seines Nachfolgers Bundesamt für Zivilschutz (BZS) und seit 2004 des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe (BBK). Um seine Existenzberechtigung immer erneut unter Beweis zu stellen und ggf. neue Entwicklungen zu berücksichtigen, fabriziert so ein Amt regelmäßig  ein aktualisiertes Papier, das dem Ministerium zugeleitet wird. Herr de Maizière hat deshalb immer ein solches Konzept in der Schublade und kann es deshalb bei Bedarf sofort präsentieren.  Dieser Bedarf ist soeben eingetreten.

Praktischerweise deckt so ein Universalpapier alle nur denkbaren Katastrophen-, Stör-, Sabotage- und Angriffsszenarien ab und passt somit immer.

Aber der zuständige Innenminister hat am 24.8 doch einige erstaunliche Aussagen gemacht: 

De Maizière hält den Krisenfall eines längeren regionalen oder überregionalen Stromausfalls in Deutschland für am wahrscheinlichsten ! Und der Präsident des dem Innenminister unterstellten Bundesamtes (BKK), Christoph Unger, sekundierte: „Ein Stromausfall würde uns existenziell treffen.“

Diese Äußerungen weisen auf die anscheinend sehr massiven Warnungen der Netzbetreiber und evtl. sogar der Bundesnetzagentur (BNetzA) hin, die bisher die Lage stets verniedlicht und beschwichtigt hat.

Dann folgt der Hinweis auf – selbstverständlich – finstere ausländische Mächte: „Ich kann mir vorstellen, dass es Gruppen oder Staaten oder eine Mischung von Gruppen und Staaten gibt, die ein Interesse daran hätten, einmal auszuprobieren, wie resilient, wie anpassungsfähig die deutsche Gesellschaft ist mit Blick auf die Abhängigkeit von der Stromversorgung.“ Weshalb er dann diese Präsentation in einem Wasserwerk und nicht in einem Kohlekraftwerk – oder noch besser in einem Windpark – abgehalten hat, sagte er nicht. Beides hätte wohl bissige Kommentare ausgelöst.

Und die finsteren Mächte nannte er leider auch nicht, obwohl er sie kennt:

Die finsteren Mächte, die die deutsche Energiewende durch eine riesenhafte Katastrophe als groben Unfug der höchsten vorstellbaren Stufe desavouieren wollen, die gibt es tatsächlich. Sie sind aber nicht ausländisch.

Es sind:

Ø  Das Wetter

Ø  Und die Physik.

Aber jetzt müssen erst einmal die üblichen Verdächtigen herhalten – zur Zeit sind das „Gruppen oder Staaten“ (Terroristen erwähnte der Minister gar nicht). Die Bürger werden es schon glauben. Wenn es aber in diesem Winter tatsächlich zum katastrophalen Blackout kommt (de Maizière hat’s geahnt), dann werden viele Leute nach diesen „Gruppen“ suchen. Und sie finden.




Svensmark: Sonnenaktivität hat einen direkten Einfluss auf die Wolkenbedeckung der Erde

Es ist bekannt, dass Sonneneruptionen die Atmosphäre der Erde vor kosmischen Strahlen abschirmen. Allerdings zeigt die neue, im Journal of Geophysical Research: Space Physics veröffentlichte Studie, dass die globale Bewölkung in gleichem Maße reduziert ist. Dies stützt den Gedanken, dass kosmische Strahlung für die Wolkenbildung sehr wichtig ist. Die Eruptionen verursachen einen Rückgang des Bewölkungsanteils von etwa 2%, was mit etwa 1 Milliarde Tonnen Wasser korrespondiert, das aus der Atmosphäre verschwindet.

Da man von Wolken weiß, dass sie in größerem Zeitmaßstab die globalen Temperaturen beeinflussen, präsentiert die jetzige Untersuchung einen wichtigen Schritt zum Verständnis von Wolken und Klimavariabilität.

„Die Erde ist einem ständigen Bombardement von Partikeln aus dem Weltraum ausgesetzt, die man galaktische kosmische Strahlen nennt. Gewaltige Eruptionen auf der Sonnenoberfläche können diese kosmischen Strahlen etwa eine Woche lang von der Erde fernhalten. Unsere Studie hat gezeigt, dass bei einer auf diese Weise erfolgenden Reduktion kosmischer Strahlen auch eine korrespondierende Reduktion der irdischen Bewölkung zu verzeichnen ist. Da Wolken ein wichtiger Faktor bei der Kontrolle der Temperatur auf der Erde sind, können unsere Ergebnisse Implikationen für Klimawandel haben“, erklärt der Leitautor der Studie Jacob Svensmark von der DTU.

Sehr energiereiche Partikel

Galaktische kosmische Strahlen sind sehr energiereiche Partikel, die ihren Ursprung hauptsächlich in Supernovae haben.

Diese Partikel erzeugen elektrisch geladene Moleküle – Ionen – in der Erdatmosphäre. Ionen haben laut Laborversuchen zu einer Verstärkung der Bildung von Aerosolen geführt, welche als Kondensationskerne für die Wolkentröpfchen fungieren. Ob dies tatsächlich in der Atmosphäre so ist oder nur im Labor ist eine Frage, über das seit Jahren geforscht und diskutiert wird.

Wenn die großen Sonneneruptionen die galaktischen kosmischen Strahlen hinweg blasen, bevor sie die Erde erreichen, verursachen sie eine Reduktion atmosphärischer Ionen im Verlauf einer Woche um etwa 20% bis 30%. Falls also Ionen die Wolkenbildung beeinflussen, sollte es möglich sein, eine Abnahme der Bewölkung zu finden während Ereignissen, bei denen die Sonne kosmische Strahlen von der Erde fernhält, und genau das ist in dieser Studie getan worden.

Die so genannten Forbush decreases der kosmischen Strahlen wurden bislang mit Wochen dauernden Änderungen der Wolkenbedeckung in Verbindung gebracht, aber der Effekt ist lang und breit in der wissenschaftlichen Literatur debattiert worden.

Die neue Studie kommt zu dem Ergebnis, dass „es eine reale Auswirkung von Forbush decreases auf die Mikrophysik von Wolken gibt“, und dass die Ergebnisse die Aussage stützen, dass „Ionen eine bedeutende Rolle im Lebenszyklus von Wolken spielen“.

Der Weg zu diesem Ergebnis war jedoch ein hartes Unterfangen: Sehr wenige Forbush decreases treten auf, und es ist zu erwarten, dass deren Auswirkung auf die Wolkenbildung bei globalen atmosphärischen Beobachtungen mittels Satelliten und Messstationen an Land kaum zu erkennen ist. Daher war es von allergrößter Wichtigkeit, die stärksten Ereignisse für die Studie herauszusuchen, da deren Auswirkungen am einfachsten erkannt werden können. Zur Bestimmung der Stärke war die Kombination von Daten von etwa 130 Stationen erforderlich in Kombination mit atmosphärischer Modellierung.

Dieses neue Verfahren führte zu einer Liste mit 26 Ereignissen im Zeitraum von 1987 bis 2007, entsprechend der Ionisierung. Die Rangfolge in der Liste war wichtig für die Erkennung eines Signals und könnte auch Licht in die Frage bringen, warum frühere Studien zu anderen Schlussfolgerungen gekommen waren. Diese basierten nämlich auf Ereignissen, die nicht notwendigerweise an vorderer Stelle der Listen rangierten.

Mögliche langzeitliche Auswirkung

Die Auswirkung von Forbush decreases auf Wolken ist zu kurz, um irgendeinen Einfluss auf langzeitliche Temperaturänderungen zu haben.

Da jedoch Wolken durch kurzfristige Änderungen der kosmischen Strahlung beeinflusst werden, können sie auch beeinflusst werden durch die langsamere Änderung der Sonnenaktivität, welche sich in Zeitmaßstäben von Dekaden zu Jahrhunderten abspielt und folglich eine Rolle im Strahlungshaushalt spielt, welcher wiederum die globalen Temperaturen dirigiert.

Der Beitrag der Sonne zu Klimawandel in Vergangenheit und Zukunft kann also folglich viel größer sein als bloß die direkten Änderungen bei der Strahlung.

Quelle: http://www.dtu.dk/english/News/Nyhed?id=b759b038-66d3-4328-bbdc-0b0a82371446

Die ganze Studie steht hier: J. Svensmark, M. B. Enghoff, N. J. Shaviv, and H. Svensmark, “The response of clouds and aerosols to cosmic ray decreases”, Journal of Geophysical Research – Space Physics, 2016, DOI: 10.1002/2016JA022689.

Hier oder hier kommt man zum Abstract und der gesamten wissenschaftlichen Studie.

Damit im Zusammenhang: (via the Hockey Schtick)

Der Solarphysiker Dr. Leif Svalgaard hat seine Rekonstruktion des Auftretens von Sonnenflecken überarbeitet (hier), und zwar über die 400 Jahre von 1611 bis 2013. Der Plot des „Zeitintegrals“ der Sonnenfleckenzahl aus den Daten von Dr. Svalgaard zeigt eine signifikante Zunahme der akkumulierten Solarenergie, welche während des 18. Jahrhunderts begonnen und bis nach Ende der Kleinen Eiszeit um das Jahr 1850 gedauert hatte. Nach einem Stillstand von etwa 30 Jahren ergibt die akkumulierte Solarenergie einen „Hockeyschläger“-Anstieg im restlichen 20. Jahrhundert, gefolgt von einer Abnahme mit Beginn im Jahre 2004. All dies zeigt eine bemerkenswerte Korrespondenz zu den globalen Temperaturaufzeichnungen nach HadCRUT4:

Das Zeitintegral der Sonnenaktivität plus ozeanische Oszillationen (hier), welche ebenfalls durch die Sonnenaktivität getrieben werden, können 95% des Klimawandels während der letzten 400 Jahre (hier) erklären.

Es ist angebracht, sich noch einmal daran zu erinnern, was Dr. Roy Spencer über Wolken gesagt hat:

Die offensichtlichste Art und Weise für eine natürlich erfolgende Erwärmung sind kleine natürliche Fluktuationen der Zirkulation von Atmosphäre und Ozean, welche zu einer Reduktion der Wolkenbedeckung um 1% oder 2% führen. Wolken beschatten die Erde, und falls sich die Bewölkungsmenge aus irgendwelchen Gründen ändert, hat man globale Erwärmung – oder globale Abkühlung.

Link: https://wattsupwiththat.com/2016/08/25/svensmark-publishes-solar-activity-has-a-direct-impact-on-earths-cloud-cover/

Übersetzt von Chris Frey EIKE




Über die 25 Anforderungen einer Aussenwand (Fassade)

Ein Planer, sei er Architekt oder Ingenieur, sollte (muss) wissen, wenn er einen Strich mit dem Bleistift oder dem Computer zeichnet, aus welchem Material der Strich ist, welche Farbe und Struktur er hat, welche Ästhetik er generiert und was der Strich kostet. Fügt der Planer einen weiteren Strich parallel zum ersten ein, wird bereits von einer Wand im Grundriss gesprochen.

Nun sollte (muss) ein Planer, sei er Architekt oder Ingenieur daran denken, dass diese 2 Striche schon eine Aussenwand beschreiben und dabei bereits 25 Anforderungen generieren, welche zu beachten sind! Der Vollständigkeit halber werden nun diese 25 Anforderungen beschrieben und deren Zweck und Eigenschaften erläutert.

01.    Die Ästhetik ist seit dem Beginn der „Moderne" im Jahr 1925 das Wichtigste was es für einen Architekten gibt auf der Welt. Alle andern 24 Anforderungen sind für den Architekten untergeordnete Nebensächlichkeiten, die ohne Bedeutung sind. Für heutige Architekten zählt nur das Eine: „Das Design"!

       Diese Architekten werden wohl jetzt auch nicht mehr weiterlesen.

02.    Die Statik des Bauingenieurs ist für die Fassade eines Architekten­Entwurfs ein angeblich notwendiges Übel, die nichts kosten darf. Der Architekt benutzt den eigentlich wichtigen Ingenieur seit Beginn der „Moderne" wie eine Hure, nämlich nur dann, wenn er ihn nötig hat.

03.    Die Festigkeit beschreibt mit ihrer Lehre, die Verformungen infolge Last- oder Temperaturwechseln einer Wand. Missachtungen der Festigkeitslehre und der damit verbundenen Nichtbeachtung der Thermodynamik sind Ursache der meisten Bauschäden.

04.    Die Erdbebensicherheit ist Sache des Bauingenieurs im Bereich der Statik. Sie wird gewährleistet indem Gummipuffer (teuer) die Horizontalbeschleunigung aufnehmen und/oder im Gebäudekern sowie in den Fassaden entsprechende Aussteifungen erstellt werden.

05.    Die Sturmsicherheit einer Fassade ist für einen Architekten nicht wichtig. Man sieht das vor allen Dingen bei Sturmschäden in den USA, wo eine Klimaanlage wichtiger ist, als eine gut funktionierende Wand, die nicht beim ersten Windstoss einbricht.

06.    Die Ökonomie bzw. der Preis einer Wand spielt für den Architekten eine untergeordnete Rolle. Würde der Architekt die Oekonomie beachten, hätte er unweigerlich eine Honorareinbusse zu verzeichnen. Und wer will schon weniger verdienen in dieser garstigen Zeit?

07.    Die Erstellungszeit einer Wand muss kurz sein, weshalb herkömmliche Bautechniken nicht mehr verwendet werden können. Welcher Architekt sieht denn ein, dass ein Drei-Schicht-Aussenverputz drei Monate für den Erhärtungsprozess benötigt? Billige Schmiere wird mit billigen Hilfskräften des Generalunternehmers appliziert. Das ist für heutige Architekten zeitgemäss und profitabel

08.    Die Wetterfestigkeit einer Fassade wird von heutigen Architekten vernachlässigt, denn die Wand muss so schnell wie möglich wieder kaputt gehen, damit wieder eine neue Wand für ein neues Haus erstellt und neues Architektenhonorar bezogen werden kann.

09.    Die Dauerhaftigkeit einer Wand ist die Schwester der Wetterfestigkeit. Kein Architekt ist daran interessiert, dass eine Wand drei bis vier Generationen hält. Im alten Rom wurde laut VITRUV eine intakte Wand auch noch  nach 80 Jahren als neu eingestuft. Aus diesem Grund sollte eine Aussenwand auch heute noch eine Dauerhaftigkeit von DREI Generationen aufweisen.

10.    Die Wanddicke sorgt dafür, dass der Wärmefluss gegen aussen nicht linear sondern exponentiell abfliesst. Je dicker die Wand, desto grösser ist die Verweilzeit von solar eingestrahlter Energie und desto weniger Heiz-Energie muss dem Gebäudeinnern zugeführt werden.

11.    Die Wärmespeicherfähigkeit ist der Bruder der Wanddicke, weil er hilft, das Beharrungsvermögen der Wärme in der Wand zu vergrössern. Wie bei der rotierenden Erdkugel, sorgt die Wärmespeicherfähigkeit für einen thermischen Ausgleich in einer Aussenwand. Mit Flächengewichten von 700 kg bis 1000 kg pro Quadratmeter werden die besten Energie-Speicherwerte erzielt!

12.    Die Wärmedämmfähigkeit, genannt U-Wert, ist ein Materialwert der beschreibt, wie gross der Wärmefluss in einer Wand von innen nach aussen ist. Fälschlicherweise wird der U-Wert als gesetzlicher Wert zur Energieeinsparung verwendet (EnEV / SIA 380/1). Weil Aussen- oder Zwischendämmungen die solare Energieeinstrahlung unterbinden, sind Kunstharz-Schäume und Faserdämmungen für Wärmedämmungen  ungeeignet. Die Architekten und Ingenieure haben es sträflich unterlassen, die Energie-Effizienz der U-Wert-Theorie zu überprüfen.

Die U-Wert-Theorie ist bis heute wissenschaftlich, experimentell nicht validiert!

13.    Die Wärmeeindringgeschwindigkeit einer Wand ist materialabhängig. Mit ihr wird die solare Energieaufnahme berechnet. Frage nie einen Architekten, wie man diese thermische Wirkung berechnet, denn er weiss es nicht!

14.    Die Strahlungsaufnahmefähigkeit einer Wand wird im Wesentlichen durch die Farbe bestimmt. Weisse Wände haben eine hohe Strahlungs-Reflektion und nehmen deshalb wenig solare Energie auf. Die Unsitte, weisse Gebäude zu erstellen, ist eine Modeerscheinung der inkompetenten Architekten, die keine Heizenergie einspart. Da Architektur-Modelle in weiss darzustellen sind, glaubt der Architekt, dass weisse Gebäude in der Realität die gleiche Wirkung erzielen würden. Weisse Gebäude sind ebenfalls ein Relikt der „Moderne"!

15.    Die Wärmebrücken bei Fassaden gelten als hohe Energie-Verschleuderer. Niemand bedenkt, dass die Abwicklungen von Wärmebrücken auch erhöhte Einstrahlungs-Flächen bilden. Bis heute gibt es keine realen, experimentellen Untersuchungen von Wärmebrücken. Wärme fliesst nur von Warm nach Kalt, die von aussen einwirkende solare Strahlung bleibt unberücksichtigt. Würde man den Energieverbrauch der Wärmebrücken bei einem im „Jugendstil" er­ stellten Haus berechnen, so ergeben sich Verbrauchswerte jenseits aller Vorstellungen. Dennoch ist der Energieverbrauch dieser Bauten geringer als bei hochgedämmten Gebäuden in aktueller Bauart.

16.    Die Sorptionsfähigkeit ist eine Wandeigenschaft, welche durch die Kapillarität der verwendeten Materialien bestimmt ist. Die Sorptionskette von innen nach aussen: Papiertapete-Gipsverputz-Ziegel-Aussenputz mit Kalk, ist bis heute optimal. Gebäude mit dieser Sorptionskette benötigen zur Entfeuchtung keine Komfort-Lüftung. Da Faserdämmstoffe keine Kapillaren aufweisen, können sie auch kein Wasser von innen nach aussen transportieren, weshalb sie als Dämmstoff ebenfalls ungeeignet sind.

17.    Die Oberflächenstruktur einer Fassade mit Lisenen, Gewänden, Stürzen, Vor- und Rücksprüngen, bestimmt, ob eine flache Wand infolge laminarer Luftströmung schnell auskühlt oder ob die Auskühlung bei einer strukturierten Wand mit turbulenter Luftströmung vermindert geschieht. Auch grobkörnige Putze wie z.B. ein Kellenwurf kann den Strahlungsgewinn infolge der vergrösserten Fassaden­Oberfläche verbessern.

18.    Die Schalldämmfähigkeit einer Wand steigt exponentiell mit der Wanddicke und dem spezifischen Gewicht des Wandmaterials. Es gelten die gleichen Erkenntnisse wie bei der Wärmespeicherfähigkeit (siehe Punkt 11). Plant ein heutiger Architekt eine Wand mit Polystyrol-Aussendämmung hat er zu wissen, dass Resonanzen und Nebenweg-Übertragungen des Schalls den Wohn-Komfort in einem Gebäude drastisch beeinträchtigen können.

19.    Die Gesundheitsverträglichkeit einer Wand ist für den Menschen ein hohes Gut. Gips auf der Wand-Innenseite ist hygroskopisch und entfeuchtet den Raum optimal, wobei ein konventioneller 3-Schicht-Kalkverputz auf der Aussenseite für die aus dem Gebäudeinnern transportierte Entfeuchtung mit hoher Desorption sorgt, gleichzeitig Ungeziefer fernhält und den Algenbewuchs verhindert. Fassadenanstriche mit organischen Bindemitteln aus Kunstharzen vermindern krass die Gesundheitsverträglichkeit von Fassaden. Architekten sollten wieder lernen, wie anorganische Farben angewendet werden können.

20.    Die Diffusionsfähigkeit ist die Mutter der Sorptionsfähigkeit. Poren und Kapillaren sind für das Entfeuchtungssystem einer Wand zuständig. Drei Wasser-Moleküle bilden in einer Pore einen Tropfen Wasser, der mit dem raumseitigen Partialdruck über die Kapillaren an die trockene Aussenluft transportiert wird. Wie bei der Gesundheitsverträglichkeit behindern organische  Farbanstriche die Diffusionseigenschaften einer Fassade.

21.    Die Feuersicherheit einer Wand wird durch das Verwenden nichtbrennbarer Baustoffe gesichert. Brennbare Dämmstoffe wie Holz, Kunststoff, Kunststoffschäume aus Polystyrol, Polyurethan, Phenolharz, Harnstoff etc. und auch mit Phenolharz gebundenen Mineralfasern sind zu vermeiden bzw. zu verbieten.

22.    Die Entsorgungsfähigkeit einer Wand sollte von Beginn an einer Planung beachtet werden. Jedes Gebäude wird irgendeinmal abgebrochen und sollte dann keine giftigen Stoffe in die Umwelt freisetzen. Der Architekt sollte schon bei der Planung an das Recycling seiner ,,freigesetzten" Stoffe denken um die Ressourcen – z.B. Betonkies – zu schonen. Im Energiebereich einer Wand ist die Entsorgung von Ziegel problemlos, wogegen Kunststoffschäume wie Polystyrol sehr problematisch sind, weil diese verbrannt werden müssen.

23.    Die NachhaltigkeitÖkologie – ist ein viel gehandelter Begriff, welcher für eine Wand beschreibt, dass eine gute Investition länger halten soll als Ramsch. Deshalb ist ein Architekt dafür verantwortlich, dass die Dauerhaftigkeit der von ihm geplanten Bauteile gesichert ist. Die in Mode gekommenen Wände aus „isoliertem Pappendeckel", hochgedämmte Ständerkonstruktionen, „Glasschwarten­Bauten" etc. sind deshalb nicht nachhaltig.

24.    Die Gesamtenergiebilanz einer Wand wir durch die Energie-Verbrauchs-Leistung (EVL) in Watt pro Kubikmeter Gebäude und der gemessenen Temperaturdifferenz in W/m3K beschrieben. Allerdings wird es noch gefühlte 100 Jahre dauern, bis die angebliche Wissenschaft der Bauphysik diesen Wert verinnerlicht hat, obwohl dieser Norm-Wert bereits vor 90 Jahren in ganz Europa als „Kennziffer" zu Vergleichszwecken  bekannt war.

25.    Der Energieverbrauch einer Wand wird durch die 8 energierelevanten, vorgenannten Faktoren bestimmt (siehe Punkt 10 bis 17), welche nachfolgend mathematisch und physikalisch präzisiert werden:

10. Die Wanddicke führt über die Zeitkonstante x 0,5 Log. n  zur Halbwertszeit. Die Halbwertszeit ist ein qualitativer Wert. Sie gibt an, in welcher Zeit der Wärmeinhalt einer Wand bei „freier" Auskühlung abnimmt. Weil die Wanddicke im Quadrat über der Temperaturleitzahl in die Formel eingeht, bildet sie eine der wichtigsten Energie­Faktoren einer Aussenwand!

(Dr. habil. Georg Hofbauer, Gesundheitsingenieur,  29. März 1941)

Wanddicke                       d       cm

Wärmeleitung                   λ       W/mK

Raumgewicht                   ς       kg/m3

Wärmespeicherzahl         c       Wh/kgK

Konstante für Halbwertszeit „k“ bei 0°C          k   = 0,5  x  Log. n = 0.347

Die Temperaturleitzahl              a = λ / ς x c         m2 / h

Die Zeitkonstante             t = d2 / a             h

Die Halbwertszeit              t’ = k  x  d2 / a     h

Beispiel:

Zwei Wände mit gleichem Flächengewicht und gleichem U-Wert:

a = λ / ς x c = 0,1 W/mK  /  0,03 Wh/kgK  x  1500 kg/m3 =  0,002 m2/h

(Diese Konstruktionen könnte man sogar „hinbasteln“)

Wand W1:                        d = 25 cm                               d2 =  0,0625 m2

Zeitkonstante  W1:           t = 0,0625 m2  /  0,002 m2/h        =  31.25 h

Halbwertszeit W1:          t’ = 0,347  x  31.25 h                   =  10,8 h

Wand W2:                       d  =  50 cm                                      d2  =  0.25 m2

Zeitkonstante  W2:           t = 0,25 m2  /  0,002 m2/h             = 125.00 h

Halbwertszeit W2:          t’ = 0,347  x  125 h                       =  43.4 h

Fazit: Bei doppelter Wanddicke ist die Halbwertszeit 4 mal höher!!!

11.  Die Wärmespeicherfähigkeit ist anhand von Energie-Verbrauchs-Analysen (EVA) dahingehend beobachtbar, dass ein Flächengewicht von 700 kg/m2 (39 cm Vollziegel verputzt)  bis 1’000 kg/m2 (54 cm Vollziegel verputzt) energetisch von Vorteil ist.

       Gebäude mit derartigen Wänden weisen einen Netto-Energieverbrauch  von Qh = 20 kWh/m3a auf (siehe Gesundheits-Ingenieur 1925 bis 1927)

12.  Die Wärmedämmfähigkeit wird durch den U-Wert (alt k-Wert) beschrieben und bildet bei nicht solar bestrahlten Bauteilen wie: Kellerdecke, Dachdecke und Rohrdämmungen etc. zweifelsfrei die relevante Energiespargrösse, wobei in zweiter Linie wiederum die Materialdicke und anschliessend die Wärmespeicherfähigkeit zum Tragen kommt. Bei Aussenwänden aber, fehlt jedoch bis heute jegliche Kausalität in Bezug zum messbaren Energieverbrauch.

Das stellte auch ETH-Professor Max Hottinger in den 1940-er Jahren fest.

Die nach ihm benannte Hottinger-Formel lautete für die Bestimmung der Heizleistung:

Q  =  Wirkungsgrad der Heizung x Fläche x Temperaturdifferenz x U-Wert x Gleichzeitigkeitsfaktor plus zusätzlich noch ein paar weitere, unwichtige Faktoren.

Der Gleichzeitigkeitsfaktor betrug für Bauten mit Wandstärken aus Vollziegeln von 39 bis 52 cm + Verputz  =  0,5!

Q  =  μ  x  F  x  δ T  x  k  x  0,5  =  0,45  x  m2  x  °K  x  W/m2K  x  0,5

Das Einfügen des empirisch bestimmten Gleichzeitigkeitsfaktors war erforderlich, weil die Heizleistungs-Berechnungen mit der Wirklichkeit nicht übereinstimmten

13.  Die Wärmeeindring-Geschwindigkeit leitet sich von der „Eindringzahl“ b, in Wattstunden pro Quadratmeter mal °Celsius mal Wurzel aus der Zeit ab. Normale Baustoffe haben b-Werte von 190 bis 550   Wh/m2 K √ s

Generell hängt die Wärmeeindring-Geschwindigkeit vom Flächengewicht, der Wanddicke und der Aussenstruktur des Wandbaustoffes ab.  Hat die Wand infolge zu hoher Porosität, einem allzu geringen Flächengewicht oder bei zu weit auseinanderliegenden Verbund-Stegen mit geringer Dicke (Schlitzlochsteine) einen zu grossen Wärmeeindring-Widerstand, so lässt sich die eingestrahlte Sonnenenergie nur in geringem Umfang nutzen. Es herrscht eine Wärmedepression! Erstmals wurden diese Zusammenhänge im Februar 1982 bei Messungen am Justus Knecht Gymnasium in Bruchsal beobachtet. Die Ergebnisse wurden in  der Folge als „Bruchsaler-Messung“ publiziert und baugeschichtlich festgehalten. Grundlagenforschungen dazu bestehen jedoch nicht.

14.  Die Strahlungsaufnahmefähigkeit / Farbe und die erforderlichen Strahlungsabsorptionsmessungen sind zur Zeit nur für den sichtbaren Teil des Lichts erhältlich. Wie die Infrarotstrahlung in einem Bauteil ankommt und wie sie ausgenützt werden kann, weiss niemand. Es ist anzunehmen, dass in der gemessenen Globalstrahlung – bestehend aus direkter und diffuser Strahlung – das IR möglicherweise enthalten ist.

Es ist m.E. aber unzulässig, Strahlungsprozente aus gemessenen Anteilen des sichtbaren Lichtes mit der gemessenen Globalstrahlung  zu multiplizieren und so eine Strahlungsabsorptionsmenge zu bestimmen.

Zusammenhänge:

Verputze auf Aussendämmungen müssen – damit sie nicht reissen – einen hellen Farbton aufweisen und meistens handelt es sich um einen sogenannten Kunststoffputz mit einer:

Strahlungsabsorptionszahl von μ = 0.30 bis 0,40  und einer

Reflektionszahl von                   μ = 0,60 bis 0,70

Auf massiven Wänden hingegen können durchgefärbte Kalkputze mit dunkler Einfärbung appliziert werden, welche eine:

Strahlungsabsorptionszahl von μ = 0.65 bis 0,80  bei einer

Reflektionszahl von                   μ = 0,35 bis 0,20  aufweisen.

15.  Generell gilt für Wärmebrücken die Argumentation von Punkt 16. „Die Oberflächenstruktur.“ Im Wesentlichen sind energetisch negative Wärmebrückenwirkungen bei Aussenecken, Wandanschlüssen zu Fassaden, bei Deckenauflagern und auskragenden Bauteilen zu beachten. Das trifft aber nur auf aussengedämmte Konstruktionen mit geringer Innenwandstärke und mit niedrigem Flächengewicht zu. Meistens kommt es bei diesen Schwachstellen zu Kondensat-Ausfall mit Schimmelpilz. Vermutlich spielt auch hier die Wanddicke gemäss Punkt 9. „Die Wanddicke“ die entscheidende Rolle. Unterschreitet die Wanddicke eine bestimmte Grösse, wird die exponentielle Auskühlung beschleunigt.

Bei dicken massiven Wänden von 40 bis 50 cm sind diese Nachteile nicht beobachtbar. Würde man aber bei einem Jugendstil-Haus die Entwärmung nach der aktuellen Wärmebrückentheorie berechnen, so würde alleine aus Lisenen, Gewänden und Gesimsen ein derart hoher Energiebedarf entstehen, dass mit den Fenster-, Wand-, Boden- und Dachflächen ein um das Vielfache höherer Energieverbrauch entsteht, als er in der Wirklichkeit beobachtbar ist. Offizielle, reale Messungen bestehen hierzu nicht.
Falsch verstandener Reduktionismus führt zum „Schichtendenken“! Die „Trag-, Dämm- und Wetter-Schichten“ sind letztendlich wieder ganzheitlich zu betrachten. Zweischalen-Mauerwerke, Fassaden mit verputzter Aussenwärmedämmung, Betonfassaden mit hinterlüfteter Zwischendämmung, Blech- und Vorhangfassaden mit Hinterlüftung und Schaum- oder Faserdämmung, Holzrahmen-Bauweise mit integrierter Fasserdämmung etc. sind weder nachhaltig noch energieeffizient.  Vermutlich bildet die einschalige Wand – infolge der besten Temperaturverwaltung – die idealste Wandkonstruktion!

16.  Die Sorptionsfähigkeit der „offiziellen“ Bauphysik nimmt an, dass im Winter die Raumfeuchtigkeit im innern der Wände kondensiert (Kondensationsperiode) und das Kondensat im nächsten Sommer wieder austrocknet (Austrocknungsperiode). Aus den experimentellen Untersuchungen von ETH-Prof. und EMPA-Chef Paul Haller aus den Jahren 1953 bis 1958, geht aber eindeutig hervor, dass Aussenwände im Sommer generell nass sind und in den Wintermonaten austrocknen. Die Angaben im derzeit aktuellen Berechnungsprogramm WUFI, sind deshalb falsch. Experimente zu WUFI existieren nicht!

Es kann auch aus den Untersuchungen der Eidgenössischen Materialprüfungsanstalt EMPA entnommen werden, dass sich die von Aussenwänden aufgenommene Feuchtigkeit im Herbst und Frühjahr positiv auf den Energiehaushalt auswirkt, weil die eingedrungene Feuchtigkeit die Wärmespeicherfähigkeit im Aussenbereich von Wänden erhöht und somit die solare Zustrahlung bereits auf niederstem Niveau energiewirksam wird.

Eine Aussenwand kann aussen kalt und feucht und bei normaler innerer Beheizung auf 20 °C, innen warm und trocken sein!

Hypothese: Die um die Feuchtigkeit erhöhte Wärmespeicherfähigkeit übertrifft in ihrer Wirkung den negativen Aspekt des angeblich grösseren Wärmeverlustes der Wand infolge besserer Wärmeleitung.

Aus den Experimenten von Haller sind keine quantitativen Energieeinsparungen errechenbar.

17.  Je nach Oberflächenstruktur kann eine Fassadenfläche mehr oder weniger Strahlung aufnehmen. Lisenen, Gewände und Gesimse bilden zwar so genannte geometrische Wärmebrücken. Sie nehmen jedoch auch auf allen Seiten Strahlung auf. Gleiches gilt für Putze. Rohe Putze weisen eine grössere Oberfläche als feine Putze auf und können deshalb mehr Sonnenstrahlung aufnehmen. Bis heute gibt es nur mathematisch ermittelte Wärmebrückenkataloge, beruhend auf stationären Theorien von innen nach aussen. Experimentelle Messungen und instationäre Wärmebrücken-Theorien existieren zur Zeit nicht.

Paul Bossert,ist Dipl. Bauingenieur FH, Architekt, Bauphysiker, Energie- und Bauschadenexperte