Vom Computer verweht: Modellierer bekommen Regenwolken nicht in den Griff

Am 11. Januar 2018 beglückte das PIK die Welt mit einer neuen Prise Klimaalarm. Anhand von Computermodellen wollen die Potsdamer herausgefunden haben, dass sich die Hochwassergefahr in der Welt bis 2040 extrem zuspitzt. Kurios: Bereits einen Tag vor Veröffentlichung der PIK-Pressemitteilung berichtete die Tagesschau ausführlich und in dramatischen Phrasen über die neue Studie. Die zwischen Wissenschaft, Politik, Medien und Aktivisten gesponnenen Netzwerke scheinen bestens zu funktionieren. Bei all der Euphorie über die tolle neue Alarmstory ging eines jedoch unter, nämlich dass die Klimamodelle die Niederschläge gar nicht auf regionaler Ebene simulieren können. Die Fachliteratur ist voll von Berichten zu Modellierungsfehlschlägen und Problemen. Das scheint das PIK und die Medien nicht zu scheren, Hauptsache die Bevölkerung wird für eine Weile mit neuem Klimaschock gelähmt. Einge Kostproben aus der Modellierungswelt der Pleiten, Pech und Pannen:

——————

Regen fällt aus Wolken. Und auch die Simulation der Wolken bereitet immer noch große Probleme. Erfrischend ist die Einlassung von Stephens et al. 2017, die anmahnen, zunächst die physikalischen Prozesse besser zu verstehen, bevor man großartige Zukunftsmodellierungen durchführt:

“…the broad realization has emerged that greater confidence in climate projections requires improved understanding of the processes that govern the feedbacks between the Earth sub-systems.”

Die triste Wirklichkeit: Für Simulationen wie sie am PIK durchgeführt werden und die es dann bis in die Tagesschau schaffen, ist es einfach noch viel zu früh. Die Ungeduld der Forscher ist verständlich, jedoch spielt sich das Ganze in einer Grauzone ab, wobei die Grenze zu Fake News schnell ungewollt überschritten werden könnte. Ein wenig mehr Bescheidenheit wäre hier sicher angebracht.

Weitere Beiträge zu den Wolken finden Sie auch bei Alfred Brandenberger.

 

Hochwasser-Gefahr – der neue Klima-Alarmismus des PIK

Von Dr. Dietrich E. Koelle

Nachdem die Globaltemperaturen seit 18 Jahren nicht mehr gestiegen sind und auch das arktische Eis trotz aller Ankündigungen immer noch nicht verschwunden ist, müssen sich die Klima-Alarmisten wie das PIK, das davon seine Existenzberechtigung ableitet, etwas Neues einfallen lassen. Und das kam jetzt – aktuell und schnell geschaltet nach den begrenzten kürzlichen Hochwassern der letzten Zeit – die Warnung vor einer schlimmen Hochwassergefahr in der Zukunft, verursacht durch den angeblichen “menschengemachten Klimawandel” und den nicht erkennbaren Temperaturanstieg. Aber “Millionen von Menschen sind gefährdet”. Die Natur aber lässt sich weder vom PIK noch den von dort (gegen gutes Geld) beratenen Politikern vorschreiben, wie sich das Klima zu entwickeln hat.

Es ist die fundamentale Unkenntnis über das Klima der Vergangenheit – besonders bei Politikern und leider auch bei den Journalisten – das dazu geführt hat, dass  man als große Neuigkeit das ideologisch so nützliche angebliche  ”menschengemachte Klima” erfinden konnte. Dabei ist beim heutigen Klima und seinem Temperaturanstieg um ca. 1°C in den letzten 100 Jahren nichts – aber überhaupt nichts – anders als dies in den letzten 8000 Jahren (seit der letzten Eiszeit) regelmäßig der Fall war, nämlich Schwankungen um +/-1°C. Jedem Anstieg folgte wieder ein Temperatur-Rückgang. Die relative Warmzeit der letzten zwei Jahrzehnte war nichts anderes als ein weiteres Maximum des 1000-Jahreszyklus, wie dies alle 1000 Jahre zuvor auch aufgetreten ist. Nur gab es früher noch keine katastrophensüchtige Mediengesellschaft und weniger Politiker, die “die Welt retten wollten”.

Anders Levermann erklärte in einer PIK-Pressemitteilung und im Fernsehen „Wenn wir allerdings die vom Menschen verursachte Erwärmung nicht auf deutlich unter 2 Grad Celsius begrenzen, dann werden bis zum Ende unseres Jahrhunderts die Hochwasserrisiken vielerorts in einem solchen Maße ansteigen, dass Anpassung schwierig wird” (die vom PIK erfundene 2° Grenze, die genauso wie die PIK-Erfindung von den angeblichen “Kipppunkten”, die es in der Klimageschichte nie gegeben hat).

Leider scheinen sich aber weder Herr Levermann noch seine Mitarbeiter mit der Klima-Vergangenheit und den früheren Überschwemmungen befasst zu haben. Dann hätten sie feststellen können, dass es in der letzten Kaltzeit im Mittelalter (dem “Little Ice Age”) mehr und stärkere Überschwemmungen gegeben hat als heute. Da es damals (zwischen den Jahren 1550 und 1700 um ca. 2°C kälter war als heute, wie man in dem Buch von Prof. Rüdiger Glaser:”Klimageschichte Mitteleuropas” – mit historischen Hochwassermarken gut belegt – nachlesen kann. Auch die größten Nordsee-Überflutungen fanden im Nov. 1570,  Okt. 1634 und Feb.1651 statt (nicht im Sommer, sondern im Winter !). Das deutet darauf hin, dass die Hochwassergefahr nicht mit steigender, sondern mit abnehmender Temperatur ansteigt. Außerdem gibt es noch die Möglichkeit, dass dies überhaupt nichts mit dem (langfristigen) Klima zu tun hat, sondern schlicht und einfach ein regionales Wetterereignis ist.

Die Mitarbeiter des PIK sind zu bedauern, denn sie müssen immer wieder neue Klimakatastrophen erfinden, um ihre Instituts-Existenz zu rechtfertigen. Leider hat das zu einer tragischen Falschinformation unserer Politiker geführt, die schon Millionenschaden angerichtet hat – abgesehen von der bedauerlichen und unnötigen Verunsicherung der Bevölkerung. Aber die Erzeugung von Ängsten war schon immer ein gutes Geschäftsmodell und nützlich für so manche politische Agenda.

 

PIK kann’s nicht lassen: Auch 2016 erhielt Potsdamer Klimainstitut knapp eine halbe Million Dollar von Greenpeace-nahem politischem Thinktank

Im Zeitraum 2014/15 erhielt das Potsdam-Institut für Klimafolgenforschung (PIK) mehr als eine halbe Million Dollar von einem Greenpeace-nahem politischem Thinktank, Climate Analytics. Gestört hat sich an der Verquickung von Wissenschaft und Aktivismus offenbar niemand, denn der mediale Aufschrei blieb aus, nachdem wir den Interessenskonflikt hier im Blog darstellten. Mittlerweile ist der PIK-Sachbericht 2016 herausgekommen. Sind dem PIK erneut Aktivistengelder zugesteckt worden? Wir blättern im Bericht und werden zu unserem Erstaunen erneut fündig: Im Jahr 2016 kamen dreieinhalb Prozent der gesamten vom PIK eingeworbenen Drittmittel von Climate Analytics. Graphik aus dem Bericht, Seite 32:

Abb. 1: Vom PIK im Jahr 2016 eingeworbene Drittmittel. Quelle: PIK-Sachbericht 2016, Seite 32.

 

Bei einem Gesamtdrittelmittelvolumen von € 10,4 Millionen entspricht der Climate Analytics-Anteil € 368.000. Das sind etwa US$ 450.000, also wieder knapp eine halbe Millionen Dollar wie zuvor. Nimmt Greenpeace durch diesse Zuwendungen Einfluss auf das PIK, das als politikberatende Institution eigentlich der Neutralität verpflichtet wäre?

——————–

Der Tschadsee in der Sahelzone ist ein guter Gradmesser für den Klimawandel. Die Wasserfüllung dieses Sees hat den letzten Jahrhunderten und Jahrtausenden stets oszilliert. So füllte sich der See während der Mittelalterlichen Wärmephase kräftig, um danach wieder zu schrumpfen. Diese Episode des natürlichen hydroklimatischen Pulsschlages ist auch in einem neuen Paper von Sebastian Lüning und Kollegen dokumentiert, das in Kürze im Fachblatt Palaeo3 erscheinen wird. Ermöglicht wurde das Projekt auch durch Crowdfunding vieler unserer Blogleser, die das Kartierprojekt zur Mittelalterlichen Wärmephase tatkräftig unterstützt haben. Nochmals vielen Dank an alle Unterstützer. Die Arbeiten sind zwischenzeitlich weitergegangen und ein Beitrag zur Antarktis ist zur Begutachtung eingereicht worden. Nun konzentrieren sich die Untersuchungen auf Südamerika. Demnächst mehr dazu.

Aber zurück zum Tschadsee. In der zweiten Hälfte des 20. Jahrhunderts schrumpfte und schrumpfte er. Um 1999 kam dann aber die Wende, und der See füllt sich wieder. Ein weiterer Umlauf des hydroklimatischen Pulsschlages hat begonnen. Spiegel Online berichtete am 15. Januar 2018 über die Wasserschwankungen im Tschadsee. Der Titel klingt zwar etwas alarmistisch, im Untertitel gibt es dann aber zum Glück eine Teilentwarnung:

Der sterbende See
Einst war er so groß wie Mecklenburg-Vorpommern, dann schrumpfte der Tschadsee auf die Fläche von Bremen. Geht es so weiter, ist er bald völlig ausgetrocknet. Doch Forscher glauben an ein Comeback.

Weiterlesen auf Spiegel Online

Passend dazu auch ein NASA-Artikel aus dem November 2017:

The Rise and Fall of Africa’s Great Lake: Scientists Try to Understand the Fluctuations of Lake Chad
Nestled in a low spot within a huge basin in west-central Africa is an isolated blue dot: That’s Lake Chad. Its water sustains people, animals, fishing, irrigation, and economic activity in Chad, Cameroon, Nigeria, and Niger. But in the past half century, Lake Chad has lost most of its water. The once-great lake now spans less than a tenth of the area it covered in the 1960s. Scientists and resource managers are concerned about the dramatic loss of fresh water that is the lifeblood of more than 30 million people.

Weiterlesen bei der NASA

——————–

Sie kennen bereits Alfred Brandenbergers Klimawebseite. Die neuesten Ergänzungen gibt es immer hier. Ebenfalls auf seiner Webseite präsentiert Brandenberger Fake News des UNEP United Nations Environment Programme, das in seinen Broschüren die Klimaentwicklung der letzten 1000 Jahre in Hockeystick-Form darstellt. Au weia. Kennen Sie schon das AlpenGate?

——————–

CO2 und Temperatur der letzten 150 Jahre korrelieren recht gut, wenn man von den Wellen im Temperaturverlauf einmal absieht. Allerdings ist auch die Sonnenaktivität im selben Zeitraum stark angestiegen. Wird die Bedeutung der CO2-Korrelation möglicherweise überschätzt. Ein schönes Beispiel für einen solchen Fall ist die Geburtenrate, die überraschend gut zur zeitlichen Entwicklung der Storchpopulation passt. Graphik dazu gibt es hier, für alle die es nicht glauben wollen. Störche und CO2, sicher auch ein spannendes Thema. Ob sich Beinlänge als Reaktion auf den CO2-Anstieg systematisch verändert? Bringen Störche in einer CO2-reichen Atmosphäre weniger Kinder als unter vorindustriellen CO2-Bedingungen? Fragen über Fragen.

 

Von Variabilitätsleugnern, Niedrigwasserleugnern und mittleren-Hochwasserleugnern

Die Anhänger des Klimaalarms lieben den Begriff “Klimaleugner”. Wo immer sie können, betiteln sie damit Andersdenkende. Wer sich dem Gedankengut der Klimakatastrophe nicht anschließen will, wird als Leugner abgekanzelt und ausgegrenzt. Zwar läuft dies gegen alle Regeln des wissenschaftlichen und demokratischen Disputs, aber man fühlt sich damit offenbar wohl. Stefan Rahmstorf liebt den Begriff ebenfalls. In seinem Blog hatte er im November 2017 einen Artikel mit dem Titel:

Von Inseln, Stürmen, steigendem Meeresspiegel und Klimaleugnern

Thema war Kiribati. Über die im Artikel enthaltenen Rechenkünste des Potsdamers hatten wir bereits berichtet. Offenbar hat Rahmstorf die natürliche Variabilität des Meeresspiegels unterschätzt. In der Leugner-Sprache wäre das ein Variabilitätsleugner. Nun ja. Ein Leser des Kaltesonne-Blogs meldete sich nun und teilte uns weitere Beobachtungen mit. Der von Rahmstorf per Ausgleichsgerade für “Kiribati” berechnete Pegelanstieg von 8cm wirkt noch lächerlicher, schreibt Professor Gernot Hoffmann, wenn man die Monatsmittelwerte für Flut, mittleres Hochwasser und Ebbe zugleich in einem Diagramm darstellt. Bei Rahmstorf sieht die Meeresspiegelkurve so aus:

Und so sieht es aus, wenn man die gesamten Daten plottet:

 

Plötzlich ist die ganze Dramatik weg. Wie schade. Rahmstorf erscheint plötzlich als Niedrigwasserleugner und mittlerer-Hochwasserleugner. Nicht schön. Wir hoffen doch sehr, dass er kein Mittelalterliche-Wärmephase-Leugner ist?

——————-

Alfred Brandenberger hat auf seiner Webseite einen wahren Klimawandelschatz zusammengetragen. Das Thema Klima und Artenschutz hat er hier aufgearbeitet. Auch interessant: Gefahr für Landtiere durch Ereuerbare Energiegewinnung. Immer wieder unterhaltsam sind auch die Scheinkorrelationen. Stammleser wissen es: Im 20. Jahrhundert stieg das CO2 stark an. Aber auch die Sonnenaktivität schnellte in die Höhe. Wer von den beiden hat den Temperaturanstieg der letzten 150 Jahre nun wirklich verschuldet? CO2 alleine? Sonne alleine? Oder beide zusammen hälftig?

——————

Vor einem Monat war Weihnachten. Da wünschen sich viele traditionell Schnee. Das sieht einfach besser aus, war aber eigentlich nie garantiert. Früher nicht, und heute nicht. Das niederländische Klimaatblog hat das Thema Weiße Weihnacht vor kurzem beleuchtet. Wer des Holländischen mächtig ist, möge bitte hier und hier lesen. Bedankt!

 

Überraschend: Ozonloch beeinfusst Erdklima

Viel wurde in den letzten 20 Jahren über das Ozonloch diskutiert, das 2017 überraschend klein war. Ozonloch und Klimwandel sind dabei zwei verschiedene Themen. Trotzdem gibt es Berührungspunkte, denn das Ozonloch scheint auch das Klima zu beeinflussen. Bitz & Polvani 2012 berichteten einen Fall aus der Antarktis, wo die stratosphärische Ozonausdünnung offenbar zu einer Erwärmung der Landoberfläche und zur Meereisschmelze führt:

Antarctic climate response to stratospheric ozone depletion in a fine resolution ocean climate model
We investigate the impact of stratospheric ozone depletion on Antarctic climate, paying particular attention to the question of whether eddy parameterizations in the ocean fundamentally alter the results. This is accomplished by contrasting two versions of the Community Climate System Model (version 3.5), one at 0.1° ocean and sea ice resolution and the other at 1° with parameterized ocean eddies. At both resolutions, pairs of integrations are performed: one with high (1960) and one with low (2000) ozone levels. We find that the effect of ozone depletion is to warm the surface and the ocean to a depth of 1000 m and to significantly reduce the sea ice extent. While the ocean warming is somewhat weaker when the eddies are resolved, the total loss of sea ice area is roughly the same in the fine and coarse resolution cases.

In eine ähnliche Richtung geht eine Studie von Son et al. 2013, die sogar eine Klimabeeinflussung der gesamten südlichen Hemisphäre annehmen:

Improved seasonal forecast using ozone hole variability?
Southern Hemisphere (SH) climate change has been partly attributed to Antarctic ozone depletion in the literatures. Here we show that the ozone hole has affected not only the long-term climate change but also the interannual variability of SH surface climate. A significant negative correlation is observed between September ozone concentration and the October southern annular mode index, resulting in systematic variations in precipitation and surface air temperature throughout the SH. This time-lagged relationship is comparable to and independent of that associated with El Niño-Southern Oscillation and the Indian Ocean Dipole Mode, suggesting that SH seasonal forecasts could be improved by considering Antarctic stratospheric variability.

Wieder ein Jahr später dann eine Arbeit von Previdi & Polvani (2014) zum selben Thema:

Climate system response to stratospheric ozone depletion and recovery
We review what is presently known about the climate system response to stratospheric ozone depletion and its projected recovery, focusing on the responses of the atmosphere, ocean and cryosphere. Compared with well-mixed greenhouse gases (GHGs), the radiative forcing of climate due to observed stratospheric ozone loss is very small: in spite of this, recent trends in stratospheric ozone have caused profound changes in the Southern Hemisphere (SH) climate system, primarily by altering the tropospheric midlatitude jet, which is commonly described as a change in the Southern Annular Mode. Ozone depletion in the late twentieth century was the primary driver of the observed poleward shift of the jet during summer, which has been linked to changes in tropospheric and surface temperatures, clouds and cloud radiative effects, and precipitation at both middle and low latitudes. It is emphasized, however, that not all aspects of the SH climate response to stratospheric ozone forcing can be understood in terms of changes in the midlatitude jet. The response of the Southern Ocean and sea ice to ozone depletion is currently a matter of debate. For the former, the debate is centred on the role of ocean eddies in possibly opposing wind-driven changes in the mean circulation. For the latter, the issue is reconciling the observed expansion of Antarctic sea-ice extent during the satellite era with robust modelling evidence that the ice should melt as a result of stratospheric ozone depletion (and increases in GHGs). Despite lingering uncertainties, it has become clear that ozone depletion has been instrumental in driving SH climate change in recent decades. Similarly, ozone recovery will figure prominently in future climate change, with its impacts expected to largely cancel the impacts of increasing GHGs during the next half-century.

Interessant die Schlussfolgerung: Die Öffnung des Ozonlochs hat die Südhalbkugel erwärmt, während die nun einsetzende Schließung des Ozonlochs das Klima der Südhalbkugel abkühlt. Die Autoren gehen sogar davon aus, dass dieser Abkühlungsbetrag die durch CO2 berechnete Erwärmung in den kommenden 50 Jahren aufheben wird. Einige Studien wollten sogar den globalen Erwärmungshiatus des 21. Jahrhunderts und das erstarkende antarktische Meereis mit der Schließung des Ozonlochs erklären. Wiederum andere argumentieren, dass die Erwärmung des 20. Jahrhunderts eine Folge der höheren FCKW-Gehalte in der Atmosphäre war, und nicht so sehr mit dem CO2 zusammenhängt. Ob die Klimamodelle des IPCC all dies schon berücksichtigen? Vermutlich nicht, denn dann müsste die Erwärmungswirkung des CO2 reduziert werden…

 

Henne oder Ei: Das Klima-Wolkenrätsel

Bereits mehrfach haben wir hier im Blog über die Wolken und ihren Klimaeffekt für die Erde berichtet. Es leuchtet ein, dass kleine systematische Veränderungen der Wolkendecke einen spürbaren Einfluss auf die globalen Temperaturen haben können. Die große Frage lautet dabei: Ändert sich die Temperatur, weil sich die Wolkenbedeckung geändert hat, oder ändern sich die Wolken durch Temperatureffekte (“Wolkentemperaturverstärker”)? Die Welt meinte es 2016 zu wissen:

Wegen des Klimawandels haben wir weniger Wolken
Satellitendaten zeigen, wie sich die Bewölkung auf der Erde in den vergangenen Jahren verändert hat. In den mittleren Breiten gibt es weniger Wolken, im Norden mehr. Das liegt am Klimawandel.

Weiterlesen in der Welt.

Auch die ETH Zürich war sich 2016 ganz sicher, dass zuerst die Temperatur da war und dann die tropischen Wolken darauf reagierten:

Weniger Wolken in den Tropen
ETH-Wissenschaftler zeigen mit Hilfe von Satellitendaten, dass die niedere Bewölkung in den Tropen abnimmt, wenn es auf der Erde wärmer wird. Da diese Bewölkung auf das Klima einen kühlenden Effekt hat, könnte die Zwei-Grad-Marke der Klimaerwärmung früher erreicht werden als von vielen Modellen bisher vorhergesagt. [...] Der Hauptgrund für die bisherigen grossen Unsicherheiten bei der Bemessung der Klimasensitivität sei, dass man bisher den Einfluss der Bewölkung – insbesondere der tiefliegenden Bewölkung in den Tropen – nur sehr ungenau habe einschätzen können, sagt Schneider. Wissenschaftler seien sich uneinig gewesen, ob und wie sich diese Bewölkung künftig – im Rahmen des Klimawandels – verändern wird. Um dieser Frage auf den Grund zu gehen, werteten Brient und Schneider eine grosse Menge von Satellitendaten der vergangenen 15 Jahre aus. Es handelt sich dabei um Daten von Strahlungsmesseräten an Bord von Satelliten des Nasa-Programms Ceres. Die Geräte messen kontinuierlich, wie viel Sonnenlicht von der Erde reflektiert und in den Weltraum zurückgestrahlt wird. Die ETH-Wissenschaftler konnten zeigen, dass es in der Vergangenheit in wärmeren Jahren in den Tropen weniger niedere Wolken in den Tropen gab, in kälteren Jahren mehr.

Oder vielleicht doch andersherum, was den Freunden der Klimakatastrophe natürlich nicht gefallen würde, und was daher nicht einmal laut gedacht werden darf? Die CO2-Klimasensitivität hängt maßgeblich von dieser Frage ab.

Im heutigen Blogartikel soll es um Wolkentrends gehen. Wolkendaten gibt es beim International Satellite Cloud Climatology Project (ISCCP) der NASA. Trotz einigem hin- und herklickens finden sich aber erst einmal keine brauchbaren Kurven. Wie hat sich die Wolkenentwicklung in den letzten 20 Jahren verändert? Keine Ahnung. Einige Kurven finden sich hier, die aber 2010 aufhören.

Abb. 1: Wolkenbedeckung 1983-2010. Quelle: International Satellite Cloud Climatology Project

 

Auch beim KNMI Climate Explorer gibt es Wolkendaten, wieder nur als unpraktische Rohdaten, die oft bereits 2010 enden. Das Gleiche bei Climate4You, wo bei 2010 Schluss ist, es aber immerhin schöne Diagramme gibt. Was ist bloß in den vergangenen 8 Jahren passiert mit den Wolken? Will man es uns nicht verraten? Ist der Satellit defekt? Mehr zur Albedo im Projekt “Earthshine”. Da misst man die Helligkeit des dunklen Teils des Mondes, wenn nur eine Sichel zu sehen ist. Das Licht ist reflektiertes Erdenlicht und die Helligkeit lässt Rückschlüsse auf die Wolkenbedeckung (die Albeo) zu. Leider alles recht kurze Reihen. Etwas informativer und benutzerfreundlicher ist da schon das Paper von McLean 2014:

Late Twentieth-Century Warming and Variations in Cloud Cover
From 1950 to 1987 a strong relationship existed between the El Nino-Southern Oscillation (ENSO) and HadCRUT4 global average temperature anomaly, interrupted occasionally by volcanic eruptions. After 1987 the relationship diverged, with temperature anomaly increasing more than expected, but was re-established after 1997 at an offset of ~0.48˚C higher. The period of increased warming from 1987 to 1997 loosely coincided with the divergence of the global average temperature anomalies over land, which are derived from observation station recordings, and the global average anomalies in sea surface temperatures. Land-based temperatures averaged 0.04˚C below sea temperatures for the period 1950 to 1987 but after 1997 averaged 0.41˚C above sea temperatures. The increase in the global average temperature anomaly and the divergence of land and sea surface temperatures also coincided with two significant changes in global average cloud cover. Total cloud cover decreased during the period from 1987 to 1997 and, for most of the remainder of the period from 1984 to 2009, decreases in low-level cloud were accompanied by increases in middle and upper level cloud. These changes can be found in both global average cloud cover and in each of the six 30˚-latitude bands. The impact of these changes in cloud cover can account for the variations in HadCRUT4 global average temperature anomalies and the divergence between land and sea temperatures.

Während der zweiten Hälfte der starken Erwärmungsphase 1977-1997 hat sich die tiefe Wolkenbedeckung verringert, was die Erwärmung wohl mitverursacht oder zumindest verstärkt haben wird. Auch das berühmte “global dimming” ist wohl auf Wolken zurückzuführen, anstatt auf Abgaseffekte aus der Nutzung von fossilen Brennstoffen. Ebenso in Belgien sind die Wolken in den letzten 20 Jahren zurückgegangen. In Tibet war es während der Kleinen Eiszeit wolkig und kalt, wobei die Wolken im Laufe der Modernen Wärmeperiode zurückwichen und das Land wärmten (Liu et al. 2014). In Gesamt-China hat sich während der vergangenen 50 Jahren die Wolkendecke veringert (Xia 2012). Auch in den USA wurden im Laufe der vergangenen 30 Jahre immer weniger Wolken registriert (Foster & Heidinger 2014). Interessanterweise können 88% der beobachteten Temperaturschwankungen in Großbritannien mit der Veränderung der Wolkenbedeckung erklärt werden (Mearns & Best 2013).

 

Wärmer und schöner: Deutscher Sommer heute mit 50 Stunden mehr Sonnenschein als noch vor 65 Jahren

Wolken sind ein wichtiger Faktor für das Klima. Wenn tagsüber keine Wolke am Himmel ist, dann scheint die Sonne. Anstatt nun also mühsam die Wolkenbedeckung per Satellit zu messen, kann man auch einfach an den Wetterstationen die Sonnenscheindauer registrieren. Mehr Sonne bedeutet auch, dass die Temperaturen steigen. Inwiefern hat die Klimaerwärmung der letzten Jahrzehnte etwas mit der Sonnenscheindauer zu tun? Dies wollen wir heute im Blog beleuchten. Vorab schonmal einen schönen Dank an Stefan Kämpfe, der zahlreiche Diagramme beisteuerte.

Wir beginnen in der deutschen Hauptstadt des Klimaalarms, in Potsdam. Sonnenscheindauer (gelb) und Temperaturentwicklung (grün) zeigen dort während der letzten 120 Jahre eine enge Kopplung, was besonders im Sommer zutrifft (Abb. 1+2). Im Winter kehen sich die Verhältnisse zum  Teil um, weil Wolken die Auskühlung verhindern.

Abb. 1: Sonnenscheindauer (gelb) und Temperaturentwicklung (grün) in Potsdam. Graphik: Stefan Kämpfe.

 

Abb. 2: Auftragung Temperatur gegen Sonnenscheindauer, Potsdam seit 1893. Daten: PIK. Graphik: Stefan Kämpfe.

 

Jetzt mag sich der eine oder andere Leser fragen, was eigentlich die Temperaturwellen in Abb. 1 verursacht. Dies ist der AMO-Zyklus, die Atlantische Multidekadenoszillation (Abb. 3).

Abb. 3: Temperatur (braun), Sonnenscheindauer (gelb), AMO (grün) in Potsdam seit 1893. Graphik: Stefan Kämpfe.

 

Ähnlich sieht es bei der Zugspitze aus:

Abb. 3: Temperatur (braun), Sonnenscheindauer (gelb), AMO (grün) auf der Zugspitze seit 1901. Graphik: Stefan Kämpfe.

 

Bundesweit wird die Sonnenscheindauer vom DWD leider erst seit 1951 erfasst, so dass nur ein einziger AMO-Zyklendurchlauf erfasst wird, da die Zyklendauer 60 Jahre beträgt. Die Daten kann man sich beim DWD neuerdings plotten lassen. Klicken Sie dazu auf der blauen Leiste zunächst auf den Rechtspfeil, dann auf ‘Zeitreihen und Trends’. Wir wählen ‘Sommer’, ‘Sonnenschein’, ‘Deutschland’. Und siehe da, es gibt über die vergangenen 65 Jahre einen ansteigenden Trend in der Sonnenscheindauer. Die grüne Linie ist ansteigend. Heute scheint die Sonne etwa 50 Stunden länger im Sommer als noch vor 65 Jahren. Das sollte doch eigentlich einen gehörigen Wärmeschub geben. Ebenfalls schön zu erkennen ist die stärkere Bewölkung (kürzere Sonnenscheindauer) in den 1970er und 80er Jahren, die sich während der negativen AMO-Phase ereignet hat.

 

Abb. 4: Sommerliche Sonnenscheindauer in Deutschland seit 1950. Graphik: DWD.

 

Atmosphäre des Uranus verändert sich im Takt der Sonne

Die Sonne ist unser wichtigster Energielieferant. Als wir vor einigen Jahren darlegten, dass solare Schwankungen  das Erdklima beeinflussen, landeten wir kurzerhand auf der Schwarzen Liste des Umweltbundesamtes. Und das obwohl eine Vielzahl von wissenschaftlichen Publikationen einen solchen Zusammenhang zwischen Sonne und Klima für die vergangenen Jahrhunderte und Jahrtausende eindrucksvoll belegten.

Man könnte nun auf die Idee kommen, auf anderen Planeten nach einem solaren Effekt in der Planetenatmosphäre zu suchen. Hört sich irre an, oder? Wäre es nicht viel einfacher, auf der Erde danach zu forschen? Aus politischen Gründen ist dieser Weg leider verbaut. Zu unbequem wären die Folgen. Was auf der Erde verborgen bleiben muss, ist jetzt zum Glück auf dem Uranus als Nachweis geglückt. Aplin & Harrison veröffentlichten am 18. Dezember 2017 ein spannendes Paper in den Geophysical Research Letters. Thema: Änderungen der Uranus-Atmosphäre im Takte der Sonnenaktivität:

Solar-Driven Variation in the Atmosphere of Uranus
Long-term measurements (1972–2015) of the reflectivity of Uranus at 472 and 551 nm display variability that is incompletely explained by seasonal effects. Spectral analysis shows that this nonseasonal variability tracks the 11 year solar cycle. Two mechanisms could cause solar modulation: (a) nucleation onto ions or electrons created by galactic cosmic rays (GCR) or (b) UV-induced aerosol color changes. Ion-aerosol theory is used to identify expected relationships between reflectivity fluctuations and GCR flux, tested with multiple regression and compared to the linear response predicted between reflectivity and solar UV flux. The statistics show that 24% of the variance in reflectivity fluctuations at 472 nm is explained by GCR ion-induced nucleation, compared to 22% for a UV-only mechanism. Similar GCR-related variability exists in Neptune’s atmosphere; hence, the effects found at Uranus provide the first example of common variability in two planetary atmospheres driven through energetic particle modulation by their host star.

Der Mechanismus funktioniert offenbar über die kosmische Strahlung sowie die UV-Strahlungskomponente, beides vernachlässigte Größen in den irdischen Klimamodellen. Die Autoren deuten an, dass auch auf dem Neptun ähnliche Effekte registriert werden können. Ein weiterer wichtiger Schritt, die solaren Verstärkerprozesse besser zu verstehen und am Ende korrekt in die Klimamodelle einzubauen. Bislang tut man so, als gäbe es lediglich Effekte der solaren Gesamtstrahlung (total solar irradiance), was den empirisch bestens belegten solaren Klimaeffekt jedoch massiv unterschätzt. Ein wenig erinnert das an die Plattentektonik, bei der die Bewegung der Kontinente auch erst akzepiert wurde, als ein physikalischer Mechanismus für die Wanderung der Lithosphärenplatten gefunden wurde:

Die Plattentektonik setzt sich durch: Lehren für die Klimadebatte
Kontinentalverschiebung und Klimawandel: Die wundersame Wiederholung der Wissenschaftsgeschichte

 

Kein Klimawandel: Waldbrände in den USA von El Nino, Brandstiftern und Änderungen in der Landnutzung kontrolliert

Dürren erhöhen die Waldbrandgefahr, das ist logisch. Es ist aber falsch, reflexhaft jeden Waldbrand dem Klimawandel zuzuordnen. Dürren hat es immer schon gegeben, und Waldbrände auch. Wer den Klimawandel ins Spiel bringen möchte, muss zunächst zeigen, dass die Entwicklung den natürlichen Schwankungsbereich bereits verlassen hat. Das ist vielen Argumentierern aber zu aufwendig. Daher behaupten sie einfach etwas und hoffen dabei, dass niemand ihre Behauptungen fachlich überprüft. Sie mögen keine Klimaskeptiker, denn die haben die dumme Angwohnheit, den Fakten auf den Grund zu gehen. Viel lieber hätten sie stumme Zuhörer, die sofort ja und Amen zu allen Alarmisten-Thesen sagen. Und wenn dann die Fakten auch noch das Gegenteil der Behauptung belegen, dann geht es auf der persönlichen Ebene weiter. Man mag den Beruf des Querulanten nicht, oder die Ausbildung oder die Hautfarbe, oder, oder, oder.

Fakten finden sich in der heutigen Zeit zu Hauf im Internet. Beispiel Waldbrände in den USA. Die Größe der verbrannten Flächen gibt es in einer Tabelle des National Interagency Fire Centers. Seltsamerweise werden die Daten jedoch nicht als Kurvenabbildung angeboten. Die muss man erst selber herstellen, was ja kein Problem ist, aber die meisten Leute ert einmal im Dunkeln stehen lässt. Steven Goddard zeigt solche Graphiken in seinem Real Science Blog.

Überhaupt sollte man bei Waldbränden nicht immer gleich den Klimawandel aus dem Zauberhut ziehen. Die University of Colorado at Boulder berechnete jetzt, dass 84% aller Wald- und Buschfeuer in den USA von Menschen verursacht werden. Pressemitteilung vom Februar 2017:

Humans have dramatically increased extent, duration of wildfire season
Humans have dramatically increased the spatial and seasonal extent of wildfires across the U.S. in recent decades and ignited more than 840,000 blazes in the spring, fall and winter seasons over a 21-year period, according to new University of Colorado Boulder-led research. After analyzing two decades’ worth of U.S. government agency wildfire records spanning 1992-2012, the researchers found that human-ignited wildfires accounted for 84 percent of all wildfires, tripling the length of the average fire season and accounting for nearly half of the total acreage burned. The findings were published today in the journal Proceedings of the National Academy of Sciences.

“There cannot be a fire without a spark,” said Jennifer Balch, Director of CU Boulder’s Earth Lab and an assistant professor in the Department of Geography and lead author of the new study. “Our results highlight the importance of considering where the ignitions that start wildfires come from, instead of focusing only on the fuel that carries fire or the weather that helps it spread. Thanks to people, the wildfire season is almost year-round.”  The U.S. has experienced some of its largest wildfires on record over the past decade, especially in the western half of the country. The duration and intensity of future wildfire seasons is a point of national concern given the potentially severe impact on agriculture, ecosystems, recreation and other economic sectors, as well as the high cost of extinguishing blazes. The annual cost of fighting wildfires in the U.S. has exceeded $2 billion in recent years.

The CU Boulder researchers used the U.S. Forest Service Fire Program Analysis-Fire Occurrence Database to study records of all wildfires that required a response from a state or federal agency between 1992 and 2012, omitting intentionally set prescribed burns and managed agricultural fires. Human-ignited wildfires accounted for 84 percent of 1.5 million total wildfires studied, with lightning-ignited fires accounting for the rest. In Colorado, 30 percent of wildfires from 1992-2012 were started by people, burning over 1.2 million acres. The fire season length for human-started fires was 50 days longer than the lightning-started fire season (93 days compared to 43 days), a twofold increase. “These findings do not discount the ongoing role of climate change, but instead suggest we should be most concerned about where it overlaps with human impact,” said Balch. “Climate change is making our fields, forests and grasslands drier and hotter for longer periods, creating a greater window of opportunity for human-related ignitions to start wildfires.”

While lightning-driven fires tend to be heavily concentrated in the summer months, human-ignited fires were found to be more evenly distributed across all seasons. Overall, humans added an average of 40,000 wildfires during the spring, fall and winter seasons annually—over 35 times the number of lightning-started fires in those seasons. “We saw significant increases in the numbers of large, human-started fires over time, especially in the spring,” said Bethany Bradley, an associate professor at University of Massachusetts Amherst and co-lead author of the research. “I think that’s interesting, and scary, because it suggests that as spring seasons get warmer and earlier due to climate change, human ignitions are putting us at increasing risk of some of the largest, most damaging wildfires.” “Not all fire is bad, but humans are intentionally and unintentionally adding ignitions to the landscape in areas and seasons when natural ignitions are sparse,” said John Abatzoglou, an associate professor of geography at the University of Idaho and a co-author of the paper. “We can’t easily control how dry fuels get, or lightning, but we do have some control over human started ignitions.” 

The most common day for human-started fire by far, however, was July 4, with 7,762 total wildfires started on that day over the course of the 21-year period. The new findings have wide-ranging implications for fire management policy and suggest that human behavior can have dramatic impact on wildfire totals, for good or for ill. “The hopeful news here is that we could, in theory, reduce human-started wildfires in the medium term,” said Balch. “But at the same time, we also need to focus on living more sustainably with fire by shifting the human contribution to ignitions to more controlled, well-managed burns.” Co-authors of the new research include Emily Fusco of the University of Massachusetts Amherst and Adam Mahood and Chelsea Nagy of CU Boulder. The research was funded by the NASA Terrestrial Ecology Program, the Joint Fire Sciences Program and Earth Lab through CU Boulder’s Grand Challenge Initiative.

Im Juli 2017 erklärte das Institute for Basic Science, dass das Waldbrandrisiko in den südwestlichen USA stark vom Temperaturgefälle zwischen Pazifik und Atlantik abhängt. Letztendlich stecken die Ozeanzyklen dahinter. Pressemitteilung (via Science Daily):

Atlantic/Pacific ocean temperature difference fuels US wildfires
New study shows that difference in water temperature between the Pacific and the Atlantic oceans together with global warming impact the risk of drought and wildfire in southwestern North America

An international team of climate researchers from the US, South Korea and the UK has developed a new wildfire and drought prediction model for southwestern North America. Extending far beyond the current seasonal forecast, this study published in the journal Scientific Reports could benefit the economies with a variety of applications in agriculture, water management and forestry.

Over the past 15 years, California and neighboring regions have experienced heightened drought conditions and an increase in wildfire numbers with considerable impacts on human livelihoods, agriculture, and terrestrial ecosystems. This new research shows that in addition to a discernible contribution from natural forcings and human-induced global warming, the large-scale difference between Atlantic and Pacific ocean temperatures plays a fundamental role in causing droughts, and enhancing wildfire risks.

“Our results document that a combination of processes is at work. Through an ensemble modeling approach, we were able to show that without anthropogenic effects, the droughts in the southwestern United States would have been less severe,” says co-author Axel Timmermann, Director of the newly founded IBS Center for Climate Physics, within the Institute for Basics Science (IBS), and Distinguished Professor at Pusan National University in South Korea. “By prescribing the effects of human-made climate change and observed global ocean temperatures, our model can reproduce the observed shifts in weather patterns and wildfire occurrences.”

The new findings show that a warm Atlantic and a relatively cold Pacific enhance the risk for drought and wildfire in the southwestern US. “According to our study, the Atlantic/Pacific temperature difference shows pronounced variations on timescales of more than 5 years. Like swings of a very slow pendulum, this implies that there is predictability in the large-scale atmosphere/ocean system, which we expect will have a substantial societal benefit,” explains Yoshimitsu Chikamoto, lead author of the study and Assistant Professor at the University of Utah in Logan.

The new drought and wildfire predictability system developed by the authors expands beyond the typical timescale of seasonal climate forecast models, used for instance in El Niño predictions. It was tested with a 10-23 month forecasting time for wildfire and 10-45 for drought. “Of course, we cannot predict individual rainstorms in California and their local impacts months or seasons ahead, but we can use our climate computer model to determine whether on average the next year will have drier or wetter soils or more or less wildfires. Our yearly forecasts are far better than chance,” states Lowell Stott, co-author of the study from the University of Southern California in Los Angeles.

Bringing together observed and simulated measurements on ocean temperatures, atmospheric pressure, water soil and wildfire occurrences, the researchers have a powerful tool in their hands, which they are willing to test in other regions of the world: “Using the same climate model configuration, we will also study the soil water and fire risk predictability in other parts of our world, such as the Mediterranean, Australia or parts of Asia,” concludes Timmermann. “Our team is looking forward to developing new applications with stakeholder groups that can benefit from better soil water forecasts or assessments in future fire risk.”

Paper: Yoshimitsu Chikamoto, Axel Timmermann, Matthew J. Widlansky, Magdalena A. Balmaseda, Lowell Stott. Multi-year predictability of climate, drought, and wildfire in southwestern North America. Scientific Reports, 2017; 7 (1) DOI: 10.1038/s41598-017-06869-7

Ozeanzyklen (El Nino, La Nina) wurden auch von Mason et al. 2017 als Waldbrandtreiber in den USA identifiziert:

Effects of climate oscillations on wildland fire potential in the continental United States
The effects of climate oscillations on spatial and temporal variations in wildland fire potential in the continental U.S. are examined from 1979 to 2015 using cyclostationary empirical orthogonal functions (CSEOFs). The CSEOF analysis isolates effects associated with the modulated annual cycle and the El Niño–Southern Oscillation (ENSO). The results show that, in early summer, wildland fire potential is reduced in the southwest during El Niño but is increased in the northwest, with opposite trends for La Niña. In late summer, El Niño is associated with increased wildland fire potential in the southwest. Relative to the mean, the largest impacts of ENSO are observed in the northwest and southeast. Climate impacts on fire potential due to ENSO are found to be most closely associated with variations in relative humidity. The connections established here between fire potential and climate oscillations could result in improved wildland fire risk assessment and resource allocation.

Auch im Nordwesten der USA spielt der El Nino eine große Rolle bei der Steuerung der Waldbrände, wie Barbero et al. 2015 dokumentierten:

Seasonal reversal of the influence of El Niño–Southern Oscillation on very large wildfire occurrence in the interior northwestern United States
Satellite-mapped fire perimeters and the multivariate El Niño–Southern Oscillation index were used to examine the impact of concurrent El Niño–Southern Oscillation (ENSO) phase on very large fire (VLF) occurrences over the intermountain northwestern United States (U.S.) from 1984 to 2012. While the warm phase of ENSO promotes drier and warmer than normal conditions across the region during winter and spring that favor widespread fire activity the following summer, a reduction in VLFs was found during the warm phase of ENSO during summer concurrent with the fire season. This paradox is primarily tied to an anomalous upper level trough over the western U.S. and positive anomalies in integrated water vapor that extend over the northwestern U.S. during summers when the warm phase of ENSO is present. Collectively, these features result in widespread increases in precipitation amount during the summer and a curtailment of periods of critically low-fuel moistures that can carry wildfire.

Generell haben Waldbrände in den USA im Vergleich zu den Jahrhunderten davor stark abgenommen (siehe Beitrag von Larry Kummer auf Fabius Maximus).

In Colorado konnte über die vergangenen Jahrhunderte kein Trend bei den Waldbränden gefunden werden. Pressemitteilung der University of Colorado von 2014:

Colorado’s Front Range fire severity today not much different than in past, says CU-Boulder study
The perception that Colorado’s Front Range wildfires are becoming increasingly severe does not hold much water scientifically, according to a massive new study led by the University of Colorado Boulder and Humboldt State University in Arcata, Calif. The study authors, who looked at 1.3 million acres of ponderosa pine and mixed conifer forest from Teller County west of Colorado Springs through Larimer County west and north of Fort Collins, reconstructed the timing and severity of past fires using fire-scarred trees and tree-ring data going back to the 1600s. Only 16 percent of the study area showed a shift from historically low-severity fires to severe, potential crown fires that can jump from treetop to treetop.

The idea that modern fires are larger and more severe as a result of fire suppression that allowed forest fuels to build up in the past century is still prevalent among some, said CU-Boulder geography Professor Thomas Veblen, a study co-author. “The key point here is that modern fires in these Front Range forests are not radically different from the fire severity of the region prior to any effects of fire suppression,” he said. A paper on the subject was published Sept. 24 in the journal PLOS ONE. The study was led by Associate Professor Rosemary Sherriff of Humboldt State University and involved Research Scientist Tania Schoennagel of CU-Boulder’s Institute of Arctic and Alpine Research, CU-Boulder doctoral student Meredith Gartner and Associate Professor Rutherford Platt of Gettysburg College in Gettysburg, Pa. The study was funded by the National Science Foundation.

“The common assumption is that fires are now more severe and are killing higher percentages of trees,” said Sherriff, who completed her doctorate at CU-Boulder under Veblen in 2004. “Our results show that this is not the case on the Front Range except for the lowest elevation forests and woodlands.” One important new finding comes from a comparison of nine large fires that have occurred on the Front Range since 2000 — including the 2002 Hayman Fire southwest of Denver, the 2010 Fourmile Canyon Fire west of Boulder and the 2012 High Park Fire west of Fort Collins — with historic fire effects in the region. “It’s true that the Colorado Front Range has experienced a number of large fires recently,” said Schoennagel. “While more area has burned recently compared to prior decades – with more homes coming into the line of fire – the severity of recent fires is not unprecedented when we look at fire records going back before the 1900s.”

In addition, tree-ring evidence from the new study shows there were several years on the Front Range since the 1650s when there were very large, severe fires. The authors looked at more than 1,200 fire-scarred tree samples and nearly 8,000 samples of tree ages at 232 forest sample sites from Teller County to Larimer County. The study is one of the largest of its kind ever undertaken in the western United States. The team was especially interested in fire records before about 1920, when effective fire suppression in the West began in earnest. “In relatively dry ponderosa pine forests of the West, a common assumption is that fires were relatively frequent and of low severity, and not lethal to most large trees, prior to fuel build-up in the 20th century,” said Veblen. “But our study results showed that about 70 percent of the forest study area experienced a combination of moderate and high-severity fires in which large percentages of the mature trees were killed.”

Along the Front Range, especially at higher elevations, homeowners and fire managers should expect a number of high-severity fires unrelated to any kind of fire suppression and fuel build-up, said Schoennagel. “This matters because high-severity fires are dangerous to people, kill more trees and are trickier and more expensive to suppress.” “Severe fires are not new to most forests in this region,” said Sherriff. “What is new is the expanded wildland-urban interface hazard to people and property and the high cost of suppressing fires for society.” In addition, a warming Colorado climate — 2 degrees Fahrenheit since 1977 — has become a wild card regarding future Front Range fires, according to the team. While fires are dependent on ignition sources and can be dramatically influenced by high winds, the team expects to see a substantial increase in Front Range fire activity in the low and mid-elevations in the coming years as temperatures continue to warm, a result of rising greenhouses gases in Earth’s atmosphere.

Im Jahr 2016 brannte es in Kalifornien. Sofort war Al Gore zur Stelle und stellte den Klimawandel als Schuldigen an den Pranger. Später kam dann heraus, dass ein Serien-Brandstifter hinter den meisten Bränden steckte. Da brach das klimaalarmistische Gebäude ganz schnell in sich zusammen. Zudem fand die University of Arizona noch heraus, dass die Brände durch ungünstige Veränderungen in der Landnutzung gefördert wurden. Pressemitteilung:

Forest Fires in Sierra Nevada Driven by Past Land Use
Changes in human uses of the land have had a large impact on fire activity in California’s Sierra Nevada since 1600, according to research by a UA researcher and her colleagues.

Forest fire activity in California’s Sierra Nevada since 1600 has been influenced more by how humans used the land than by climate, according to new research led by University of Arizona and Penn State scientists. For the years 1600 to 2015, the team found four periods, each lasting at least 55 years, where the frequency and extent of forest fires clearly differed from the time period before or after. However, the shifts from one fire regime to another did not correspond to changes in temperature or moisture or other climate patterns until temperatures started rising in the 1980s. “We were expecting to find climatic drivers,” said lead co-author Valerie Trouet, a UA associate professor of dendrochronology. “We didn’t find them.”

Instead, the team found the fire regimes corresponded to different types of human occupation and use of the land: the pre-settlement period to the Spanish colonial period; the colonial period to the California Gold Rush; the Gold Rush to the Smokey Bear/fire suppression period; and the Smokey Bear/fire suppression era to present. “The fire regime shifts we see are linked to the land-use changes that took place at the same time,” Trouet said. “We knew about the Smokey Bear effect — there had been a dramatic shift in the fire regime all over the Western U.S. with fire suppression. We didn’t know about these other earlier regimes,” she said. “It turns out humans — through land-use change — have been influencing and modulating fire for much longer than we anticipated.”

Finding that fire activity and human land use are closely linked means people can affect the severity and frequency of future forest fires through managing the fuel buildup and other land management practices — even in the face of rising temperatures from climate change, she said. The team’s paper, “Socio-Ecological Transitions Trigger Fire Regime Shifts and Modulate Fire-Climate Interactions in the Sierra Nevada, USA 1600-2015 CE,” was scheduled for publication in the online Early Edition of the Proceedings of the National Academy of Sciences this week. Trouet’s co-authors are Alan H. Taylor of Penn State, Carl N. Skinner of the U.S. Forest Service in Redding, California, and Scott L. Stephens of the University of California, Berkeley.

Initially, the researchers set out to find which climate cycles, such as the El Niño/La Niña cycle or the longer Pacific Decadal Oscillation, governed the fire regime in California’s Sierra Nevada. The team combined the fire history recorded in tree rings from 29 sites all along the Sierra Nevada with a 20th-century record of annual area burned. The history spanned the years 1600 to 2015. However, when large shifts in the fire history were compared to past environmental records of temperature and moisture, the patterns didn’t match. Other researchers already had shown that in the Sierra, there was a relationship between forest fire activity and the amount of fuel buildup. Team members wondered whether human activity over the 415-year period had changed the amount of fuel available for fires.

By using a technique called regime shift analysis, the team found four distinct time periods that differed in forest fire activity. The first was 1600 to 1775. After 1775, fire activity doubled. Fire activity dropped to pre-1775 levels starting in 1866. Starting in 1905, fire activity was less frequent than any previous time period. In 1987, fire activity started increasing again. However, the frequency of forest fires did not closely track climatic conditions, particularly after 1860. The researchers reviewed historical documents and other evidence and found the shifting patterns of fire activity most closely followed big changes in human activity in the region. Before the Spanish colonization of California, Native Americans regularly set small forest fires. The result was a mosaic of burned and unburned patches, which reduced the amount of fuel available to fires and limited the spread of any particular fire.

However, once the Spanish arrived in 1769, Native American populations rapidly declined because of disease and other causes. In addition, the Spanish government banned the use of fire. Without regular fires, fuels built up, leading to more and larger fires. The influx of people to California during the Gold Rush that began in 1848 reduced fire activity. The large numbers of livestock brought by the immigrants grazed on the grasses and other plants that would otherwise have been fuel for forest fires. In 1904, the U.S. government established a fire suppression policy on federal lands. After that, fire activity dropped to its lowest level since 1600. Starting in the 1980s, as the climate warms, fire frequency and severity has increased again. Fires now can be “bad” fires because of a century or more of fire suppression, according to lead co-author Taylor, a professor of geography at Penn State. “It is important for people to understand that fires in the past were not necessarily the same as they are today,” Taylor said. “They were mostly surface fires. Today we see more canopy-killing fires.”   

 

Australische Buschfeuer sind in den letzten 15 Jahren seltener geworden

Im australischen Bundesstaat Victoria sind 50.000 km² Land verbrannt, wobei 12 Menschen, über eine Million Schafe und tausende von Rindern ums Leben kamen. Die von dem Feuer betroffenen Gebiete lagen um Portland, Westernport und im Plenty Ranges sowie im Wimmera- und Dandenong-Distrikt. Das verbrannte Gebiet erstreckte sich über ein Viertel des Bundesstaates. Ermöglicht wurde der Brand durch eine lang andauernde Dürre, die die Landschaft in ein Pulverfass verwandelte. Letztendlich ausgelöst wurde die Feuersbrunst durch einen starken heißen Wind, der die Glut einer Feuerstelle aufnahm und damit die benachbarte Graslandschaft entzündete.

Welchen Anteil hatte der Klimawandel an der Brandkatastrophe? PIK & Co. blieben bei diesem Ereignis überraschend stumm. Normalerweise drängelt sich gleich ein Klimaalarmist vor die Mikrofone und erklärt mit bedeutungsschwangerer Miene: Nun ja, einzelne Ereignisse lassen sich schwer dem Klimawandel zuordnen, aber die Wahrscheinlichkeit ist auf jeden Fall gestiegen. Gezinkter Würfel, Sie wissen schon. Die Anhänger der Klimakatastrophe schwiegen im Fall der Victoria-Brände, weil sie damals noch gar nicht geboren waren. Die Brände fanden nämlich im Februar 1851 statt und sind auch unter dem Namen ‘Black Thursday Bushfires‘ bekannt.

Buschfeuer hat es in Australien stets gegeben. Zum Beispiel Ende des 19. und zu Beginn des 20. Jahrhunderts in New South Wales. Das wusste die ehemalige Generalsekretärin des Sekretariats der Klimarahmenkonvention der Vereinten Nationen (UNFCCC), Christiana Figueres, offenbar nicht, als sie 2013 Brände in New South Wales (NSW) reflexhaft als Folge des Klimawandels darstellte. Eine klassische Fehlleistung, die einem Inhaber einer solchen Position nicht unterlaufen sollte. Die Provinzregierung verwehrt sich gegen derartige Fehlinterpretationen. Handelsbatt vom 25.10.2013:

Die neue konservative Regierung wirft Umweltschützern vor, sie nutzten die Brände aus, um gegen die geplante Abschaffung der CO2-Steuer zu opponieren. „Manche Leute versuchen, die Tragödie und das Leid dieser Woche auszuschlachten“, sagte Umweltminister Greg Hunt. Im übrigen habe die Forschungsbehörde CSIRO gerade erklärt, dass es seit Millionen Jahren in Australien Buschbrände gebe.

Wenn man die Schäden von Buschfeuern in NSW gegen die Anzahl des Hausbestandes normiert, so ist kein Schadenstrend für die letzten 90 Jahre erkennbar. John McAneney hat in The Conversation die Fakten zusammengetragen. Er sieht vor allem landplanerische Defizite, die das Ausmaß der Feuerschäden erst ermöglicht hat.

Im Juli 2017 erschien im Journal of Geophysical Research eine Arbeit von Nick Earl und Ian Simmonds. Die Autoren analysierten die australische Buschfeuerstatistik 2001-2015 und fanden eine Abnahme der Brände. Sie fanden aber auch ein große zeitliche und räumliche Variabilität, die zum Teil von Ozeanzyklen wie El Nino oder dem Indischen Ozean Dipol gesteuert wird, wobei sich Prognosemöglichkeiten eröffnen. Abstract:

Variability, trends, and drivers of regional fluctuations in Australian fire activity
Throughout the world fire regimes are determined by climate, vegetation, and anthropogenic factors, and they have great spatial and temporal variability. The availability of high-quality satellite data has revolutionized fire monitoring, allowing for a more consistent and comprehensive evaluation of temporal and spatial patterns. Here we utilize a satellite based “active fire” (AF) product to statistically analyze 2001–2015 variability and trends in Australian fire activity and link this to precipitation and large-scale atmospheric structures (namely, the El Niño–Southern Oscillation (ENSO) and the Indian Ocean Dipole (IOD)) known to have potential for predicting fire activity in different regions. It is found that Australian fire activity is decreasing (during summer (December–February)) or stable, with high temporal and spatial variability. Eastern New South Wales (NSW) has the strongest decreasing trend (to the 1% confidence level), especially during the winter (JJA) season. Other significantly decreasing areas are Victoria/NSW, Tasmania, and South-east Queensland. These decreasing fire regions are relatively highly populated, so we suggest that the declining trends are due to improved fire management, reducing the size and duration of bush fires. Almost half of all Australian AFs occur during spring (September–November). We show that there is considerable potential throughout Australia for a skillful forecast for future season fire activity based on current and previous precipitation activity, ENSO phase, and to a lesser degree, the IOD phase. This is highly variable, depending on location, e.g., the IOD phase is for more indicative of fire activity in southwest Western Australia than for Queensland.