News und Termine

Vom Computer verweht: Modellierer bekommen Regenwolken nicht in den Griff

Am 11. Januar 2018 beglückte das PIK die Welt mit einer neuen Prise Klimaalarm. Anhand von Computermodellen wollen die Potsdamer herausgefunden haben, dass sich die Hochwassergefahr in der Welt bis 2040 extrem zuspitzt. Kurios: Bereits einen Tag vor Veröffentlichung der PIK-Pressemitteilung berichtete die Tagesschau ausführlich und in dramatischen Phrasen über die neue Studie. Die zwischen Wissenschaft, Politik, Medien und Aktivisten gesponnenen Netzwerke scheinen bestens zu funktionieren. Bei all der Euphorie über die tolle neue Alarmstory ging eines jedoch unter, nämlich dass die Klimamodelle die Niederschläge gar nicht auf regionaler Ebene simulieren können. Die Fachliteratur ist voll von Berichten zu Modellierungsfehlschlägen und Problemen. Das scheint das PIK und die Medien nicht zu scheren, Hauptsache die Bevölkerung wird für eine Weile mit neuem Klimaschock gelähmt. Einge Kostproben aus der Modellierungswelt der Pleiten, Pech und Pannen:

——————

Regen fällt aus Wolken. Und auch die Simulation der Wolken bereitet immer noch große Probleme. Erfrischend ist die Einlassung von Stephens et al. 2017, die anmahnen, zunächst die physikalischen Prozesse besser zu verstehen, bevor man großartige Zukunftsmodellierungen durchführt:

“…the broad realization has emerged that greater confidence in climate projections requires improved understanding of the processes that govern the feedbacks between the Earth sub-systems.”

Die triste Wirklichkeit: Für Simulationen wie sie am PIK durchgeführt werden und die es dann bis in die Tagesschau schaffen, ist es einfach noch viel zu früh. Die Ungeduld der Forscher ist verständlich, jedoch spielt sich das Ganze in einer Grauzone ab, wobei die Grenze zu Fake News schnell ungewollt überschritten werden könnte. Ein wenig mehr Bescheidenheit wäre hier sicher angebracht.

Weitere Beiträge zu den Wolken finden Sie auch bei Alfred Brandenberger.

 

Hochwasser-Gefahr – der neue Klima-Alarmismus des PIK

Von Dr. Dietrich E. Koelle

Nachdem die Globaltemperaturen seit 18 Jahren nicht mehr gestiegen sind und auch das arktische Eis trotz aller Ankündigungen immer noch nicht verschwunden ist, müssen sich die Klima-Alarmisten wie das PIK, das davon seine Existenzberechtigung ableitet, etwas Neues einfallen lassen. Und das kam jetzt – aktuell und schnell geschaltet nach den begrenzten kürzlichen Hochwassern der letzten Zeit – die Warnung vor einer schlimmen Hochwassergefahr in der Zukunft, verursacht durch den angeblichen “menschengemachten Klimawandel” und den nicht erkennbaren Temperaturanstieg. Aber “Millionen von Menschen sind gefährdet”. Die Natur aber lässt sich weder vom PIK noch den von dort (gegen gutes Geld) beratenen Politikern vorschreiben, wie sich das Klima zu entwickeln hat.

Es ist die fundamentale Unkenntnis über das Klima der Vergangenheit – besonders bei Politikern und leider auch bei den Journalisten – das dazu geführt hat, dass  man als große Neuigkeit das ideologisch so nützliche angebliche  ”menschengemachte Klima” erfinden konnte. Dabei ist beim heutigen Klima und seinem Temperaturanstieg um ca. 1°C in den letzten 100 Jahren nichts – aber überhaupt nichts – anders als dies in den letzten 8000 Jahren (seit der letzten Eiszeit) regelmäßig der Fall war, nämlich Schwankungen um +/-1°C. Jedem Anstieg folgte wieder ein Temperatur-Rückgang. Die relative Warmzeit der letzten zwei Jahrzehnte war nichts anderes als ein weiteres Maximum des 1000-Jahreszyklus, wie dies alle 1000 Jahre zuvor auch aufgetreten ist. Nur gab es früher noch keine katastrophensüchtige Mediengesellschaft und weniger Politiker, die “die Welt retten wollten”.

Anders Levermann erklärte in einer PIK-Pressemitteilung und im Fernsehen „Wenn wir allerdings die vom Menschen verursachte Erwärmung nicht auf deutlich unter 2 Grad Celsius begrenzen, dann werden bis zum Ende unseres Jahrhunderts die Hochwasserrisiken vielerorts in einem solchen Maße ansteigen, dass Anpassung schwierig wird” (die vom PIK erfundene 2° Grenze, die genauso wie die PIK-Erfindung von den angeblichen “Kipppunkten”, die es in der Klimageschichte nie gegeben hat).

Leider scheinen sich aber weder Herr Levermann noch seine Mitarbeiter mit der Klima-Vergangenheit und den früheren Überschwemmungen befasst zu haben. Dann hätten sie feststellen können, dass es in der letzten Kaltzeit im Mittelalter (dem “Little Ice Age”) mehr und stärkere Überschwemmungen gegeben hat als heute. Da es damals (zwischen den Jahren 1550 und 1700 um ca. 2°C kälter war als heute, wie man in dem Buch von Prof. Rüdiger Glaser:”Klimageschichte Mitteleuropas” – mit historischen Hochwassermarken gut belegt – nachlesen kann. Auch die größten Nordsee-Überflutungen fanden im Nov. 1570,  Okt. 1634 und Feb.1651 statt (nicht im Sommer, sondern im Winter !). Das deutet darauf hin, dass die Hochwassergefahr nicht mit steigender, sondern mit abnehmender Temperatur ansteigt. Außerdem gibt es noch die Möglichkeit, dass dies überhaupt nichts mit dem (langfristigen) Klima zu tun hat, sondern schlicht und einfach ein regionales Wetterereignis ist.

Die Mitarbeiter des PIK sind zu bedauern, denn sie müssen immer wieder neue Klimakatastrophen erfinden, um ihre Instituts-Existenz zu rechtfertigen. Leider hat das zu einer tragischen Falschinformation unserer Politiker geführt, die schon Millionenschaden angerichtet hat – abgesehen von der bedauerlichen und unnötigen Verunsicherung der Bevölkerung. Aber die Erzeugung von Ängsten war schon immer ein gutes Geschäftsmodell und nützlich für so manche politische Agenda.

 

PIK kann’s nicht lassen: Auch 2016 erhielt Potsdamer Klimainstitut knapp eine halbe Million Dollar von Greenpeace-nahem politischem Thinktank

Im Zeitraum 2014/15 erhielt das Potsdam-Institut für Klimafolgenforschung (PIK) mehr als eine halbe Million Dollar von einem Greenpeace-nahem politischem Thinktank, Climate Analytics. Gestört hat sich an der Verquickung von Wissenschaft und Aktivismus offenbar niemand, denn der mediale Aufschrei blieb aus, nachdem wir den Interessenskonflikt hier im Blog darstellten. Mittlerweile ist der PIK-Sachbericht 2016 herausgekommen. Sind dem PIK erneut Aktivistengelder zugesteckt worden? Wir blättern im Bericht und werden zu unserem Erstaunen erneut fündig: Im Jahr 2016 kamen dreieinhalb Prozent der gesamten vom PIK eingeworbenen Drittmittel von Climate Analytics. Graphik aus dem Bericht, Seite 32:

Abb. 1: Vom PIK im Jahr 2016 eingeworbene Drittmittel. Quelle: PIK-Sachbericht 2016, Seite 32.

 

Bei einem Gesamtdrittelmittelvolumen von € 10,4 Millionen entspricht der Climate Analytics-Anteil € 368.000. Das sind etwa US$ 450.000, also wieder knapp eine halbe Millionen Dollar wie zuvor. Nimmt Greenpeace durch diesse Zuwendungen Einfluss auf das PIK, das als politikberatende Institution eigentlich der Neutralität verpflichtet wäre?

——————–

Der Tschadsee in der Sahelzone ist ein guter Gradmesser für den Klimawandel. Die Wasserfüllung dieses Sees hat den letzten Jahrhunderten und Jahrtausenden stets oszilliert. So füllte sich der See während der Mittelalterlichen Wärmephase kräftig, um danach wieder zu schrumpfen. Diese Episode des natürlichen hydroklimatischen Pulsschlages ist auch in einem neuen Paper von Sebastian Lüning und Kollegen dokumentiert, das in Kürze im Fachblatt Palaeo3 erscheinen wird. Ermöglicht wurde das Projekt auch durch Crowdfunding vieler unserer Blogleser, die das Kartierprojekt zur Mittelalterlichen Wärmephase tatkräftig unterstützt haben. Nochmals vielen Dank an alle Unterstützer. Die Arbeiten sind zwischenzeitlich weitergegangen und ein Beitrag zur Antarktis ist zur Begutachtung eingereicht worden. Nun konzentrieren sich die Untersuchungen auf Südamerika. Demnächst mehr dazu.

Aber zurück zum Tschadsee. In der zweiten Hälfte des 20. Jahrhunderts schrumpfte und schrumpfte er. Um 1999 kam dann aber die Wende, und der See füllt sich wieder. Ein weiterer Umlauf des hydroklimatischen Pulsschlages hat begonnen. Spiegel Online berichtete am 15. Januar 2018 über die Wasserschwankungen im Tschadsee. Der Titel klingt zwar etwas alarmistisch, im Untertitel gibt es dann aber zum Glück eine Teilentwarnung:

Der sterbende See
Einst war er so groß wie Mecklenburg-Vorpommern, dann schrumpfte der Tschadsee auf die Fläche von Bremen. Geht es so weiter, ist er bald völlig ausgetrocknet. Doch Forscher glauben an ein Comeback.

Weiterlesen auf Spiegel Online

Passend dazu auch ein NASA-Artikel aus dem November 2017:

The Rise and Fall of Africa’s Great Lake: Scientists Try to Understand the Fluctuations of Lake Chad
Nestled in a low spot within a huge basin in west-central Africa is an isolated blue dot: That’s Lake Chad. Its water sustains people, animals, fishing, irrigation, and economic activity in Chad, Cameroon, Nigeria, and Niger. But in the past half century, Lake Chad has lost most of its water. The once-great lake now spans less than a tenth of the area it covered in the 1960s. Scientists and resource managers are concerned about the dramatic loss of fresh water that is the lifeblood of more than 30 million people.

Weiterlesen bei der NASA

——————–

Sie kennen bereits Alfred Brandenbergers Klimawebseite. Die neuesten Ergänzungen gibt es immer hier. Ebenfalls auf seiner Webseite präsentiert Brandenberger Fake News des UNEP United Nations Environment Programme, das in seinen Broschüren die Klimaentwicklung der letzten 1000 Jahre in Hockeystick-Form darstellt. Au weia. Kennen Sie schon das AlpenGate?

——————–

CO2 und Temperatur der letzten 150 Jahre korrelieren recht gut, wenn man von den Wellen im Temperaturverlauf einmal absieht. Allerdings ist auch die Sonnenaktivität im selben Zeitraum stark angestiegen. Wird die Bedeutung der CO2-Korrelation möglicherweise überschätzt. Ein schönes Beispiel für einen solchen Fall ist die Geburtenrate, die überraschend gut zur zeitlichen Entwicklung der Storchpopulation passt. Graphik dazu gibt es hier, für alle die es nicht glauben wollen. Störche und CO2, sicher auch ein spannendes Thema. Ob sich Beinlänge als Reaktion auf den CO2-Anstieg systematisch verändert? Bringen Störche in einer CO2-reichen Atmosphäre weniger Kinder als unter vorindustriellen CO2-Bedingungen? Fragen über Fragen.

 

Von Variabilitätsleugnern, Niedrigwasserleugnern und mittleren-Hochwasserleugnern

Die Anhänger des Klimaalarms lieben den Begriff “Klimaleugner”. Wo immer sie können, betiteln sie damit Andersdenkende. Wer sich dem Gedankengut der Klimakatastrophe nicht anschließen will, wird als Leugner abgekanzelt und ausgegrenzt. Zwar läuft dies gegen alle Regeln des wissenschaftlichen und demokratischen Disputs, aber man fühlt sich damit offenbar wohl. Stefan Rahmstorf liebt den Begriff ebenfalls. In seinem Blog hatte er im November 2017 einen Artikel mit dem Titel:

Von Inseln, Stürmen, steigendem Meeresspiegel und Klimaleugnern

Thema war Kiribati. Über die im Artikel enthaltenen Rechenkünste des Potsdamers hatten wir bereits berichtet. Offenbar hat Rahmstorf die natürliche Variabilität des Meeresspiegels unterschätzt. In der Leugner-Sprache wäre das ein Variabilitätsleugner. Nun ja. Ein Leser des Kaltesonne-Blogs meldete sich nun und teilte uns weitere Beobachtungen mit. Der von Rahmstorf per Ausgleichsgerade für “Kiribati” berechnete Pegelanstieg von 8cm wirkt noch lächerlicher, schreibt Professor Gernot Hoffmann, wenn man die Monatsmittelwerte für Flut, mittleres Hochwasser und Ebbe zugleich in einem Diagramm darstellt. Bei Rahmstorf sieht die Meeresspiegelkurve so aus:

Und so sieht es aus, wenn man die gesamten Daten plottet:

 

Plötzlich ist die ganze Dramatik weg. Wie schade. Rahmstorf erscheint plötzlich als Niedrigwasserleugner und mittlerer-Hochwasserleugner. Nicht schön. Wir hoffen doch sehr, dass er kein Mittelalterliche-Wärmephase-Leugner ist?

——————-

Alfred Brandenberger hat auf seiner Webseite einen wahren Klimawandelschatz zusammengetragen. Das Thema Klima und Artenschutz hat er hier aufgearbeitet. Auch interessant: Gefahr für Landtiere durch Ereuerbare Energiegewinnung. Immer wieder unterhaltsam sind auch die Scheinkorrelationen. Stammleser wissen es: Im 20. Jahrhundert stieg das CO2 stark an. Aber auch die Sonnenaktivität schnellte in die Höhe. Wer von den beiden hat den Temperaturanstieg der letzten 150 Jahre nun wirklich verschuldet? CO2 alleine? Sonne alleine? Oder beide zusammen hälftig?

——————

Vor einem Monat war Weihnachten. Da wünschen sich viele traditionell Schnee. Das sieht einfach besser aus, war aber eigentlich nie garantiert. Früher nicht, und heute nicht. Das niederländische Klimaatblog hat das Thema Weiße Weihnacht vor kurzem beleuchtet. Wer des Holländischen mächtig ist, möge bitte hier und hier lesen. Bedankt!

 

Überraschend: Ozonloch beeinfusst Erdklima

Viel wurde in den letzten 20 Jahren über das Ozonloch diskutiert, das 2017 überraschend klein war. Ozonloch und Klimwandel sind dabei zwei verschiedene Themen. Trotzdem gibt es Berührungspunkte, denn das Ozonloch scheint auch das Klima zu beeinflussen. Bitz & Polvani 2012 berichteten einen Fall aus der Antarktis, wo die stratosphärische Ozonausdünnung offenbar zu einer Erwärmung der Landoberfläche und zur Meereisschmelze führt:

Antarctic climate response to stratospheric ozone depletion in a fine resolution ocean climate model
We investigate the impact of stratospheric ozone depletion on Antarctic climate, paying particular attention to the question of whether eddy parameterizations in the ocean fundamentally alter the results. This is accomplished by contrasting two versions of the Community Climate System Model (version 3.5), one at 0.1° ocean and sea ice resolution and the other at 1° with parameterized ocean eddies. At both resolutions, pairs of integrations are performed: one with high (1960) and one with low (2000) ozone levels. We find that the effect of ozone depletion is to warm the surface and the ocean to a depth of 1000 m and to significantly reduce the sea ice extent. While the ocean warming is somewhat weaker when the eddies are resolved, the total loss of sea ice area is roughly the same in the fine and coarse resolution cases.

In eine ähnliche Richtung geht eine Studie von Son et al. 2013, die sogar eine Klimabeeinflussung der gesamten südlichen Hemisphäre annehmen:

Improved seasonal forecast using ozone hole variability?
Southern Hemisphere (SH) climate change has been partly attributed to Antarctic ozone depletion in the literatures. Here we show that the ozone hole has affected not only the long-term climate change but also the interannual variability of SH surface climate. A significant negative correlation is observed between September ozone concentration and the October southern annular mode index, resulting in systematic variations in precipitation and surface air temperature throughout the SH. This time-lagged relationship is comparable to and independent of that associated with El Niño-Southern Oscillation and the Indian Ocean Dipole Mode, suggesting that SH seasonal forecasts could be improved by considering Antarctic stratospheric variability.

Wieder ein Jahr später dann eine Arbeit von Previdi & Polvani (2014) zum selben Thema:

Climate system response to stratospheric ozone depletion and recovery
We review what is presently known about the climate system response to stratospheric ozone depletion and its projected recovery, focusing on the responses of the atmosphere, ocean and cryosphere. Compared with well-mixed greenhouse gases (GHGs), the radiative forcing of climate due to observed stratospheric ozone loss is very small: in spite of this, recent trends in stratospheric ozone have caused profound changes in the Southern Hemisphere (SH) climate system, primarily by altering the tropospheric midlatitude jet, which is commonly described as a change in the Southern Annular Mode. Ozone depletion in the late twentieth century was the primary driver of the observed poleward shift of the jet during summer, which has been linked to changes in tropospheric and surface temperatures, clouds and cloud radiative effects, and precipitation at both middle and low latitudes. It is emphasized, however, that not all aspects of the SH climate response to stratospheric ozone forcing can be understood in terms of changes in the midlatitude jet. The response of the Southern Ocean and sea ice to ozone depletion is currently a matter of debate. For the former, the debate is centred on the role of ocean eddies in possibly opposing wind-driven changes in the mean circulation. For the latter, the issue is reconciling the observed expansion of Antarctic sea-ice extent during the satellite era with robust modelling evidence that the ice should melt as a result of stratospheric ozone depletion (and increases in GHGs). Despite lingering uncertainties, it has become clear that ozone depletion has been instrumental in driving SH climate change in recent decades. Similarly, ozone recovery will figure prominently in future climate change, with its impacts expected to largely cancel the impacts of increasing GHGs during the next half-century.

Interessant die Schlussfolgerung: Die Öffnung des Ozonlochs hat die Südhalbkugel erwärmt, während die nun einsetzende Schließung des Ozonlochs das Klima der Südhalbkugel abkühlt. Die Autoren gehen sogar davon aus, dass dieser Abkühlungsbetrag die durch CO2 berechnete Erwärmung in den kommenden 50 Jahren aufheben wird. Einige Studien wollten sogar den globalen Erwärmungshiatus des 21. Jahrhunderts und das erstarkende antarktische Meereis mit der Schließung des Ozonlochs erklären. Wiederum andere argumentieren, dass die Erwärmung des 20. Jahrhunderts eine Folge der höheren FCKW-Gehalte in der Atmosphäre war, und nicht so sehr mit dem CO2 zusammenhängt. Ob die Klimamodelle des IPCC all dies schon berücksichtigen? Vermutlich nicht, denn dann müsste die Erwärmungswirkung des CO2 reduziert werden…

 

Henne oder Ei: Das Klima-Wolkenrätsel

Bereits mehrfach haben wir hier im Blog über die Wolken und ihren Klimaeffekt für die Erde berichtet. Es leuchtet ein, dass kleine systematische Veränderungen der Wolkendecke einen spürbaren Einfluss auf die globalen Temperaturen haben können. Die große Frage lautet dabei: Ändert sich die Temperatur, weil sich die Wolkenbedeckung geändert hat, oder ändern sich die Wolken durch Temperatureffekte (“Wolkentemperaturverstärker”)? Die Welt meinte es 2016 zu wissen:

Wegen des Klimawandels haben wir weniger Wolken
Satellitendaten zeigen, wie sich die Bewölkung auf der Erde in den vergangenen Jahren verändert hat. In den mittleren Breiten gibt es weniger Wolken, im Norden mehr. Das liegt am Klimawandel.

Weiterlesen in der Welt.

Auch die ETH Zürich war sich 2016 ganz sicher, dass zuerst die Temperatur da war und dann die tropischen Wolken darauf reagierten:

Weniger Wolken in den Tropen
ETH-Wissenschaftler zeigen mit Hilfe von Satellitendaten, dass die niedere Bewölkung in den Tropen abnimmt, wenn es auf der Erde wärmer wird. Da diese Bewölkung auf das Klima einen kühlenden Effekt hat, könnte die Zwei-Grad-Marke der Klimaerwärmung früher erreicht werden als von vielen Modellen bisher vorhergesagt. [...] Der Hauptgrund für die bisherigen grossen Unsicherheiten bei der Bemessung der Klimasensitivität sei, dass man bisher den Einfluss der Bewölkung – insbesondere der tiefliegenden Bewölkung in den Tropen – nur sehr ungenau habe einschätzen können, sagt Schneider. Wissenschaftler seien sich uneinig gewesen, ob und wie sich diese Bewölkung künftig – im Rahmen des Klimawandels – verändern wird. Um dieser Frage auf den Grund zu gehen, werteten Brient und Schneider eine grosse Menge von Satellitendaten der vergangenen 15 Jahre aus. Es handelt sich dabei um Daten von Strahlungsmesseräten an Bord von Satelliten des Nasa-Programms Ceres. Die Geräte messen kontinuierlich, wie viel Sonnenlicht von der Erde reflektiert und in den Weltraum zurückgestrahlt wird. Die ETH-Wissenschaftler konnten zeigen, dass es in der Vergangenheit in wärmeren Jahren in den Tropen weniger niedere Wolken in den Tropen gab, in kälteren Jahren mehr.

Oder vielleicht doch andersherum, was den Freunden der Klimakatastrophe natürlich nicht gefallen würde, und was daher nicht einmal laut gedacht werden darf? Die CO2-Klimasensitivität hängt maßgeblich von dieser Frage ab.

Im heutigen Blogartikel soll es um Wolkentrends gehen. Wolkendaten gibt es beim International Satellite Cloud Climatology Project (ISCCP) der NASA. Trotz einigem hin- und herklickens finden sich aber erst einmal keine brauchbaren Kurven. Wie hat sich die Wolkenentwicklung in den letzten 20 Jahren verändert? Keine Ahnung. Einige Kurven finden sich hier, die aber 2010 aufhören.

Abb. 1: Wolkenbedeckung 1983-2010. Quelle: International Satellite Cloud Climatology Project

 

Auch beim KNMI Climate Explorer gibt es Wolkendaten, wieder nur als unpraktische Rohdaten, die oft bereits 2010 enden. Das Gleiche bei Climate4You, wo bei 2010 Schluss ist, es aber immerhin schöne Diagramme gibt. Was ist bloß in den vergangenen 8 Jahren passiert mit den Wolken? Will man es uns nicht verraten? Ist der Satellit defekt? Mehr zur Albedo im Projekt “Earthshine”. Da misst man die Helligkeit des dunklen Teils des Mondes, wenn nur eine Sichel zu sehen ist. Das Licht ist reflektiertes Erdenlicht und die Helligkeit lässt Rückschlüsse auf die Wolkenbedeckung (die Albeo) zu. Leider alles recht kurze Reihen. Etwas informativer und benutzerfreundlicher ist da schon das Paper von McLean 2014:

Late Twentieth-Century Warming and Variations in Cloud Cover
From 1950 to 1987 a strong relationship existed between the El Nino-Southern Oscillation (ENSO) and HadCRUT4 global average temperature anomaly, interrupted occasionally by volcanic eruptions. After 1987 the relationship diverged, with temperature anomaly increasing more than expected, but was re-established after 1997 at an offset of ~0.48˚C higher. The period of increased warming from 1987 to 1997 loosely coincided with the divergence of the global average temperature anomalies over land, which are derived from observation station recordings, and the global average anomalies in sea surface temperatures. Land-based temperatures averaged 0.04˚C below sea temperatures for the period 1950 to 1987 but after 1997 averaged 0.41˚C above sea temperatures. The increase in the global average temperature anomaly and the divergence of land and sea surface temperatures also coincided with two significant changes in global average cloud cover. Total cloud cover decreased during the period from 1987 to 1997 and, for most of the remainder of the period from 1984 to 2009, decreases in low-level cloud were accompanied by increases in middle and upper level cloud. These changes can be found in both global average cloud cover and in each of the six 30˚-latitude bands. The impact of these changes in cloud cover can account for the variations in HadCRUT4 global average temperature anomalies and the divergence between land and sea temperatures.

Während der zweiten Hälfte der starken Erwärmungsphase 1977-1997 hat sich die tiefe Wolkenbedeckung verringert, was die Erwärmung wohl mitverursacht oder zumindest verstärkt haben wird. Auch das berühmte “global dimming” ist wohl auf Wolken zurückzuführen, anstatt auf Abgaseffekte aus der Nutzung von fossilen Brennstoffen. Ebenso in Belgien sind die Wolken in den letzten 20 Jahren zurückgegangen. In Tibet war es während der Kleinen Eiszeit wolkig und kalt, wobei die Wolken im Laufe der Modernen Wärmeperiode zurückwichen und das Land wärmten (Liu et al. 2014). In Gesamt-China hat sich während der vergangenen 50 Jahren die Wolkendecke veringert (Xia 2012). Auch in den USA wurden im Laufe der vergangenen 30 Jahre immer weniger Wolken registriert (Foster & Heidinger 2014). Interessanterweise können 88% der beobachteten Temperaturschwankungen in Großbritannien mit der Veränderung der Wolkenbedeckung erklärt werden (Mearns & Best 2013).

 

Wärmer und schöner: Deutscher Sommer heute mit 50 Stunden mehr Sonnenschein als noch vor 65 Jahren

Wolken sind ein wichtiger Faktor für das Klima. Wenn tagsüber keine Wolke am Himmel ist, dann scheint die Sonne. Anstatt nun also mühsam die Wolkenbedeckung per Satellit zu messen, kann man auch einfach an den Wetterstationen die Sonnenscheindauer registrieren. Mehr Sonne bedeutet auch, dass die Temperaturen steigen. Inwiefern hat die Klimaerwärmung der letzten Jahrzehnte etwas mit der Sonnenscheindauer zu tun? Dies wollen wir heute im Blog beleuchten. Vorab schonmal einen schönen Dank an Stefan Kämpfe, der zahlreiche Diagramme beisteuerte.

Wir beginnen in der deutschen Hauptstadt des Klimaalarms, in Potsdam. Sonnenscheindauer (gelb) und Temperaturentwicklung (grün) zeigen dort während der letzten 120 Jahre eine enge Kopplung, was besonders im Sommer zutrifft (Abb. 1+2). Im Winter kehen sich die Verhältnisse zum  Teil um, weil Wolken die Auskühlung verhindern.

Abb. 1: Sonnenscheindauer (gelb) und Temperaturentwicklung (grün) in Potsdam. Graphik: Stefan Kämpfe.

 

Abb. 2: Auftragung Temperatur gegen Sonnenscheindauer, Potsdam seit 1893. Daten: PIK. Graphik: Stefan Kämpfe.

 

Jetzt mag sich der eine oder andere Leser fragen, was eigentlich die Temperaturwellen in Abb. 1 verursacht. Dies ist der AMO-Zyklus, die Atlantische Multidekadenoszillation (Abb. 3).

Abb. 3: Temperatur (braun), Sonnenscheindauer (gelb), AMO (grün) in Potsdam seit 1893. Graphik: Stefan Kämpfe.

 

Ähnlich sieht es bei der Zugspitze aus:

Abb. 3: Temperatur (braun), Sonnenscheindauer (gelb), AMO (grün) auf der Zugspitze seit 1901. Graphik: Stefan Kämpfe.

 

Bundesweit wird die Sonnenscheindauer vom DWD leider erst seit 1951 erfasst, so dass nur ein einziger AMO-Zyklendurchlauf erfasst wird, da die Zyklendauer 60 Jahre beträgt. Die Daten kann man sich beim DWD neuerdings plotten lassen. Klicken Sie dazu auf der blauen Leiste zunächst auf den Rechtspfeil, dann auf ‘Zeitreihen und Trends’. Wir wählen ‘Sommer’, ‘Sonnenschein’, ‘Deutschland’. Und siehe da, es gibt über die vergangenen 65 Jahre einen ansteigenden Trend in der Sonnenscheindauer. Die grüne Linie ist ansteigend. Heute scheint die Sonne etwa 50 Stunden länger im Sommer als noch vor 65 Jahren. Das sollte doch eigentlich einen gehörigen Wärmeschub geben. Ebenfalls schön zu erkennen ist die stärkere Bewölkung (kürzere Sonnenscheindauer) in den 1970er und 80er Jahren, die sich während der negativen AMO-Phase ereignet hat.

 

Abb. 4: Sommerliche Sonnenscheindauer in Deutschland seit 1950. Graphik: DWD.

 

Atmosphäre des Uranus verändert sich im Takt der Sonne

Die Sonne ist unser wichtigster Energielieferant. Als wir vor einigen Jahren darlegten, dass solare Schwankungen  das Erdklima beeinflussen, landeten wir kurzerhand auf der Schwarzen Liste des Umweltbundesamtes. Und das obwohl eine Vielzahl von wissenschaftlichen Publikationen einen solchen Zusammenhang zwischen Sonne und Klima für die vergangenen Jahrhunderte und Jahrtausende eindrucksvoll belegten.

Man könnte nun auf die Idee kommen, auf anderen Planeten nach einem solaren Effekt in der Planetenatmosphäre zu suchen. Hört sich irre an, oder? Wäre es nicht viel einfacher, auf der Erde danach zu forschen? Aus politischen Gründen ist dieser Weg leider verbaut. Zu unbequem wären die Folgen. Was auf der Erde verborgen bleiben muss, ist jetzt zum Glück auf dem Uranus als Nachweis geglückt. Aplin & Harrison veröffentlichten am 18. Dezember 2017 ein spannendes Paper in den Geophysical Research Letters. Thema: Änderungen der Uranus-Atmosphäre im Takte der Sonnenaktivität:

Solar-Driven Variation in the Atmosphere of Uranus
Long-term measurements (1972–2015) of the reflectivity of Uranus at 472 and 551 nm display variability that is incompletely explained by seasonal effects. Spectral analysis shows that this nonseasonal variability tracks the 11 year solar cycle. Two mechanisms could cause solar modulation: (a) nucleation onto ions or electrons created by galactic cosmic rays (GCR) or (b) UV-induced aerosol color changes. Ion-aerosol theory is used to identify expected relationships between reflectivity fluctuations and GCR flux, tested with multiple regression and compared to the linear response predicted between reflectivity and solar UV flux. The statistics show that 24% of the variance in reflectivity fluctuations at 472 nm is explained by GCR ion-induced nucleation, compared to 22% for a UV-only mechanism. Similar GCR-related variability exists in Neptune’s atmosphere; hence, the effects found at Uranus provide the first example of common variability in two planetary atmospheres driven through energetic particle modulation by their host star.

Der Mechanismus funktioniert offenbar über die kosmische Strahlung sowie die UV-Strahlungskomponente, beides vernachlässigte Größen in den irdischen Klimamodellen. Die Autoren deuten an, dass auch auf dem Neptun ähnliche Effekte registriert werden können. Ein weiterer wichtiger Schritt, die solaren Verstärkerprozesse besser zu verstehen und am Ende korrekt in die Klimamodelle einzubauen. Bislang tut man so, als gäbe es lediglich Effekte der solaren Gesamtstrahlung (total solar irradiance), was den empirisch bestens belegten solaren Klimaeffekt jedoch massiv unterschätzt. Ein wenig erinnert das an die Plattentektonik, bei der die Bewegung der Kontinente auch erst akzepiert wurde, als ein physikalischer Mechanismus für die Wanderung der Lithosphärenplatten gefunden wurde:

Die Plattentektonik setzt sich durch: Lehren für die Klimadebatte
Kontinentalverschiebung und Klimawandel: Die wundersame Wiederholung der Wissenschaftsgeschichte

 

Kein Klimawandel: Waldbrände in den USA von El Nino, Brandstiftern und Änderungen in der Landnutzung kontrolliert

Dürren erhöhen die Waldbrandgefahr, das ist logisch. Es ist aber falsch, reflexhaft jeden Waldbrand dem Klimawandel zuzuordnen. Dürren hat es immer schon gegeben, und Waldbrände auch. Wer den Klimawandel ins Spiel bringen möchte, muss zunächst zeigen, dass die Entwicklung den natürlichen Schwankungsbereich bereits verlassen hat. Das ist vielen Argumentierern aber zu aufwendig. Daher behaupten sie einfach etwas und hoffen dabei, dass niemand ihre Behauptungen fachlich überprüft. Sie mögen keine Klimaskeptiker, denn die haben die dumme Angwohnheit, den Fakten auf den Grund zu gehen. Viel lieber hätten sie stumme Zuhörer, die sofort ja und Amen zu allen Alarmisten-Thesen sagen. Und wenn dann die Fakten auch noch das Gegenteil der Behauptung belegen, dann geht es auf der persönlichen Ebene weiter. Man mag den Beruf des Querulanten nicht, oder die Ausbildung oder die Hautfarbe, oder, oder, oder.

Fakten finden sich in der heutigen Zeit zu Hauf im Internet. Beispiel Waldbrände in den USA. Die Größe der verbrannten Flächen gibt es in einer Tabelle des National Interagency Fire Centers. Seltsamerweise werden die Daten jedoch nicht als Kurvenabbildung angeboten. Die muss man erst selber herstellen, was ja kein Problem ist, aber die meisten Leute ert einmal im Dunkeln stehen lässt. Steven Goddard zeigt solche Graphiken in seinem Real Science Blog.

Überhaupt sollte man bei Waldbränden nicht immer gleich den Klimawandel aus dem Zauberhut ziehen. Die University of Colorado at Boulder berechnete jetzt, dass 84% aller Wald- und Buschfeuer in den USA von Menschen verursacht werden. Pressemitteilung vom Februar 2017:

Humans have dramatically increased extent, duration of wildfire season
Humans have dramatically increased the spatial and seasonal extent of wildfires across the U.S. in recent decades and ignited more than 840,000 blazes in the spring, fall and winter seasons over a 21-year period, according to new University of Colorado Boulder-led research. After analyzing two decades’ worth of U.S. government agency wildfire records spanning 1992-2012, the researchers found that human-ignited wildfires accounted for 84 percent of all wildfires, tripling the length of the average fire season and accounting for nearly half of the total acreage burned. The findings were published today in the journal Proceedings of the National Academy of Sciences.

“There cannot be a fire without a spark,” said Jennifer Balch, Director of CU Boulder’s Earth Lab and an assistant professor in the Department of Geography and lead author of the new study. “Our results highlight the importance of considering where the ignitions that start wildfires come from, instead of focusing only on the fuel that carries fire or the weather that helps it spread. Thanks to people, the wildfire season is almost year-round.”  The U.S. has experienced some of its largest wildfires on record over the past decade, especially in the western half of the country. The duration and intensity of future wildfire seasons is a point of national concern given the potentially severe impact on agriculture, ecosystems, recreation and other economic sectors, as well as the high cost of extinguishing blazes. The annual cost of fighting wildfires in the U.S. has exceeded $2 billion in recent years.

The CU Boulder researchers used the U.S. Forest Service Fire Program Analysis-Fire Occurrence Database to study records of all wildfires that required a response from a state or federal agency between 1992 and 2012, omitting intentionally set prescribed burns and managed agricultural fires. Human-ignited wildfires accounted for 84 percent of 1.5 million total wildfires studied, with lightning-ignited fires accounting for the rest. In Colorado, 30 percent of wildfires from 1992-2012 were started by people, burning over 1.2 million acres. The fire season length for human-started fires was 50 days longer than the lightning-started fire season (93 days compared to 43 days), a twofold increase. “These findings do not discount the ongoing role of climate change, but instead suggest we should be most concerned about where it overlaps with human impact,” said Balch. “Climate change is making our fields, forests and grasslands drier and hotter for longer periods, creating a greater window of opportunity for human-related ignitions to start wildfires.”

While lightning-driven fires tend to be heavily concentrated in the summer months, human-ignited fires were found to be more evenly distributed across all seasons. Overall, humans added an average of 40,000 wildfires during the spring, fall and winter seasons annually—over 35 times the number of lightning-started fires in those seasons. “We saw significant increases in the numbers of large, human-started fires over time, especially in the spring,” said Bethany Bradley, an associate professor at University of Massachusetts Amherst and co-lead author of the research. “I think that’s interesting, and scary, because it suggests that as spring seasons get warmer and earlier due to climate change, human ignitions are putting us at increasing risk of some of the largest, most damaging wildfires.” “Not all fire is bad, but humans are intentionally and unintentionally adding ignitions to the landscape in areas and seasons when natural ignitions are sparse,” said John Abatzoglou, an associate professor of geography at the University of Idaho and a co-author of the paper. “We can’t easily control how dry fuels get, or lightning, but we do have some control over human started ignitions.” 

The most common day for human-started fire by far, however, was July 4, with 7,762 total wildfires started on that day over the course of the 21-year period. The new findings have wide-ranging implications for fire management policy and suggest that human behavior can have dramatic impact on wildfire totals, for good or for ill. “The hopeful news here is that we could, in theory, reduce human-started wildfires in the medium term,” said Balch. “But at the same time, we also need to focus on living more sustainably with fire by shifting the human contribution to ignitions to more controlled, well-managed burns.” Co-authors of the new research include Emily Fusco of the University of Massachusetts Amherst and Adam Mahood and Chelsea Nagy of CU Boulder. The research was funded by the NASA Terrestrial Ecology Program, the Joint Fire Sciences Program and Earth Lab through CU Boulder’s Grand Challenge Initiative.

Im Juli 2017 erklärte das Institute for Basic Science, dass das Waldbrandrisiko in den südwestlichen USA stark vom Temperaturgefälle zwischen Pazifik und Atlantik abhängt. Letztendlich stecken die Ozeanzyklen dahinter. Pressemitteilung (via Science Daily):

Atlantic/Pacific ocean temperature difference fuels US wildfires
New study shows that difference in water temperature between the Pacific and the Atlantic oceans together with global warming impact the risk of drought and wildfire in southwestern North America

An international team of climate researchers from the US, South Korea and the UK has developed a new wildfire and drought prediction model for southwestern North America. Extending far beyond the current seasonal forecast, this study published in the journal Scientific Reports could benefit the economies with a variety of applications in agriculture, water management and forestry.

Over the past 15 years, California and neighboring regions have experienced heightened drought conditions and an increase in wildfire numbers with considerable impacts on human livelihoods, agriculture, and terrestrial ecosystems. This new research shows that in addition to a discernible contribution from natural forcings and human-induced global warming, the large-scale difference between Atlantic and Pacific ocean temperatures plays a fundamental role in causing droughts, and enhancing wildfire risks.

“Our results document that a combination of processes is at work. Through an ensemble modeling approach, we were able to show that without anthropogenic effects, the droughts in the southwestern United States would have been less severe,” says co-author Axel Timmermann, Director of the newly founded IBS Center for Climate Physics, within the Institute for Basics Science (IBS), and Distinguished Professor at Pusan National University in South Korea. “By prescribing the effects of human-made climate change and observed global ocean temperatures, our model can reproduce the observed shifts in weather patterns and wildfire occurrences.”

The new findings show that a warm Atlantic and a relatively cold Pacific enhance the risk for drought and wildfire in the southwestern US. “According to our study, the Atlantic/Pacific temperature difference shows pronounced variations on timescales of more than 5 years. Like swings of a very slow pendulum, this implies that there is predictability in the large-scale atmosphere/ocean system, which we expect will have a substantial societal benefit,” explains Yoshimitsu Chikamoto, lead author of the study and Assistant Professor at the University of Utah in Logan.

The new drought and wildfire predictability system developed by the authors expands beyond the typical timescale of seasonal climate forecast models, used for instance in El Niño predictions. It was tested with a 10-23 month forecasting time for wildfire and 10-45 for drought. “Of course, we cannot predict individual rainstorms in California and their local impacts months or seasons ahead, but we can use our climate computer model to determine whether on average the next year will have drier or wetter soils or more or less wildfires. Our yearly forecasts are far better than chance,” states Lowell Stott, co-author of the study from the University of Southern California in Los Angeles.

Bringing together observed and simulated measurements on ocean temperatures, atmospheric pressure, water soil and wildfire occurrences, the researchers have a powerful tool in their hands, which they are willing to test in other regions of the world: “Using the same climate model configuration, we will also study the soil water and fire risk predictability in other parts of our world, such as the Mediterranean, Australia or parts of Asia,” concludes Timmermann. “Our team is looking forward to developing new applications with stakeholder groups that can benefit from better soil water forecasts or assessments in future fire risk.”

Paper: Yoshimitsu Chikamoto, Axel Timmermann, Matthew J. Widlansky, Magdalena A. Balmaseda, Lowell Stott. Multi-year predictability of climate, drought, and wildfire in southwestern North America. Scientific Reports, 2017; 7 (1) DOI: 10.1038/s41598-017-06869-7

Ozeanzyklen (El Nino, La Nina) wurden auch von Mason et al. 2017 als Waldbrandtreiber in den USA identifiziert:

Effects of climate oscillations on wildland fire potential in the continental United States
The effects of climate oscillations on spatial and temporal variations in wildland fire potential in the continental U.S. are examined from 1979 to 2015 using cyclostationary empirical orthogonal functions (CSEOFs). The CSEOF analysis isolates effects associated with the modulated annual cycle and the El Niño–Southern Oscillation (ENSO). The results show that, in early summer, wildland fire potential is reduced in the southwest during El Niño but is increased in the northwest, with opposite trends for La Niña. In late summer, El Niño is associated with increased wildland fire potential in the southwest. Relative to the mean, the largest impacts of ENSO are observed in the northwest and southeast. Climate impacts on fire potential due to ENSO are found to be most closely associated with variations in relative humidity. The connections established here between fire potential and climate oscillations could result in improved wildland fire risk assessment and resource allocation.

Auch im Nordwesten der USA spielt der El Nino eine große Rolle bei der Steuerung der Waldbrände, wie Barbero et al. 2015 dokumentierten:

Seasonal reversal of the influence of El Niño–Southern Oscillation on very large wildfire occurrence in the interior northwestern United States
Satellite-mapped fire perimeters and the multivariate El Niño–Southern Oscillation index were used to examine the impact of concurrent El Niño–Southern Oscillation (ENSO) phase on very large fire (VLF) occurrences over the intermountain northwestern United States (U.S.) from 1984 to 2012. While the warm phase of ENSO promotes drier and warmer than normal conditions across the region during winter and spring that favor widespread fire activity the following summer, a reduction in VLFs was found during the warm phase of ENSO during summer concurrent with the fire season. This paradox is primarily tied to an anomalous upper level trough over the western U.S. and positive anomalies in integrated water vapor that extend over the northwestern U.S. during summers when the warm phase of ENSO is present. Collectively, these features result in widespread increases in precipitation amount during the summer and a curtailment of periods of critically low-fuel moistures that can carry wildfire.

Generell haben Waldbrände in den USA im Vergleich zu den Jahrhunderten davor stark abgenommen (siehe Beitrag von Larry Kummer auf Fabius Maximus).

In Colorado konnte über die vergangenen Jahrhunderte kein Trend bei den Waldbränden gefunden werden. Pressemitteilung der University of Colorado von 2014:

Colorado’s Front Range fire severity today not much different than in past, says CU-Boulder study
The perception that Colorado’s Front Range wildfires are becoming increasingly severe does not hold much water scientifically, according to a massive new study led by the University of Colorado Boulder and Humboldt State University in Arcata, Calif. The study authors, who looked at 1.3 million acres of ponderosa pine and mixed conifer forest from Teller County west of Colorado Springs through Larimer County west and north of Fort Collins, reconstructed the timing and severity of past fires using fire-scarred trees and tree-ring data going back to the 1600s. Only 16 percent of the study area showed a shift from historically low-severity fires to severe, potential crown fires that can jump from treetop to treetop.

The idea that modern fires are larger and more severe as a result of fire suppression that allowed forest fuels to build up in the past century is still prevalent among some, said CU-Boulder geography Professor Thomas Veblen, a study co-author. “The key point here is that modern fires in these Front Range forests are not radically different from the fire severity of the region prior to any effects of fire suppression,” he said. A paper on the subject was published Sept. 24 in the journal PLOS ONE. The study was led by Associate Professor Rosemary Sherriff of Humboldt State University and involved Research Scientist Tania Schoennagel of CU-Boulder’s Institute of Arctic and Alpine Research, CU-Boulder doctoral student Meredith Gartner and Associate Professor Rutherford Platt of Gettysburg College in Gettysburg, Pa. The study was funded by the National Science Foundation.

“The common assumption is that fires are now more severe and are killing higher percentages of trees,” said Sherriff, who completed her doctorate at CU-Boulder under Veblen in 2004. “Our results show that this is not the case on the Front Range except for the lowest elevation forests and woodlands.” One important new finding comes from a comparison of nine large fires that have occurred on the Front Range since 2000 — including the 2002 Hayman Fire southwest of Denver, the 2010 Fourmile Canyon Fire west of Boulder and the 2012 High Park Fire west of Fort Collins — with historic fire effects in the region. “It’s true that the Colorado Front Range has experienced a number of large fires recently,” said Schoennagel. “While more area has burned recently compared to prior decades – with more homes coming into the line of fire – the severity of recent fires is not unprecedented when we look at fire records going back before the 1900s.”

In addition, tree-ring evidence from the new study shows there were several years on the Front Range since the 1650s when there were very large, severe fires. The authors looked at more than 1,200 fire-scarred tree samples and nearly 8,000 samples of tree ages at 232 forest sample sites from Teller County to Larimer County. The study is one of the largest of its kind ever undertaken in the western United States. The team was especially interested in fire records before about 1920, when effective fire suppression in the West began in earnest. “In relatively dry ponderosa pine forests of the West, a common assumption is that fires were relatively frequent and of low severity, and not lethal to most large trees, prior to fuel build-up in the 20th century,” said Veblen. “But our study results showed that about 70 percent of the forest study area experienced a combination of moderate and high-severity fires in which large percentages of the mature trees were killed.”

Along the Front Range, especially at higher elevations, homeowners and fire managers should expect a number of high-severity fires unrelated to any kind of fire suppression and fuel build-up, said Schoennagel. “This matters because high-severity fires are dangerous to people, kill more trees and are trickier and more expensive to suppress.” “Severe fires are not new to most forests in this region,” said Sherriff. “What is new is the expanded wildland-urban interface hazard to people and property and the high cost of suppressing fires for society.” In addition, a warming Colorado climate — 2 degrees Fahrenheit since 1977 — has become a wild card regarding future Front Range fires, according to the team. While fires are dependent on ignition sources and can be dramatically influenced by high winds, the team expects to see a substantial increase in Front Range fire activity in the low and mid-elevations in the coming years as temperatures continue to warm, a result of rising greenhouses gases in Earth’s atmosphere.

Im Jahr 2016 brannte es in Kalifornien. Sofort war Al Gore zur Stelle und stellte den Klimawandel als Schuldigen an den Pranger. Später kam dann heraus, dass ein Serien-Brandstifter hinter den meisten Bränden steckte. Da brach das klimaalarmistische Gebäude ganz schnell in sich zusammen. Zudem fand die University of Arizona noch heraus, dass die Brände durch ungünstige Veränderungen in der Landnutzung gefördert wurden. Pressemitteilung:

Forest Fires in Sierra Nevada Driven by Past Land Use
Changes in human uses of the land have had a large impact on fire activity in California’s Sierra Nevada since 1600, according to research by a UA researcher and her colleagues.

Forest fire activity in California’s Sierra Nevada since 1600 has been influenced more by how humans used the land than by climate, according to new research led by University of Arizona and Penn State scientists. For the years 1600 to 2015, the team found four periods, each lasting at least 55 years, where the frequency and extent of forest fires clearly differed from the time period before or after. However, the shifts from one fire regime to another did not correspond to changes in temperature or moisture or other climate patterns until temperatures started rising in the 1980s. “We were expecting to find climatic drivers,” said lead co-author Valerie Trouet, a UA associate professor of dendrochronology. “We didn’t find them.”

Instead, the team found the fire regimes corresponded to different types of human occupation and use of the land: the pre-settlement period to the Spanish colonial period; the colonial period to the California Gold Rush; the Gold Rush to the Smokey Bear/fire suppression period; and the Smokey Bear/fire suppression era to present. “The fire regime shifts we see are linked to the land-use changes that took place at the same time,” Trouet said. “We knew about the Smokey Bear effect — there had been a dramatic shift in the fire regime all over the Western U.S. with fire suppression. We didn’t know about these other earlier regimes,” she said. “It turns out humans — through land-use change — have been influencing and modulating fire for much longer than we anticipated.”

Finding that fire activity and human land use are closely linked means people can affect the severity and frequency of future forest fires through managing the fuel buildup and other land management practices — even in the face of rising temperatures from climate change, she said. The team’s paper, “Socio-Ecological Transitions Trigger Fire Regime Shifts and Modulate Fire-Climate Interactions in the Sierra Nevada, USA 1600-2015 CE,” was scheduled for publication in the online Early Edition of the Proceedings of the National Academy of Sciences this week. Trouet’s co-authors are Alan H. Taylor of Penn State, Carl N. Skinner of the U.S. Forest Service in Redding, California, and Scott L. Stephens of the University of California, Berkeley.

Initially, the researchers set out to find which climate cycles, such as the El Niño/La Niña cycle or the longer Pacific Decadal Oscillation, governed the fire regime in California’s Sierra Nevada. The team combined the fire history recorded in tree rings from 29 sites all along the Sierra Nevada with a 20th-century record of annual area burned. The history spanned the years 1600 to 2015. However, when large shifts in the fire history were compared to past environmental records of temperature and moisture, the patterns didn’t match. Other researchers already had shown that in the Sierra, there was a relationship between forest fire activity and the amount of fuel buildup. Team members wondered whether human activity over the 415-year period had changed the amount of fuel available for fires.

By using a technique called regime shift analysis, the team found four distinct time periods that differed in forest fire activity. The first was 1600 to 1775. After 1775, fire activity doubled. Fire activity dropped to pre-1775 levels starting in 1866. Starting in 1905, fire activity was less frequent than any previous time period. In 1987, fire activity started increasing again. However, the frequency of forest fires did not closely track climatic conditions, particularly after 1860. The researchers reviewed historical documents and other evidence and found the shifting patterns of fire activity most closely followed big changes in human activity in the region. Before the Spanish colonization of California, Native Americans regularly set small forest fires. The result was a mosaic of burned and unburned patches, which reduced the amount of fuel available to fires and limited the spread of any particular fire.

However, once the Spanish arrived in 1769, Native American populations rapidly declined because of disease and other causes. In addition, the Spanish government banned the use of fire. Without regular fires, fuels built up, leading to more and larger fires. The influx of people to California during the Gold Rush that began in 1848 reduced fire activity. The large numbers of livestock brought by the immigrants grazed on the grasses and other plants that would otherwise have been fuel for forest fires. In 1904, the U.S. government established a fire suppression policy on federal lands. After that, fire activity dropped to its lowest level since 1600. Starting in the 1980s, as the climate warms, fire frequency and severity has increased again. Fires now can be “bad” fires because of a century or more of fire suppression, according to lead co-author Taylor, a professor of geography at Penn State. “It is important for people to understand that fires in the past were not necessarily the same as they are today,” Taylor said. “They were mostly surface fires. Today we see more canopy-killing fires.”   

 

Australische Buschfeuer sind in den letzten 15 Jahren seltener geworden

Im australischen Bundesstaat Victoria sind 50.000 km² Land verbrannt, wobei 12 Menschen, über eine Million Schafe und tausende von Rindern ums Leben kamen. Die von dem Feuer betroffenen Gebiete lagen um Portland, Westernport und im Plenty Ranges sowie im Wimmera- und Dandenong-Distrikt. Das verbrannte Gebiet erstreckte sich über ein Viertel des Bundesstaates. Ermöglicht wurde der Brand durch eine lang andauernde Dürre, die die Landschaft in ein Pulverfass verwandelte. Letztendlich ausgelöst wurde die Feuersbrunst durch einen starken heißen Wind, der die Glut einer Feuerstelle aufnahm und damit die benachbarte Graslandschaft entzündete.

Welchen Anteil hatte der Klimawandel an der Brandkatastrophe? PIK & Co. blieben bei diesem Ereignis überraschend stumm. Normalerweise drängelt sich gleich ein Klimaalarmist vor die Mikrofone und erklärt mit bedeutungsschwangerer Miene: Nun ja, einzelne Ereignisse lassen sich schwer dem Klimawandel zuordnen, aber die Wahrscheinlichkeit ist auf jeden Fall gestiegen. Gezinkter Würfel, Sie wissen schon. Die Anhänger der Klimakatastrophe schwiegen im Fall der Victoria-Brände, weil sie damals noch gar nicht geboren waren. Die Brände fanden nämlich im Februar 1851 statt und sind auch unter dem Namen ‘Black Thursday Bushfires‘ bekannt.

Buschfeuer hat es in Australien stets gegeben. Zum Beispiel Ende des 19. und zu Beginn des 20. Jahrhunderts in New South Wales. Das wusste die ehemalige Generalsekretärin des Sekretariats der Klimarahmenkonvention der Vereinten Nationen (UNFCCC), Christiana Figueres, offenbar nicht, als sie 2013 Brände in New South Wales (NSW) reflexhaft als Folge des Klimawandels darstellte. Eine klassische Fehlleistung, die einem Inhaber einer solchen Position nicht unterlaufen sollte. Die Provinzregierung verwehrt sich gegen derartige Fehlinterpretationen. Handelsbatt vom 25.10.2013:

Die neue konservative Regierung wirft Umweltschützern vor, sie nutzten die Brände aus, um gegen die geplante Abschaffung der CO2-Steuer zu opponieren. „Manche Leute versuchen, die Tragödie und das Leid dieser Woche auszuschlachten“, sagte Umweltminister Greg Hunt. Im übrigen habe die Forschungsbehörde CSIRO gerade erklärt, dass es seit Millionen Jahren in Australien Buschbrände gebe.

Wenn man die Schäden von Buschfeuern in NSW gegen die Anzahl des Hausbestandes normiert, so ist kein Schadenstrend für die letzten 90 Jahre erkennbar. John McAneney hat in The Conversation die Fakten zusammengetragen. Er sieht vor allem landplanerische Defizite, die das Ausmaß der Feuerschäden erst ermöglicht hat.

Im Juli 2017 erschien im Journal of Geophysical Research eine Arbeit von Nick Earl und Ian Simmonds. Die Autoren analysierten die australische Buschfeuerstatistik 2001-2015 und fanden eine Abnahme der Brände. Sie fanden aber auch ein große zeitliche und räumliche Variabilität, die zum Teil von Ozeanzyklen wie El Nino oder dem Indischen Ozean Dipol gesteuert wird, wobei sich Prognosemöglichkeiten eröffnen. Abstract:

Variability, trends, and drivers of regional fluctuations in Australian fire activity
Throughout the world fire regimes are determined by climate, vegetation, and anthropogenic factors, and they have great spatial and temporal variability. The availability of high-quality satellite data has revolutionized fire monitoring, allowing for a more consistent and comprehensive evaluation of temporal and spatial patterns. Here we utilize a satellite based “active fire” (AF) product to statistically analyze 2001–2015 variability and trends in Australian fire activity and link this to precipitation and large-scale atmospheric structures (namely, the El Niño–Southern Oscillation (ENSO) and the Indian Ocean Dipole (IOD)) known to have potential for predicting fire activity in different regions. It is found that Australian fire activity is decreasing (during summer (December–February)) or stable, with high temporal and spatial variability. Eastern New South Wales (NSW) has the strongest decreasing trend (to the 1% confidence level), especially during the winter (JJA) season. Other significantly decreasing areas are Victoria/NSW, Tasmania, and South-east Queensland. These decreasing fire regions are relatively highly populated, so we suggest that the declining trends are due to improved fire management, reducing the size and duration of bush fires. Almost half of all Australian AFs occur during spring (September–November). We show that there is considerable potential throughout Australia for a skillful forecast for future season fire activity based on current and previous precipitation activity, ENSO phase, and to a lesser degree, the IOD phase. This is highly variable, depending on location, e.g., the IOD phase is for more indicative of fire activity in southwest Western Australia than for Queensland.

 

Keine Kipppunkte beim arktischen Meereis: Was schmilzt, kann auch wieder gefrieren

Das arktische Meereis ist in den letzten Jahrzehnten geschmolzen. Das passt gut mit dem Wärmeplateau zusammen, auf dem wir uns gerade befinden. Alles andere wäre eine Überraschung gewesen. Ende 2017 sah die Entwicklung wie folgt aus (Arktis, blaue Kurve):

 

Abbildung 1: Entwicklung der Meereisbedeckung in der Arktis (blau) und Antarktis (rot). Quelle: Climate4You.

 

Seit 1980 hat sich die arktische Meereisbedeckung von 12,5 auf jetzt 10,5 Millionen Quadratkilometer verringert, was etwa 16% entspricht. Zuletzt hat sich das Eis wieder vergrößert (Abb. 1). Einige alarmistisch veranlagte Zeitgenossen hatten mit einem viel schnelleren Rückgang gerechnet. Laut einigen Vorhersagen, sollte das arktische Meer schon heute eisfrei sein. So hatte Al Gore dem Eis 2008 nur noch 5 Jahre gegeben, bis es vollends verschwindet. Eine Fehlprognose wie wir heute wissen. Genauso schlimm waren die Vorhersagen von Peter Wadhams., der nach 2016 einen eisfreien Nordpol postulierte. Ganz falsch. Ein Mann der bewusst die Pferde scheu machte.

Till Wagner und Ian Eisenman untersuchten 2015 in den Geophysical Research Letters, wie es zu diesen krassen Fehlprognosen kommen konnte. Die Autoren fanden, dass man sich zu sehr in Kipppunkte verliebt hatte, die in der Realität meist gar nicht existieren, aber sehr gerne von Modellierern (z.B. beim PIK) angenommen werden. Abstract:

False alarms: How early warning signals falsely predict abrupt sea ice loss
Uncovering universal early warning signals for critical transitions has become a coveted goal in diverse scientific disciplines, ranging from climate science to financial mathematics. There has been a flurry of recent research proposing such signals, with increasing autocorrelation and increasing variance being among the most widely discussed candidates. A number of studies have suggested that increasing autocorrelation alone may suffice to signal an impending transition, although some others have questioned this. Here we consider variance and autocorrelation in the context of sea ice loss in an idealized model of the global climate system. The model features no bifurcation, nor increased rate of retreat, as the ice disappears. Nonetheless, the autocorrelation of summer sea ice area is found to increase in a global warming scenario. The variance, by contrast, decreases. A simple physical mechanism is proposed to explain the occurrence of increasing autocorrelation but not variance when there is no approaching bifurcation. Additionally, a similar mechanism is shown to allow an increase in both indicators with no physically attainable bifurcation. This implies that relying on autocorrelation and variance as early warning signals can raise false alarms in the climate system, warning of “tipping points” that are not actually there.

Der Hang zum Fatalistischen wird den Modellierern jetzt zum Verhängnis. Sie hatten viel zu lange angenommen, dass der Rückgang des arktischen Meereises irreversibel wäre. Alles was geschmolzen ist, käme niemals wieder. Eine falsche Annahme. Natürlich kann Eis das schmilzt, auch wieder gefrieren. Eigentlich trivial. In einer Pressemitteilung erklärte die Scripps Oceanic Institution diesen eigentlich intuitiven Sachverhalt:

Research Highlight: Arctic Sea Ice Loss Likely To Be Reversible

Scenarios of a sea ice tipping point leading to a permanently ice-free Arctic Ocean were based on oversimplified arguments. New research by Till Wagner and Ian Eisenman, scientists at Scripps Institution of Oceanography, UC San Diego, resolves a long-running debate over irreversible Arctic sea ice loss. 

Ever since the striking record minimum Arctic sea ice extent in 2007, the ominous scenario of a sea ice tipping point has been a fixture in the public debate surrounding man-made climate change and a contingency for which Arctic-bordering countries have prepared. For decades, scientists have been concerned about such a point of no return, beyond which sea ice loss is irreversible. This concern was supported by mathematical models of the key physical processes (known as process models) that were believed to drive sea ice changes. The process models forecasted that increased global warming would push the Arctic into an unstoppable cascade of melting that ceases only when the ocean becomes ice-free. 

Implications of a permanently ice-free Arctic for the environment and for national and economic security are significant, driving deep interest in predictive capabilities in the region. Wagner and Eisenman’s research was co-funded by the Office of Naval Research (ONR) and by the National Science Foundation. It supports the goals of the Navy’s U.S. Arctic Roadmap, which calls for an assessment of changes in the Arctic Ocean to clarify the national security challenges for future naval operations as this strategic region becomes increasingly accessible. “The Navy has broad interest in the evolution of the Arctic,” said the ONR’s Frank Herr. “Sea ice dynamics are a critical component of the changing environmental picture. Our physical models lack important details on the processes controlling ice formation and melting, thus ONR is conducting a series of experimental efforts on sea ice, open water processes, acoustics, and circulation.”

During the past several years, scientists using global climate models (GCMs) that are more complex than process models found sea ice loss in response to rising greenhouse gases in their computer simulations is actually reversible when greenhouse levels are reduced. “It wasn’t clear whether the simpler process models were missing an essential element, or whether GCMs were getting something wrong,” said Wagner, the lead author of the study. “And as a result, it wasn’t clear whether or not a tipping point was a real threat.” Wagner and Eisenman resolve this discrepancy in the study in an upcoming Journal of Climate article,  “How Climate Model Complexity Influences Sea Ice Stability.”

They created a model that bridged the gap between the process models and the GCMs, and they used it to determine what caused sea ice tipping points to occur in some models but not in others. “We found that two key physical processes, which were often overlooked in previous process models, were actually essential for accurately describing whether sea ice loss is reversible,” said Eisenman, a professor of climate dynamics at Scripps Oceanography. “One relates to how heat moves from the tropics to the poles and the other is associated with the seasonal cycle. None of the relevant previous process modeling studies had included both of these factors, which led them to spuriously identify a tipping point that did not correspond to the real world.” “Our results show that the basis for a sea ice tipping point doesn’t hold up when these additional processes are considered,” said Wagner. “In other words, no tipping point is likely to devour what’s left of the Arctic summer sea ice. So if global warming does soon melt all the Arctic sea ice, at least we can expect to get it back if we somehow manage to cool the planet back down again.”

Auch am Hamburger Max Planck Institut für Meteorologie nimmt man nun Abstand von den Kippunkten. Dirk Notz beschrieb im PAGES Magazin 2017 die wichtige Rolle der natürlichen Klimavariabilität:

Arctic sea ice seasonal-to-decadal variability and long-term change

[...]

Conclusions:

This short overview presents some recent work on the variability and long-term evolution of Arctic sea ice area. For space constraints, the focus was only on September sea ice coverage as this is the month with the strongest observed trends. The discussion can be summarized as follows:

- On seasonal time scales, atmospheric internal variability and its imprint on sea ice renders skillful predictions of September sea ice coverage more than two months in advance inherently difficult.

- On annual time scales, negative feedbacks stabilize the sea ice cover. There is no “tipping point” beyond which the loss of the remaining summer sea ice becomes unstoppable.

- On decadal time scales, internal climate variability can cause a substantial acceleration or temporary recovery of the sea ice cover that renders the evaluation of individual model simulations based on their short-term trends impossible.

- On longer time scales, internal variability causes a substantial spread in possible 30-year long trends supporting for the production of large model ensembles. Nevertheless, the impact of anthropognic forcing on the long-term sea ice evolution is clear, with an average loss of 3 m2 of September sea ice cover per metric ton of anthropogenic CO2 emission.

Auch Runge und Kollege beschäftigten sich 2016 in Nature Climate Change mit fehlgegangenen Klimaprognosen:

Detecting failure of climate predictions
The practical consequences of climate change challenge society to formulate responses that are more suited to achieving long-term objectives, even if those responses have to be made in the face of uncertainty1,2. Such a decision-analytic focus uses the products of climate science as probabilistic predictions about the effects of management policies3. Here we present methods to detect when climate predictions are failing to capture the system dynamics. For a single model, we measure goodness of fit based on the empirical distribution function, and define failure when the distribution of observed values significantly diverges from the modelled distribution. For a set of models, the same statistic can be used to provide relative weights for the individual models, and we define failure when there is no linear weighting of the ensemble models that produces a satisfactory match to the observations. Early detection of failure of a set of predictions is important for improving model predictions and the decisions based on them. We show that these methods would have detected a range shift in northern pintail 20 years before it was actually discovered, and are increasingly giving more weight to those climate models that forecast a September ice-free Arctic by 2055.

Modelle, die ein schnelles Verschwinden des Arktiseises postulieren, sind offenbar wenig vertrauenswürdig. Erst ab 2055 könnte es soweit sein, falls die Erderwärmung ungebremst fortschreiten sollte. Wie geht es nun wirklich weiter? Wissenschaftler nehmen heute an, dass sich das Meereis im arktischen Atlantik in den nächsten zehn Jahren wieder vergrößern wird, wie Eos 2016 unter Hinweis auf Yeager et al. 2015 berichtete. Grund: Die Ozeanzyklen.

Atlantic Sea Ice Could Grow in the Next Decade
Changing ocean circulation in the North Atlantic could lead to winter sea ice coverage remaining steady and even growing in select regions.

Weiterlesen in Eos.

Bei den Prognostikern ist zwischenzeitlich eine goße Diskussion ausgebrochen. Weshalb lagen sie dermaßen falsch? Welche Komponenten ihrer Modelle haben versagt? Eos berichtete über den Diskussionsstand hier. Scafetta & Mazzarella forderten 2015, dass die natürliche Variabilität in den Modellen nachgebessert wird:

Our results imply that the climate is regulated by natural mechanisms and natural oscillations that are not included yet in the climate models

Anstatt der vormals befürchteten stetigen Eisschmelze, gehen Forscher nun von einer starken Beeinflussung durch die natürliche Klimavariabilität aus. Hierzu eine Pressemitteilung der University of Colorado at Boulder von 2015 (via Science Daily):

Erratic as normal: Arctic sea ice loss expected to be bumpy in the short term
Arctic sea ice extent plunged precipitously from 2001 to 2007, then barely budged between 2007 and 2013. Even in a warming world, researchers should expect such unusual periods of no change — and rapid change — at the world’s northern reaches, according to a new paper.

“Human-caused global warming is melting Arctic sea ice over the long term, but the Arctic is a variable place, said Jennifer Kay, a fellow of the Cooperative Institute for Research in Environmental Sciences at the University of Colorado Boulder and co-author of the new analysis out today in Nature Climate Change. Natural ups and downs of temperature, wind and other factors mean that even as sea ice slowly melts, random weather can mask or enhance the long-term trend. For example, even in a warming world, there’s still a one-in-three chance that any seven-year period would see no sea ice loss, such as in 2007-2013, the new analysis shows. And the chaotic nature of weather can also occasionally produce sea ice loss as rapid as that seen in 2001-2007, even though the long-term trend is slower.

Neither time period should be used to forecast the long-term future of the region, Kay and her colleagues concluded. Some commentators tracking sea ice trends have used the recent “pause” in sea ice loss to claim that human-caused climate warming is not occurring; others previously used the rapid decline from 2001-2007 to speculate about ice-free Arctic summers by 2015. Neither claim is warranted, the authors report. “To understand how climate change is affecting the Arctic, you cannot cherry pick short stretches of time,” Kay said. “Seven years is too short.” The research team, led by Neil Swart of Environment Canada, analyzed both long-term records of Arctic sea ice observations and an extensive dataset of results from global climate models. From the model runs, they could calculate the chances that certain types of scenarios could play out in a slowly warming Arctic: For example, just how likely is it that sea ice would not decline during a seven-year stretch? The team focused on September measurements of sea ice, which is when the extent reaches a yearly minimum. By early October, Arctic sea ice generally begins growing again, a seasonal response to colder temperatures and shorter days.

The researchers determined that a seven-year period is too short to accurately capture long-term sea ice trends in the region. Even given long-term melting, there’s a 34-percent chance of randomly getting an unusual period of no change or even growth in sea ice, and a 5-percent chance of a period of very rapid loss, similar to the decline in 2001-2007. The team also increased the time period of analysis, to see if longer spans of time would be long enough. In about 5 percent of model simulations, there were even 20-year time periods with no loss of sea ice, despite strong human-caused warming. “It is quite conceivable that the current period of near zero sea-ice trend could extend for a decade or more, solely due to weather-induced natural variability hiding the long-term human caused decline,” said Ed Hawkins, a co-author and researcher at the National Centre for Atmospheric Science, University of Reading. “Human caused climate warming has driven a decline in Arctic September sea-ice extent over the past few decades,” the new paper reports, and “this decline will continue into the future.” But understanding how and why natural variability affects sea ice trends should help scientists better predict how sea ice will evolve in upcoming years and decades, with implications for natural ecosystems, shipping routes, energy development and more.

Paper: Neil C. Swart, John C. Fyfe, Ed Hawkins, Jennifer E. Kay, Alexandra Jahn. Influence of internal variability on Arctic sea-ice trends. Nature Climate Change, 2015; 5 (2): 86 DOI: 10.1038/nclimate2483

Die neue Prognosestrategie: Beobachtete Daten, empirische Zusammenhänge und Ozeanzyklen verstärkt in die Berechnungen einbeziehen. Die Zeit der physikalischen Freistilmodellierungen ist nun endgültig vorbei. Beispiel Barents Sea, Onarheim et al. 2015:

Skillful prediction of Barents Sea ice cover
A main concern of present climate change is the Arctic sea ice cover. In wintertime, its observed variability is largely carried by the Barents Sea. Here we propose and evaluate a simple quantitative and prognostic framework based on first principles and rooted in observations to predict the annual mean Barents Sea ice cover, which variance is carried by the winter ice (96%). By using observed ocean heat transport and sea ice area, the proposed framework appears skillful and explains 50% of the observed sea ice variance up to 2 years in advance. The qualitative prediction of increase versus decrease in ice cover is correct 88% of the time. Model imperfections can largely be diagnosed from simultaneous meridional winds. The framework and skill are supported by a 60 year simulation from a regional ice-ocean model. We particularly predict that the winter sea ice cover for 2016 will be slightly less than 2015.

Ist schmelzendes Meereis eigentlich so schlimm? Forscher fanden nun, dass die Schmelze das Leben in den freigegebenen Meeresgebieten anfacht. Presemitteilung der University of Southern Denmark von 2017:

Melting sea ice may lead to more life in the sea

Every year an increasing amount of sea ice is melting in the Arctic. This can start a chain reaction, which leads to increased production of algae and hence more food for creatures in the sea.

When spring arrives in the Arctic, both snow and sea ice melt, forming melt ponds on the surface of the sea ice. Every year, as global warming increases, there are more and larger melt ponds.

Melt ponds provide more light and heat for the ice and the underlying water, but now it turns out that they may also have a more direct and potentially important influence on life in the Arctic waters.

Mats of algae and bacteria can evolve in the melt ponds, which can provide food for marine creatures. This is the conclusion of researchers in the periodical, Polar Biology.

Own little ecosystems

- The melt ponds can form their own little ecosystem. When all the sea ice melts during the summer, algae and other organisms from melt ponds are released into the surrounding seawater. Some of this food is immediately ingested by creatures living high up in the water column. Other food sinks to the bottom and gets eaten by seabed dwellers, explains Heidi Louise Sørensen, who is the principal author of the scientific article, continuing:

- Given that larger and larger areas of melt ponds are being formed in the Arctic, we can expect the release of more and more food for creatures in the polar sea.

Heidi Louise Sørensen studied the phenomenon in a number of melt ponds in North-Eastern Greenland as part of her PhD thesis at University of Southern Denmark (SDU). Bo Thamdrup and Ronnie Glud of SDU, and Erik Jeppesen and Søren Rysgaard of Aarhus University also contributed to the work.

Food for seals and sea cucumbers

In the upper part of the water column it is mainly krill and copepods that benefit from the nutrient-rich algae and bacteria from melt ponds. These creatures are eaten by various larger animals, ranging from amphipods to fish, seals and whales. Deeper down, it is seabed dwellers such as sea cucumbers and brittle stars that benefit from the algae that sink down.

For some time now, researchers have been aware that simple biological organisms can evolve in melt ponds – they may even support very diverse communities. But so far it has been unclear why sometimes there are many organisms in the ponds, and on other occasions virtually none.

According to the new study, ‘nutrients’ is the keyword. When nutrients such as phosphorus and nitrogen find their way into a melt pond, entire communities of algae and micro-organisms can flourish.

From the Siberian tundra

Nutrients can find their way into a melt pond in a variety of ways, For example, they can be washed in with waves of sea water; they can be transported by dust storms from the mainland (for example, from the Siberian tundra); or they can be washed with earth from the coast out on the ice, when it rains.

Finally, migratory birds or other larger animals resting on the ice can leave behind sources of nutrient.

- Climate change is accompanies by more storms and more precipitation, and we must expect that more nutrients will be released from the surroundings into the melt ponds. These conditions, plus the fact that the distribution of areas of melt ponds is increasing, can contribute to increased productivity in plant and animal life in the Arctic seas, says Professor Ronnie N. Glud of the Department of Biology at SDU.

Warmer and more windy

There are further factors that may potentially contribute to increased productivity in the Arctic seas:

• When the sea ice disappears, light can penetrate down into the water.
• When the sea ice disappears, wind and storms can stir the water up, bringing nutrients up to the surface from deep water. When it gets warmer on the mainland, this creates more melt water, which can flow out into the sea, carrying nutrients in its wake.

Ebenfalls 2017 berichtete Deutschlandfunk Nova über Algenblüten unter dem Eis. Der Spin der Meldung ist überraschend positiv:

Diese Art von Algen im Meer nennt man auch Phytoplankton. Und sie sind sehr wichtig – denn sie regulieren das Klima. Die Algen nehmen beim Wachsen Kohlendioxid auf und geben Sauerstoff ab.

 

Foto: Greenland Travel. Verwendung mit freundlicher Genehmigung

 

Klima und Mensch – eine 12.000-jährige Geschichte

Weihnachtliche Gedanken zur Situation der Wissenschaft in Deutschland in der Süddeutschen Zeitung am 26. Dezember 2017:

Die Wissenschaft muss tun, was sie tut – nur besser

[...] Ein erfreuliches Signal war der Science March im Frühjahr dieses Jahres, bei dem Zehntausende Forscher weltweit auf die Straße gingen. Doch birgt diese Form gesellschaftlicher Auseinandersetzung auch eine Gefahr. Sie nährt den Eindruck, Wissenschaft sei nur ein Spieler von vielen im pluralistischen Gerangel um Macht und Einfluss. Eine Strömung, der man sich anschließen kann – oder auch nicht.

Damit geriete die Wissenschaft in eine Position, die ihr weder gut tut noch zusteht. Darauf hat Peter Strohschneider, Präsident der Deutschen Forschungsgemeinschaft, in diesem Sommer in einer soeben zur Rede des Jahres ausgezeichneten Ansprache hingewiesen. Er warnte vor einer “Szientokratie”, in der “politische Macht durch Wahrheit anstatt durch Mehrheit und Verfassung legitimiert” wird. Forscher dürften sich nicht als Instanz des Wahrheitsbesitzes verstehen, “sondern als diejenigen der rationalen, methodischen Suche nach Wahrheit”. Wie ist das in den wissenschaftlichen Alltag zu übersetzen? Die Antwort klingt banal, ist es aber nicht: Die Wissenschaft muss tun, was sie tut, nur besser. Puristischer. Mit härteren Standards. Weniger vollmundig. [...]

Ganzen Artikel in der Süddeutschen Zeitung lesen.

Sicher ist das auch eine Warnung an das PIK, bei dem Wissenschaft munter mit Aktivismus und Politik vermengt werden. Kein guter Ansatz, wie der Präsident der DFG jetzt noch einmal attestiert. Kanzlerin Merkel gefällt es offenbar, denn sie lässt die Potsdamer seit Jahren gewähren, ja unterstützt mit allen Kräften.

——————

Die Tage der Schokolade scheinen gezählt zu sein. Ab 2050 besteht das Risiko, dass es keine Schokolade mehr gibt, Schuld daran hätte der Klimawandel, sagt die University of California at Berkeley. Die Story scheint direkt aus dem Lehrbuch für effektiven Klimaalarm und moderne Klimapropaganda entsprungen zu sein. Regel 1: Man nehme ein Thema, das den Menschen nahe geht und sie persönlich anspricht. Das kann ein knuddeliger Eisbär sein, ein regionaler Sturm des Vortages oder halt Schokolade. Merken die Leute wirklich nicht, welches Spiel hier mit ihnen gespielt wird?

——————

Der Paläoklimatologe Heinz Wanner hat ein neues Buch geschrieben: “Klima und Mensch – eine 12’000-jährige Geschichte“. In der Amazon-Buchbeschreibung heißt es:

Wie das Klima die menschliche Geschichte beeinflusst dargestellt vom Doyen der Klimaforschung
Während des Holozäns, der gegenwärtigen Warmzeit, hat das Klima die menschliche Geschichte und die gesellschaftlichen Entwicklungen immer wieder markant beeinflusst. Der bekannte Klimaforscher Heinz Wanner beschreibt die grundlegenden Vorgänge im Klimasystem und erläutert die wissenschaftlichen Analysemöglichkeiten mittels rekonstruierter Daten und Modellsimulationen. Das Klima des Holozäns wird ausführlich dargestellt, wobei der Schwerpunkt auf auslösenden Faktoren der Klimaschwankungen sowie auf räumlichen Mustern des Klimawandels liegt. Der Autor geht der Frage nach, wie einzelne Gesellschaften weltweit auf extreme Klimaperioden wie Trocken- oder Kältephasen reagiert haben, zum Beispiel die Pueblos in Nordamerika, die Inuit und die Wikinger in Grönland, die Bewohner der Sahara oder die Harappankultur der Indusebene. Ein hoch aktuelles Buch, von einem der international renommiertesten Klimageografen, in spannender, auch für interessierte Laien verständlicher Sprache verfasst und mit vielen informativen Grafiken und Übersichtsfotos illustriert. Ein Werk, das die Zusammenhänge zwischen Klima und den großen gesellschaftlichen Umwälzungen der letzten 12 000 Jahre fundiert aufzeigt.

 

Das Inhaltsverzechnis liest sich gut. Unter anderem geht es um die Mittelalterliche Wärmeperiode, die Wanner zumindest im Glossar fälschlicherweise auf den Raum Nordatlantik/Europa beschränkt sieht. Diese Sichtweise ist mittlerweile veraltet, da die MWP auf allen Kontinenten dokumentiert wurde. Immerhin geht es aber auch um die Bond-Zyklen und solare Einflüsse auf das Klima. Die dkS-Redaktion hat das Buch leider nicht vorliegen. Auf Seite 65 im Buch kommen offenbar Fritz Vahrenholt und Sebastian Lüning (im Personenverzeichnis als ‘Lühning’ falsch geschrieben) vor. Was schreibt Wanner über Die kalte Sonne? Vielleicht hat einer unserer Blogleser das Buch? Über Hinweise wären wir dankbar (Kontakt).

In einem kürzlichen Vortrag beschrieb Wanner die starken Klimaschwankungen des Holozän recht genau und gab zu, dass man die warme Römerzeit und die MWP nicht ohne die Schwankungen der Sonnenaktivität erklären kann (obwohl er natürlich den Vulkan-Joker als ersten und folglich scheinbar wichtigeren Faktor erwähnte). Er gab auch beiläufig zu, dass die alpinen Gletscher zur Römerzeit und früher viel kleiner waren als heute.

Für die Erwärmung seit 1860 sind für Wanner die Menschen zu 2/3 und natürliche Faktoren zu 1/3 verantwortlich. Und er empfiehlt als Stocker-Mentor natürlich die totale und sofortige Dekarbonisierung der Wirtschaft, obwohl er zugeben musste, dass die Welt nach seinen Vorstellungen, ohne fossiles CO2, ja noch zu zwei Dritteln in der Kleinen Eiszeit stecken würde und es ungemütlich kühl wäre, nachdem die Kleine Eiszeit die kälteste Phase des Holozän seit dem 8,2 ka Event war…

In der Diskussion hat er auch Herrn Vahrenholt etwas despektierlich erwähnt, in dem er sinngemäss meinte, es sei ja billig und einfach Vorhersagen zu machen, die sich erst in ferner Zukunft erfüllen könnten und so nicht nachprüfbar wären. Bei diesem Punkt hat Wanner natürlich “Steine im Glashaus geworfen”, weil er selbst ständig vor Gefahren (vor allem Meerespiegelanstieg um 20 cm pro Grad Erwärmung und Dürre- und Flutkatastrophen) am Ende des Jahrhunderts warnte (also erst in ca. 80 Jahren) während die DkS-Vorhersagen ja schon in ca. 20 Jahren weitgehend beurteilt werden können.

 

Das dunkle Geheimnis des Larsen C Eisschelfs: Bereits im 18. Jahrhundert war es dort ziemlich warm

Mitte Juli 2017 schockte die Welt mit einem Klimadrama aus der Antarktis:

Riesiger Eisberg bricht von der Antarktis ab
Diesem Augenblick haben Forscher seit Monaten entgegengefiebert: In der Westantarktis ist vom Larsen-C-Schelfeis ein gigantischer Eisberg abgebrochen, der zuletzt nur noch an einer schmalen Verbindung hing. [...] Die Antarktis ist besonders stark vom Klimawandel betroffen: Sie zählt zu den sich am schnellsten erwärmenden Gebieten unseres Planeten. Die Forscher heben hervor, dass das Abbrechen eines Eisberges ein „Naturereignis“ sei, das nicht direkt mit dem Klimawandel in Zusammenhang gebracht werden könne. Allerdings ist die Antarktis besonders stark vom Klimawandel betroffen: Sie zählt zu den sich am schnellsten erwärmenden Gebieten unseres Planeten.

Ganzen Beitrag in der Welt lesen.

Das ist natürlich ganz schön großer Murks. Die starke Erwärmung der Antarktischen Halbinsel vor einigen Jahrzehnten, hat sich mittlerweile in eine starke Abkühlung umgewandelt. Eine Vielzahl von Publikationen konzidieren, dass sich die Temperaturen der Antarktis noch immer nicht von der natürlichen Schwankungsbreite gelöst haben. Glauben Sie nicht? Lesen Sie selbst in einem Paper von Josef Ludescher und Kollegen, an dem auch Hans Joachim Schellnhuber beteiligt war. Und dem Papstberater wollen Sie doch wohl nicht misstrauen, oder? Hier der Abstract des Fachartikels, der 2016 in Climate Dynamics erschien:

Long-term persistence enhances uncertainty about anthropogenic warming of Antarctica
Previous estimates of the strength and the uncertainty of the observed Antarctic temperature trends assumed that the natural annual temperature fluctuations can be represented by an auto-regressive process of first order [AR(1)]. Here we find that this hypothesis is inadequate. We consider the longest observational temperature records in Antarctica and show that their variability is better represented by a long-term persistent process that has a propensity of large and enduring natural excursions from the mean. As a consequence, the statistical significance of the recent (presumably anthropogenic) Antarctic warming trend is lower than hitherto reported, while the uncertainty about its magnitude is enhanced. Indeed, all records except for one (Faraday/Vernadsky) fail to show a significant trend. When increasing the signal-to-noise ratio by considering appropriate averages of the local temperature series, we find that the warming trend is still not significant in East Antarctica and the Antarctic Peninsula. In West Antarctica, however, the significance of the trend is above 97.4%” role=”presentation”>97.4%, and its magnitude is between 0.08 and 0.96 °C per decade. We argue that the persistent temperature fluctuations not only have a larger impact on regional warming uncertainties than previously thought but also may provide a potential mechanism for understanding the transient weakening (“hiatus”) of the regional and global temperature trends.

Kein statistish signifikanter Trend der Antarktistemperaturen, eher ein Erwärmungshiatus. Dazu muss man wissen, dass es aus der Westantarktis kaum Daten gibt, Aussagen über diese Region daher mit absoluter Vorsicht zu genießen sind.

Aber zurück zum Larsen-Eisschelf. Suzanne Bevan und Kollegen haben die Schmelzentwicklung dieser Eismasse anhand einer Eisbohrkernserie rekonstruiert. Sie fanden zwei Wärmeperioden. Eine begann um 1960 und eine andere ereignete sich während des 18. Jahrhunderts. Die heutige Schmelze ist daher nichts Neues. Das wird alle enttäuschen, die sich so sicher waren, einem noch nie dagewesenen und irriversiblen Ereignis beizuwohnen. Pustekuchen. Hier der Abstract von Bevan et al. 2017 aus The Cryosphere:

Centuries of intense surface melt on Larsen C Ice Shelf
Following a southward progression of ice-shelf disintegration along the Antarctic Peninsula (AP), Larsen C Ice Shelf (LCIS) has become the focus of ongoing investigation regarding its future stability. The ice shelf experiences surface melt and commonly features surface meltwater ponds. Here, we use a flow-line model and a firn density model (FDM) to date and interpret observations of melt-affected ice layers found within five 90 m boreholes distributed across the ice shelf. We find that units of ice within the boreholes, which have densities exceeding those expected under normal dry compaction metamorphism, correspond to two climatic warm periods within the last 300 years on the Antarctic Peninsula. The more recent warm period, from the 1960s onwards, has generated distinct sections of dense ice measured in two boreholes in Cabinet Inlet, which is close to the Antarctic Peninsula mountains – a region affected by föhn winds. Previous work has classified these layers as refrozen pond ice, requiring large quantities of mobile liquid water to form. Our flow-line model shows that, whilst preconditioning of the snow began in the late 1960s, it was probably not until the early 1990s that the modern period of ponding began. The earlier warm period occurred during the 18th century and resulted in two additional sections of anomalously dense ice deep within the boreholes. The first, at 61 m in one of our Cabinet Inlet boreholes, consists of ice characteristic of refrozen ponds and must have formed in an area currently featuring ponding. The second, at 69 m in a mid-shelf borehole, formed at the same time on the edge of the pond area. Further south, the boreholes sample ice that is of an equivalent age but which does not exhibit the same degree of melt influence. This west–east and north–south gradient in the past melt distribution resembles current spatial patterns of surface melt intensity.

 

Marum: Me­than­hy­drat­auf­lö­sung vor Spitz­ber­gen nicht durch Kli­ma­wan­del be­dingt

Pressemitteilung des marum (Bremen) vom 8. Januar 2018:

————

Me­than­hy­drat­auf­lö­sung vor Spitz­ber­gen nicht durch Kli­ma­wan­del be­dingt

Stu­die iden­ti­fi­ziert nach­eis­zeit­li­che Pro­zes­se als Ur­sa­che

Im Po­lar­meer vor Spitz­ber­gen wer­den seit Jah­ren Me­than­quel­len am Mee­res­bo­den be­ob­ach­tet. Die Ver­mu­tung, dass die Er­wär­mung des Meer­was­sers durch den Kli­ma­wan­del für die Frei­set­zung von Me­than ver­ant­wort­lich ist, hat sich nicht be­stä­tigt. Die For­schungs­er­geb­nis­se ei­nes in­ter­na­tio­na­len Teams zei­gen, dass nach­eis­zeit­li­che Land­he­bun­gen die wahr­schein­lichs­te Ur­sa­che für die Auf­lö­sung von Me­than­hy­dra­ten ist. Die Stu­die ist jetzt in der in­ter­na­tio­na­len Fach­zeit­schrift Nature Communications er­schie­nen. (Ge­mein­sa­me Pres­se­mit­tei­lung des MARUM – Zen­trum für Ma­ri­ne Um­welt­wis­sen­schaf­ten an der Uni­ver­si­tät Bre­men und des GEO­MAR Helm­holtz-Zen­trum für Oze­an­for­schung Kiel)

Me­than­hy­dra­te, auch als bren­nen­des Eis be­zeich­net, kom­men in vie­len Re­gio­nen der Ozea­ne vor. Aber nur un­ter ho­hem Druck und kal­ten Tem­pe­ra­tu­ren geht das Pro­dukt aus Me­than und Was­ser eine fes­te Ver­bin­dung ein. Wird der Druck zu ge­ring oder die Tem­pe­ra­tur zu hoch, lö­sen sich die Hy­dra­te auf, das Me­than wird als Gas frei­ge­setzt und ent­weicht aus dem Bo­den in die Was­ser­säu­le. Vor Spitz­ber­gen wer­den be­reits seit ei­ni­gen Jah­ren star­ke Aus­ga­sun­gen be­ob­ach­tet. Ent­weicht das Me­than aus zer­setz­ten Me­than­hy­dra­ten? Was ist die Ur­sa­che für eine Auf­lö­sung der Me­than­hy­dra­te? Er­wär­mung be­dingt durch den Kli­ma­wan­del oder an­de­re, na­tür­li­che Pro­zes­se? Ein in­ter­na­tio­na­les Team von For­schen­den konn­te nun eine Ant­wort auf die­se Fra­gen ge­ben, die in der in­ter­na­tio­na­len Fach­zeit­schrift Na­tu­re Com­mu­ni­ca­ti­ons ver­öf­fent­licht wor­den ist.

„Un­se­re Un­ter­su­chun­gen zei­gen, dass in die­ser Re­gi­on die He­bung, be­dingt durch das Ab­schmel­zen der Eis­mas­sen, ver­mut­lich seit dem Ende der letz­ten Eis­zeit schon seit ei­ni­gen Tau­send Jah­ren zur Auf­lö­sung von Me­than­hy­drat im Mee­res­bo­den führt“, er­läu­tert Prof. Dr. Klaus Wall­mann, Er­st­au­tor der Stu­die vom GEO­MAR Helm­holtz-Zen­trum für Oze­an­for­schung Kiel. „Die Re­gi­on hat sich stär­ker ge­ho­ben, als der Mee­res­spie­gel an­ge­stie­gen ist, da­durch kam es zu ei­ner Druck­ent­las­tung, so­dass sich die Me­than­hy­dra­te an der Sta­bi­li­täts­gren­ze auf­lö­sen“, so Wall­mann wei­ter.

Für ihre Un­ter­su­chun­gen führ­ten die Wis­sen­schaft­le­rin­nen und Wis­sen­schaft­ler die Ex­pe­di­ti­on MSM 57 mit dem deut­schen For­schungs­schiff Ma­ria S. Me­ri­an un­ter der Lei­tung des Bre­mer For­schungs­zen­trums MARUM – Zen­trum für Ma­ri­ne Um­welt­wis­sen­schaf­ten an der Uni­ver­si­tät Bre­men durch. Da­bei wur­de auch das Bohr­ge­rät MARUM-Me­Bo70 ein­ge­setzt. „Mit die­sem Spe­zi­al­ge­rät konn­ten wir erst­mals in dem Mee­res­ge­biet lan­ge Se­di­ment­ker­ne ge­win­nen, was bei vie­len an­de­ren Ex­pe­di­tio­nen nicht mög­lich war“, er­klärt Fahrt­lei­ter Prof. Dr. Ger­hard Bohr­mann vom MARUM. „Dar­in fan­den wir si­gni­fi­kan­te Süß­was­ser­men­gen, die aus auf­ge­lös­ten Hy­dra­ten stam­men“, so Bohr­mann wei­ter. Die­ser Pro­zess, so konn­ten die For­schen­den nach­wei­sen, be­gann schon vor 8.000 Jah­ren, kann also nicht durch die Kli­ma­er­wär­mung der ver­gan­ge­nen Jahr­zehn­te be­dingt sein.

Ne­ben den geo­che­mi­schen Ana­ly­sen wur­den auch Er­geb­nis­se ei­ner Mo­dell­si­mu­la­ti­on der Eis­ver­tei­lung in der Ark­tis seit der letz­ten Eis­zeit her­an­ge­zo­gen. „Die Re­sul­ta­te zei­gen, dass die Ge­schwin­dig­keit der is­osta­ti­schen He­bung an un­se­ren Bohr­stand­or­ten nach dem Ab­schmel­zen den eu­sta­ti­schen Mee­res­spie­gel­an­stieg in der ge­sam­ten Nach­eis­zeit über­stieg“, so Prof. Bohr­mann. „An­ders aus­ge­drückt: Das Land hat sich ra­scher und stär­ker ge­ho­ben, als der Mee­res­spie­gel stieg, so­dass der Druck auf die Hy­dra­te nach­ließ und sie schließ­lich in­sta­bil wur­den“, er­gänzt Prof. Wall­mann. Da­her sei die Auf­lö­sung von Hy­dra­ten mit die­sem Pro­zess zu er­klä­ren, zu­mal die Er­wär­mung des Meer­was­sers in tie­fen Schich­ten des Oze­ans bis­lang noch ge­ring ist, so die For­scher

Die Un­ter­su­chun­gen vor Spitz­ber­gen zei­gen eine Me­than­frei­set­zung, die nicht auf Kli­ma-Er­wär­mung zu­rück­zu­füh­ren ist. Ob dies für wei­te­re Ge­bie­te der Ark­tis oder auch in mitt­le­ren Brei­ten zu­trifft, dazu sind wei­te­re For­schungs­an­stren­gun­gen auch an an­de­ren Lo­ka­tio­nen not­wen­dig.

Auf der Fahrt wur­de das Mee­res­bo­den-Bohr­ge­rät (MARUM-Me­Bo70) zum ers­ten Mal vor Spitz­ber­gen ein­ge­setzt – ein mo­bi­les Bohr­ge­rät, das von al­len gro­ßen For­schungs­schif­fen aus bis zu 2000 Me­ter Was­ser­tie­fe 70 Me­ter tief in den Mee­res­bo­den boh­ren kann. Es wur­de im MARUM ent­wi­ckelt und wird seit 2005 an­ge­fragt, um un­ter­schied­li­che wis­sen­schaft­li­che Fra­ge­stel­lun­gen zu klä­ren.

 

Originalpublikation: Wall­mann, K., M. Rie­del, W. L. Hong, H. Pat­ton, A. Hub­bard, T. Pape, C.W. Hsu, C. Schmidt, J. E. John­son, M. E. Tor­res, K. An­dre­as­sen, C. Berndt, and G. Bohr­mann, 2017: Gas Hy­dra­te Dis­so­cia­ti­on off Sval­bard In­du­ced by Is­osta­tic Re­bound ra­ther than Glo­bal War­ming. Na­tu­re Com­mu­ni­ca­ti­on, DOI: 10.1038/s41467-017-02550-9

 

Horst Lüning: Die Klimamodelle stimmen nicht mehr – Zeit zum Umdenken

Am 5. Dezember 2017 brachte die Deutsche Welle einen Filmbeitrag mit dem Titel:

Im Senegal und in Westafrika kämpfen Dörfer gegen den Klimawandel
Überall im westlichen Afrika nehmen Menschen in ländlichen Gemeinden die Zukunft in die eigenen Hände. Ihre örtlichen Initiativen bekämpfen Klimawandel und Verschmutzung und verbessern Gesundheitswesen und Bildung. [...] in Afrikas Dimitra Clubs kommen Frauen und Männer aus ländlichen Gemeinden zweimal im Monat zusammen, um Themen wie Abfall, Gesundheit und Landwirtschaft zu diskutieren und aktiv zu werden.

Beitrag hier anschauen.

Was hat das Ganze mit dem Klimawandel zu tun? Im knapp 7-minütigen Film taucht der Begriff kaum auf. Es geht um die Einrichtung von lokalen Gesprächsgruppen, bei denen auch die Frauen beteiligt werden und Fragen zur Hygiene, Sauberkeit, Flächenrenaturierung und anderes besprechen. Der “Klimawandel” wird anhand von Dürren und Starkregen angesprochen. Allerdings hat man sch offenbar in der Terminologie geirrt, denn man meinte offenbar Extremwetter, das es stets gegeben hat.

Der wahre Hintergrund, weshalb auch diese wirklich gute Initiative mit dem “Klimawandel” verknüpft wird, sind die Klimaschutzgelder, die von der deutschen Regierung zur Verfügung gestellt werden. Früher hieß so etwas schlicht “Entwicklungshilfe”, heute “Klimaschutzinitiative”. Eine kleine Etikettenschwindelei, um den heutigen Zeitgeist zu befriedigen. Wenn man davon einmal absieht: Eine gute Initiative und ein guter Film der Deutschen Welle. Wir wünschen dem Projekt viel Erfolg.

—————-

Lesenswerter Artikel von Björn Lomborg am 1. Dezember 2017 in der Chicago Sun Time:

Watch out for flawed arguments about climate change and hurricanes
[...] So it is no surprise that a recent poll reveals that more than half of Americans believe that climate change contributed to the severity of the hurricanes that have hit the United States and the Caribbean this season. In contrast, a month after Hurricane Katrina devastated New Orleans and the Gulf Coast in 2005, a similar poll found that only 39 percent of Americans believed climate change had played a role. Just because people believe something doesn’t make it true. The National Oceanic and Atmospheric Administration’s official statement takes the view that “it is premature to conclude that human activities – and particularly greenhouse gas emissions that cause global warming – have already had a detectable impact on Atlantic hurricane or global tropical cyclone activity.”

Ganzen Beitrag in der Chicago Sun Time lesen.

—————-

Elektroautofahren ist sexy. Insgeheim hofften wohl auch die Polo- und Fiat Uno-Fahrer-, dass sie jetzt Anspruch auf einen fetten Tesla hätten. Die Differenz zwischen herkömmlichem Miniauto und Elektro-Edelschlitten müsse halt der Staat zahlen. Zumindest in Deutschand ist dieser Traum des raschen Aufstiegs des fahrbaren Untersatzes ausgeträumt. Der Tesla wird in Deutschland nicht mehr mit staatlichen Subventionen gefördert, meldete Business Insider am 1. Dezember 2017. Die E-Limousine ist einfach zu teuer.

—————-

Horst Lüning: Die Klimamodelle stimmen nicht mehr – Zeit zum Umdenken

 

WWF-Weihnachtspulli würde fachliche Begutachtung nicht bestehen

Die Umweltaktvistenorganisation WWF hat in der Vergangenheit massiven Einfluss auf die IPCC-Berichte genommen. Nun haben die Aktivisten nachgelegt und zu Weihnachten einen “unbequemen Klimaschutzpullover” aufgelegt:

WWF zum Klimawandel – der unbequemste Weihnachtspulli der Welt

Der WWF lanciert den «Uncozy Sweater» und will damit auf die negativen Auswirkungen der Erderwärmung aufmerksam machen.

(Zürich)(PPS) Er sieht auf den ersten Blick aus wie ein normaler Weihnachtspulli: Schneeflöckchen, bunte Muster, Tiermotive. Doch wer den «Uncozy Sweater» genau anschaut, erkennt seine Andersartigkeit. Statt einer weihnachtlichen Idylle zeigt er die Folgen des Klimawandels: Wirbelstürme, schmelzendes Eis und Artensterben. Seine Motive machen ihn zum unbequemsten Weihnachtspulli der Welt, zum deutlichen Appell für den Kampf gegen den Klimawandel.

Weiterlesen beim WWF Schweiz (via PPS)

Auf der Frontseite die vermeintlichen Klimawandelfolgen: Wirbelstürme, schmelzendes Eis, Artensterben. Was nicht mehr auf den Pullover gepasst hat, waren Fußnoten. Denn die Wirbelstürme sind bislang gar nicht häufiger geworden und werden in Zukunft wohl auch seltener, Eis ist auch schon während der Mittelalterlichen Wärmeperiode geschmolzen und Arten sind vor allem durch politische Fehlplanungen und mangelnden Lebensstandard bedroht. Es wäre wünschenswert gewesen, wenn der WWF-Weihnachtspulli vor der Herstellung fachmännisch begutachtet worden wäre. Jetzt muss er wohl bald in die Altkleiderverwertung, denn wer will schon mit fehlerhaften Aussagen durch die Gegend rennen.

————

Das Verbreiten von Angst bringt Macht, Zugang zu Finanzmitteln und gruselig entzückte Leser. Warum hören wir so wenig von den positiven Entwicklungen in der Welt? Sind kleine Erfolge einfach zu langweilig? Aktivisten scheuen die guten Nachrichten wie der Teufel das Weihwasser. Denn zu viel Positives könnte die Leute vom Glauben an den Klimaalarmismus abbringen. Dina Pomeranz hat jetzt auf WUWT eine Sammlung an Diagrammen zusammengestellt, die eine positive Nachricht haben: Weniger Hunger, niedrigere Opferzahlen durch Naturkatastrophen und vieles mehr. Mal reinschauen.

————

Der Kölner Stadt-Anzeiger brachte am 7. Dezember 2017 ein lesenswertes Interview mit Joachim Radkau, Professor emeritus an der Universität Bielefeld und Autor zu umweltgeschichtlichen Fragen:

“Geschichte verläuft im Zickzack”

KÖLNER STADT-ANZEIGER: Herr Radkau, Sie haben eine “Geschichte der Zukunft” geschrieben. Wir blicken sorgenvoll nach vorne, gerade was die Folgen des Klimawandels betrifft. Wie sicher sind denn unsere düsteren Aussichten?

RADKAU: Zunächst eine Anekdote: Im Sommer 1976 machte ich mit meinen Studenten eine Exkursion in die Provence, es war brütend heiß. Ich hatte mir gerade die Theorie des Global Warming angelesen, die in dieser Hitze sehr plausibel wirkte, und trug diese den Studenten vor. Ein Student, der später ein Pressesprecher der Grünen wurde, sagte damals, das sei alles großer Quatsch, es wäre klar nachgewiesen worden, dass jetzt eine neue Eiszeit käme. Es habe bereits Abkühlungen gegeben. Anfang der 80er Jahre hieß es noch: Die nächste Eiszeit kommt bestimmt. [...] Vorbildlich finde ich den Gründervater des IPCC [der Zwischenstaatliche Ausschuss für Klimaänderungen, auch als Weltklimarat bekannt, d.Red.], Bert Bolin. [...] Er hatte im Jahr 2007 kurz vor seinem Tod ein zum Teil memoirenhaftes Buch “A History of the Science and Politics of Climate Change” publiziert, in dem er zugibt, dass diese Prognosen doch lange Zeit sehr unsicher gewesen sind. Er kritisiert sogar Angela Merkel dafür, dass sie 1995 als Bundesumweltministerin auf der Berliner Klimakonferenz schon zu stark auf Klimaalarm gemacht hätte. Obwohl das damals noch gar nicht so sicher nachgewiesen worden sei.

Ganzes Interview im Kölner Stadt-Anzeiger lesen.

Vielleicht haben Sie jetzt Lust auf Radkaus neues Buch “Geschichte der Zukunft: Prognosen, Visionen, Irrungen in Deutschland von 1945 bis heute” bekommen?

————

Die Rehwinkelstiftung fördert Studien zu den Auswirkungen des Klimawandels auf die deutsche Landwirtschaft.

 

Obama-Regierung wollte Comic-Figuren für den Klimakampf instrumentalisieren – Disney-Konzern lehnte ab

Beim Meeresspiegelanstieg glauben viele mitreden zu können. Dabei wissen die wenigsten, dass es gar nicht einen einzigen globalen Meeresspiegel gibt. Einige Küsten heben sich, andere senken sich; Ozeanzyklen lassen den Meeresspiegel im Zeitraum von Jahrzehnten anschwellen und fallen. Rainer Stadler hat im Dezember 2017 im Magazin der Süddeutschen Zeitung wichtige Aufklärungsarbeit geleistet:

Das Null-Problem
Weil sich das Klima ändert, steigen die Meere – das weiß heute jedes Kind. Doch der Meeresspiegel ist keine fixe Größe: Fast jedes Land versteht darunter etwas anderes. [...] Die Klimaforschung muss nicht nur mit zwei verschiedenen Meeresspiegeln umgehen, sondern mit Hunderten. Klar, die Gletscher schmelzen, auch die Eisschilde in Grönland und in der Antarktis. Trotzdem steigt der Meeresspiegel nicht überall. Vor Kanada und Skandinavien sinke er sogar, weil das Land sich hebe, erklärt der Münchner Geowissenschaftler Reinhard Rummel. Nach dem Ende der Eiszeit vor 10 000 Jahren verschwand auch dort das Eis, und seitdem steigen die von der Last befreiten Landflächen auf, um einen Zentimeter pro Jahr. Das werde noch 10 000 Jahre so weitergehen, sagt Rummel. Deshalb fällt ein klimabedingter Anstieg des Pegels von zwei, drei Millimetern jährlich dort kaum ins Gewicht. Für Aussagen über die globalen Folgen des Klimawandels braucht es aber eine Art durchschnittlichen globalen Meeresspiegel. Man könnte auf die Idee kommen, ihn einfach aus dem Weltall zu bestimmen, mittels GPS. Das Problem dabei: die Erdanziehung. In manchen Regionen der Erde ist sie stärker, in manchen schwächer.

Ganzen Artikel im Magazin der Süddeutschen Zeitung lesen.

Überhaupt kann man mit den Meeresspiegeldaten viel Schabernack anstellen. Im Indischen Ozean hatten Klimahardliner auf Basis von drei Messpegeln ein gefährliches Anstiegsszenario konstruiert. Einziges Problem: Die Daten gaben den gefährlichen Anstieg gar nicht her. Die Daily Mail berichtete am 14. Dezember 2017 über den Fall:

Dr Albert Parker and Dr Clifford Ollier, researchers at the University of Western Australia, are questioning measurements made by the Permanent Service of Mean Sea Level (PSMSL). The PSMSL collected raw data from three key sea level recording sites at Aden in Yemen, Karachi in Pakistan, and Mumbai in India. The PSMSL interpreted this data to suggest that there had been a dramatic increase in sea level in the Indian Ocean. But in the new study, the researchers suggest that the PSMSL only uses higher sea level readings from the raw data, and discounts readings that show lower sea levels.

Ganzen Artikel in der Daily Mail lesen. Breitbart gab dem Skandal auch bereits einen passenden Namen: Tidalgate. Breitbart-Artikel hier. Artikel auf Notrickszone hier.

———————

Die Obama-Regierung wollte Comic-Figuren für den Klimakampf instrumentalisieren. Der Disney-Konzern lehnte zum Glück ab. Bei Liam Gallagher, dem ehemaligen Leadsänger der britischen Rockband Oasis, hatten die Klimakämpfer mehr Erfolg. Er liest auf Youtube eine herzzrereißende Klimaalarmgeschichte. Mitten im Winter versucht er die Menschen von der Klimaerwärmung zu überzeugen. Didaktisch vielleicht nicht ganz so erfolgversprechend.

 

Noch eine Stufe verrückter ist der Musiker Pharrell Williams. Er nahm jetzt eine spezielle Single gegen den Klimawandel auf, die sogleich in einem Hochsicherheits-Safe weggeschlossen wurde. Erst in 100 Jahren darf der Safe geöffnet werden, wenn der Klimawandel dann erfolgreich bekämpft worden ist. Denn im Fall eines Scheiterns wird der Safe vom steigenden Meeresspiegel überflutet und der Song zerstört. Einfach klasse. Anzuschauen hier bei 7tv.de bei Minute 1.47.

———————

Selbstzweifel bei der WAZ am 14. Dezember 2017. Ist man den Klimaaktivisten vielleicht doch auf den Leim gegangen?

Abgemagerter Eisbär: Ist der Klimawandel gar nicht schuld?
Ein Post des taumelnden Eisbären sorgte im Netz für Aufregung
. Der Fotograf sieht den Klimawandel als Ursache. Experten sehen jedoch einen anderen Grund

Ganzen Artikel auf Der Westen lesen.

Und sogar der ansonsten streng auf IPCC-Klimaalarmlinie getrimmte Focus korrigierte frühere Schnellschüsse:

Woran starb das Tier wirklich? Dürrer Eisbär berührt Millionen: Experte äußert Zweifel an der Klimawandel-Theorie

Artikel beim Focus lesen.

———————

Friedrich-Karl Ewert am 13. Dezember 2017 in der Mitteldeutschen Zeitung:

Streitfall Erderwärmung „Klimawandel nicht auf menschliche Einflüsse zurückzuführen“
Auf der ersten UN-Umweltkonferenz in Stockholm 1972 ging es um Maßnahmen zum Schutze unserer Umwelt. Zwanzig Jahre später, 1992 in Rio de Janeiro, wurde der Grundstein für die UN-Klimaverhandlungen gelegt. Man beschloss, solche Konferenzen fortzusetzen, um Maßnahmen zum Schutze des Klimas zu verabreden, denn inzwischen stand der Klimaschutz im Vordergrund: Man glaubte, die seit etwa 1980 um wenige Zehntel Grad gemessene globale Erwärmung sei vor allem „anthropogen“ durch das Treibhausgas CO2 verursacht – also durch uns Menschen – ,und dass es „…um den Planeten zu retten…“ vor allem darauf ankomme, die CO2 -Emissionen der Industrieländer zu senken. Auf der Konferenz in Kyoto im Jahr 1997 verabschiedete die Staatengemeinschaft eine Klima-Rahmen-Konvention. Man hatte schon vergessen, dass wegen der Abkühlungsphase 1950-1980 in den späten 1970er Jahren noch eine neue Eiszeit befürchtet wurde.

Weiterlesen in der Mitteldeutschen Zeitung

 

Eisberg-Konfusion bei Bento: Wiedergeborener Freibeuter erklärt uns den Klimawandel

FAZ am 19. Dezember 2017:

Windenergie: Angst vor der Flaute
Bremst der Klimawandel die Windenergie aus? Eine neue Studie kommt zu diesem Ergebnis. Was sagen deutsche Experten dazu?

Der Windstromindustrie geht es eigentlich blendend. Der Global Wind Energy Council hat ausgerechnet, dass im Jahr 2016 installierte Leistung der Windkraftanlagen auf der Welt um fast 13 Prozent gestiegen ist. Im Jahr davor war es sogar noch etwas mehr. Doch eine Studie von Forschern der University of Colorado könnte der Branche zumindest auf den ersten Blick die Stimmung vermiesen. In der aktuellen Ausgabe von „Nature Geoscience“ berichtet das Team, dass der Klimawandel den Turbinen in unseren Breitengraden den Wind aus den Rotorblättern nehmen könnte.

Weiterlesen in der FAZ.

—————————-

Interessantes Interview zum RWE-Peru-Fall auf Juve.de am 18. Dezember 2017:

Klimawandel vor Gericht: „Ein Urteil gegen RWE wäre ein Dammbruch“

[...]

Alexandros Chatzinerantzis: [...] Und der Streitwert ist in einem Verfahren von so grundsätzlicher Bedeutung eher nebensächlich.

JUVE: Warum?
Alexandros Chatzinerantzis:
Der Ort, in dem der Kläger lebt, hat ja mehr als 120.000 Einwohner. Wenn der Kläger Recht bekommt, könnte auch allen anderen Schadensersatz zustehen. Und warum dann nur von RWE? Wäre erst mal grundsätzlich die Haftung von Emittenten für klimawandelbedingte Schäden anerkannt, könnte im Prinzip jeder jeden verklagen, denn wer atmet, emittiert CO2. Ein rechtskräftiges Urteil gegen RWE wäre ein Dammbruch.

JUVE: Aber mal Hand aufs Herz: Dazu wird es doch nicht kommen, oder?
Alexandros Chatzinerantzis: Wahrscheinlich nicht. Hier die Verletzungskausalität nachzuweisen ist einfach unfassbar schwierig: Schon dass RWE für 0,47 Prozent der Treibhausgase seit 1898 verantwortlich sein soll, ist ja eine mathematische Scheingenauigkeit. Seitdem gab es zwei Weltkriege, Atombomben, die Industrialisierung Chinas und vieles mehr. Aber selbst wenn ein Gutachter das Gericht von diesem Wert überzeugen könnte: Dann wäre noch längst nicht geklärt, ob RWE diesen Anteil auch am konkreten Schaden zu tragen hätte. Da müsste man wieder viele andere Faktoren mit untersuchen: Hat nicht etwa der peruanische Staat dafür zu sorgen, dass dieser Stausee entlastet wird, indem man Wasser abpumpt? Sollte man da überhaupt siedeln? Schon 1941 sind nach einem Dammbruch viele Menschen gestorben.

[...]

Ganzen Beitrag auf Juve.de lesen.

—————————-

In den letzten Jahren häuften sch die Publikationen, die eine geringere Erwärmungswirkung des CO2 postulierten. Wie geht der harte Kern des IPCC damit um? Muss die CO2-Klimasensitivität im neuen IPCC-Bericht abgesenkt werden? Ganz besonders eifrige Klima-Hardliner produzieren zum Ausgleich nun Papers, in denen das Gegenteil behauptet wird. Clever, denn im Mittelwert ergibt sich dann wieder der alte Wert. Aufgrund des großen Einflusses des IPCC auf namhafte Verlage erscheinen die Gegenpublikationen in hoch angesiedelten Fachzeitschriften wie Nature. Im Dezember 2017 trat genau solch ein Fall auf. Zum Glück lassen sich die Thesen bei genauerem Hinsehen schnell entkräften. Nic Lewis auf Climate Etc. zum neuen Paper von Brown und Caldeira 2017:

Conclusion: To sum up, I have shown strong evidence that this study’s results and conclusions are unsound. Nevertheless, the authors are to be congratulated on bringing the partial least squares method to the attention of a wide audience of climate scientists, for the thoroughness of their methods section and for making pre-processed data and computer code readily available, hence enabling straightforward replication of their results and testing of alternative methodological choices.

Ganze Evaluierung von Nic Lewis lesen.

—————————-

Marc Röhlig am 16. Dezember 2017 auf Bento:

Klimawandel: Im Atlantik treiben doppelt so viele Eisberge wie im Vorjahr
Dieses Jahr sind 1008 Eisberge in die Fahrtrinnen von Schiffen im Nordatlantik gedriftet – 2016 waren es “nur” 687 Eisberge. Und selbst das waren schon viele. Nach Angaben der US-Küstenwache ist es das vierte Jahr in Folge mit solchen außergewöhnlich hohen Mengen an Eisbergen.Der Grund für die starke Zunahme ist der Klimawandel.

Kurzer Plausibilitäts-Check: Was bedeuten mehr Eisberge? War es wärmer, und dadurch brachen mehr Eisberge von der grönländischen Eiskante ab? Oder war es kälter, so dass die Eisberge weiter nach Süden vordrangen und dort die Schifffahrt behinderten? Mal sehen, was Röhlig dazu schreibt.

Die meisten Eisberge brechen in Grönland von großen Eisflächen ab.

Trivial

Die Erderwärmung lässt dort das Eis schmelzen.

Eis schmilzt, aber Eisberge brechen in Grönland ständig ab, unabhängig von der Temperatur. So funktioniert das grönländische Eisförderband.

Auch immer extremere Stürme sorgen für den Eisbruch.

Immer extremere Stürme? In Wahrheit konnte die Wissenschaft noch immer keinen Trend zu ‘immer extremeren Stürmen’ finden. Röhlig reimt sich offenbar irgendetwas im Freistilverfahren zusammen, was er mal aufgeschnappt hat, ohne es mit Studien belegen zu können. Superpeinlich.

Die Eisberge treiben dann gen Süden – in die Fahrtrinnen von Schiffen. Im Schnitt treiben jährlich etwa 500 Eisberge in die südlichen Gewässer. Seit 1900 gab es 18 Jahre, die schlimmer waren als 2017.

Es ist bekannt, dass in kalten Jahren mehr Eisberge in den Süden gelangen. In wärmeren Jahren schmelzen sie weiter nördlich. Auf dieser Basis haben Bond und Kollegen bereits 2001 die Klimageschichte des Nordpolarmeeres für die vergangenen 10.000 Jahre rekonstruiert. Davon hat Röhlig wohl keinen blassen Schimmer. Er verlinkt einen Times-Artikel als Grundlage seiner Meldung. Dort lesen wir, dass der kanadische Eisinformationsdienst für 2018 vollkommen durchschnittliche Eisbergzahlen erwartet:

The Canadian Ice Service predicted a near normal population of icebergs, which is roughly 500, in the shipping lanes in 2018, based on sea ice projections, surface air temperature and sea surface temperature.

Da hat Marc Röhlig doch wirklich eine Kleinigkeit ausgelassen. Passte offenbar nicht zu seiner Klimaalarm-Story. Also verschweigt er es einfach. So einfach strickt man Klimaalarm. Was qualifiziert Röhlig eigentlich, über den Klimawandel zu schreiben? In seinem Bento-Steckbrief verrät er es:

Jahrgang 1986. Arbeitet bei bento als CvD und ist für die News zuständig. Hat in Kairo an seinem Arabisch und für die dpa gearbeitet. War zuvor in Berlin beim “Tagesspiegel” und davor in Freiburg und Damaskus zum Studium. Marc glaubt, er war in einem früheren Leben Freibeuter, sammelt James-Bond-Drehorte und übt unter der Dusche Apnoe-Tauchen. Hier bringt er Fotos seiner Reisen mit.

Alles klar. Offenbar bezieht Röhlig seine Informationen aus James-Bond-Filmen und seinem früheren Leben als Freibeuter.

 

Vorindustrielle CO2-Geschichte auf dem Prüfstand: Eisbakterien verändern Gaszusammensetzung in Eiskernen

Die vorindustrielle CO2-Konzentration in der Atmosphäre war gering. In den Eiszeiten war sie besonders niedrig, während sie in den wärmeren Interglazialen wohl durch Ausgasung aus dem Ozean etwas anstieg. Woher weiß man das eigentlich so genau? Die CO2-Konzentration der Vorzeit wird in Luftbläschen in Eiskernen gemessen. Dabei ging man lange davon aus, dass die heutige Konzentration den Zustand der Vorzeit einfing. Eine Studie der University of York lässt nun Zweifel an der Robustheit dieser Methodik aufkommen. Die Forscher konnten nachweisen, dass die obersten Eisschichten in der Antarktis und Grönland von Bakterien bevölkert sind, die die Gaszusammensetzung der Bläschen verändern. Wie verlässlich sind die CO2-Abschätzungen für die Vergangenheit also wirklich? Hier die Pressemitteilung der University of York vom 20. Dezember 2017:

Life on the ice
For the first time scientists have directly observed living bacteria in polar ice and snow – an environment once considered sterile.

The new research has the potential to alter perceptions about which planets in the universe could sustain life and may mean that humans are having an even greater impact on levels of CO2 in the Earth’s atmosphere than accepted evidence from climate history studies of ice cores suggests. Gases captured and sealed in snow as it compresses into ice can provide researchers with snapshots of the Earth’s atmosphere going back hundreds of thousands of years. Climate scientists use ice core samples to look at prehistoric levels of CO2 in the atmosphere so they can be compared with current levels in an industrial age. This analysis of ice cores relies on the assumption that there is limited biological activity altering the environment in the snow during its transition into ice.

A moderate source of error in climate history interpretations

Research reported today in the Journal of the Royal Society Interface, which has directly observed microbial activity in Antarctic and Arctic snow, has revealed that the composition of these small samples of gas trapped in the ice may have been affected by bacteria that remain active in snow while it is being compressed into ice – a process that can last decades. Lead author of the research Dr Kelly Redeker from the Department of Biology at the University of York said “As microbial activity and its influence on its local environment has never been taken into account when looking at ice-core gas samples it could provide a moderate source of error in climate history interpretations. Respiration by bacteria may have slightly increased levels of CO2 in pockets of air trapped within polar ice caps meaning that before human activity CO2 levels may have been even lower than previously thought”.

“In addition, the fact that we have observed metabolically active bacteria in the most pristine ice and snow is a sign of life proliferating in environments where you wouldn’t expect it to exist. This suggests we may be able to broaden our horizons when it comes to thinking about which planets are capable of sustaining life,” Redeker added. Research conducted in laboratories has previously shown that bacteria can stay alive at extremely cold temperatures, but this study is the first time that bacteria have been observed altering the polar snow environment in situ.

The researchers looked at snow in is natural state, and in other areas they sterilised it using UV sterilising lamps. When they compared the results the team found unexpected levels of methyl iodide – a gas known to be produced by marine bacteria – in the untouched snow.  Cutting-edge techniques enabled the researchers to detect the presence of gases even at part-per-trillion levels, one million times less concentrated than atmospheric CO2 concentrations. The researchers worked on sites in the Arctic and Antarctic and took precautions to limit the impact of sunlight and wind, using tarpaulins to protect their sample sites and positioning themselves on the middle of a glacier away from soil and other forms of polar wildlife which might contaminate the snow.

The frozen planets of the universe 

The results of the study also suggest that life can be sustained even in remote, cold, nutrient poor environments, offering a new perspective on whether the frozen planets of the universe could support microorganisms. With more research, astrobiologists working to identify planets in the universe with temperature levels that could allow for the presence of liquid water may be able to expand the zones they consider potentially habitable to include planets where water is found as ice. “We know that bacteria have the potential to remain viable and metabolically active at low temperatures for hundreds to thousands of years,” said Redeker.  “The next step is to look further down to see if we can observe active bacteria deep in the ice caps,”

Paper: “Microbial metabolism directly affects trace gases in (sub) polar snowpacks” is published in the Journal of the Royal Society Interface: http://rsif.royalsocietypublishing.org/cgi/content/abstract/rsif.2017.0729.

 


Artenvielfalt vor allem durch schlechte Staatsführung, Korruption und Krieg gefährdet

Gebetsmühlenartig predigen uns die Anhänger der Klimareligion, dass der Klimawandel zum Verlust der Artenvielfalt führen würde. Den Wenigsten ist dabei bewusst, dass sich die Aktivisten damit weit vom wissenschaftlichen Mainstream entfernt haben. Eine neue Arbeit der University of Cambridge bestätigt nun, dass die wahren Gefahren für die Artenvielfalt an ganz anderer Stelle liegen. Politische Instabilität und Korruption gefährden die Arten am allermeisten. Denn nur wer in Sicherheit und Wohlstand leben darf, kann es sich überhaupt leisten, sich über den Erhalt der Natur Gedanken zu machen. Hier die Pressemitteilung der University of Cambridge vom 20. Dezember 2017:

Political instability and weak governance lead to loss of species, study finds

Big data study of global biodiversity shows ineffective national governance is a better indicator of species decline than any other measure of “anthropogenic impact”. Even protected conservation areas make little difference in countries that struggle with socio-political stability.

A vast new study of changes in global wildlife over almost three decades has found that low levels of effective national governance are the strongest predictor of declining species numbers – more so than economic growth, climate change or even surges in human population. The findings, published in the journal Nature, also show that protected conservation areas do maintain wildlife diversity, but only when situated in countries that are reasonably stable politically with sturdy legal and social structures. The research used the fate of waterbird species since 1990 as a bellwether for broad biodiversity trends, as their wetland habitats are among the most diverse as well as the most endangered on Earth.

An international team of scientists and conservation experts led by the University of Cambridge analysed over 2.4 million annual count records of 461 waterbird species across almost 26,000 different survey sites around the world. The researchers used this giant dataset to model localised species changes in nations and regions.  Results were compared to the Worldwide Governance Indicators, which measure everything from violence rates and rule of law to political corruption, as well as data such as gross domestic product (GDP) and conservation performance. The team discovered that waterbird decline was greater in regions of the world where governance is, on average, less effective: such as Western and Central Asia, South America and sub-Saharan Africa.

The healthiest overall species quotas were seen in continental Europe, although even here the levels of key species were found to have nosedived. This is the first time that effectiveness of national governance and levels of socio-political stability have been identified as the most significant global indicator of biodiversity and species loss. “Although the global coverage of protected areas continues to increase, our findings suggest that ineffective governance could undermine the benefits of these biodiversity conservation efforts,” says Cambridge’s Dr Tatsuya Amano, who led the study at the University’s Department of Zoology and Centre for the Study of Existential Risk.

“We now know that governance and political stability is a vital consideration when developing future environmental policies and practices.” For the latest study, Amano worked with Cambridge colleagues as well as researchers from the universities of Bath, UK, and Santa Clara, US, and conservation organisations Wetlands International and the National Audubon Society. The lack of global-level data on changes to the natural world limits our understanding of the “biodiversity crisis”, say the study’s authors. However, they say there are advantages to focusing on waterbirds when trying to gauge these patterns.

Waterbirds are a diverse group of animals, from ducks and heron to flamingos and pelicans. Their wetland habitats cover some 1.3 billion hectares of the planet – from coast to freshwater and even highland – and provide crucial “ecosystem services”. Wetlands have also been degraded more than any other form of ecosystem. In addition, waterbirds have a long history of population monitoring. The annual global census run by Wetlands International has involved more than 15,000 volunteers over the last 50 years, and the National Audubon Society’s annual Christmas bird count dates back to 1900. “Our study shows that waterbird monitoring can provide useful lessons about what we need to do to halt the loss of biodiversity,” said co-author Szabolcs Nagy, Coordinator of the African-Eurasian Waterbird Census at Wetlands International.

Compared to all the “anthropogenic impacts” tested by the researchers, national governance was the most significant. ”Ineffective governance is often associated with lack of environmental enforcement and investment, leading to habitat loss,” says Amano. The study also uncovered a relationship between the speed of GDP growth and biodiversity: the faster GDP per capita was growing, the greater the decline in waterbird species. Diversity on a localised level was worst affected on average in South America, with a 0.95% annual loss equating to a 21% decline across the region over 25 years. Amano was also surprised to find severe species loss across inland areas of western and central Asia.  

The researchers point out that poor water management and dam construction in parts of Asia and South America have caused wetlands to permanently dry out in counties such as Iran and Argentina – even in areas designated as protected. Impotent hunting regulations can also explain species loss under ineffective governance. “Political instability can weaken legal enforcement, and consequently promote unsuitable, often illegal, killing even in protected areas,” says Amano. In fact, the researchers found that protected conservation areas simply did not benefit biodiversity if they were located in nations with weak governance. Recent Cambridge research involving Amano suggests that grassroots initiatives led by local and indigenous groups can be more effective than governments at protecting ecosystems – one possible conservation approach for regions suffering from political instability.   

Reference
Amano, T et al. Successful conservation of global waterbird populations depends on effective governance. Nature; 20 December 2017; DOI: 10.1038/nature25139