Zum Inhalt springen

Cookies 🍪

Diese Website verwendet Cookies, die Ihre Zustimmung brauchen.

Details finden Sie in unserer Datenschutzerklärung

This page is also available in English.

Zur Powderguide-Startseite Zur Powderguide-Startseite

Sprachauswahl

PowderGuide durchsuchen

Bergwissen

Welt der Wissenschaft | Lawinen und kĂĽnstliche Intelligenz

Was bringt KI fĂĽr die Lawinenforschung?

von Lea Hartl • 28.03.2022
KĂĽnstliche Intelligenz und maschinelles Lernen (machine learning) sind in vielen Bereichen die Buzzwords der Stunde bzw. der letzten paar Jahre. Entsprechende Techniken finden zunehmend auch in der Schnee- und Lawinenforschung Anwendung. Was ist KI eigentlich, wie sehen konkrete Anwendung aus, und was bringt uns das Ganze?

Künstliche Intelligenz (KI) bezeichnet mehr oder weniger alles, was Computern ermöglicht, menschliches Verhalten oder Entscheidungen zu simulieren. Machine Learning meint meistens eine Unterkategorie von KI. Hier bekommen Computer Daten und “lernen” etwas daraus, ohne dass ihnen explizit gesagt wird, was genau sie tun sollen. Machine learning (ML) wiederum umfasst alles von linearer Regression, die man vielleicht noch aus der Schule kennt, bis zu komplexen neuralen Netzwerken.

Große Datensätze schnell verarbeiten

In den Geowissenschaften wird ML häufig verwendet, um große Datenmengen oder komplexe, mehrdimensionale Datensätze schneller und effizienter zu verarbeiten als das mit expliziter Programmierung möglich wäre. In der aktuellen Literatur finden sich zum Beispiel zahlreiche Studien, die ML Methoden auf die ein oder andere Weise für Geländeklassifizierungen und die Identifizierung von Lawinenstrichen verwenden. Erkenntnisgewinn bringt das vor allem in Weltregionen, wo Geländedaten nur in mäßiger Auflösung vorliegen und solche Klassifikationen nicht schon existieren (einige Beispiele: Iran, Iran, Iran, Indien, Tianshan, Türkei). Ebenfalls sehr nützlich sind ML Verfahren, um Lawinenabgänge in Satellitendaten zu identifizieren. Die ML Algorithmen bekommen Datensätze, in denen die Lawinen manuell eingezeichnet wurden und trainieren damit, Lawinen in den Satellitenbildern selbst zu finden. Das funktioniert nicht immer perfekt, aber doch relativ gut und ist schneller und wesentlich weniger arbeitsintensiv als händisch für ganze Regionen die Lawinen zu zählen (Snow avalanche detection and mapping in multitemporal and multiorbital radar images from TerraSAR-X and Sentinel-1,Snow Avalanche Segmentation in SAR Images With Fully Convolutional Neural Networks).

Bergwissen
presented by

KI fĂĽr die Lawinenwarnung?

Aus skifahrender Perspektive fragt man sich natürlich: Was kann uns die künstliche Intelligenz über die Lawinengefahr sagen? Wissen die Computer etwas, das die Lawinenwarndienste nicht wissen? Derzeit eher noch nicht - allerdings können sie unter Umständen multidimensionale Zusammenhänge erkennen, die für das menschliche Gehirn zu komplex sind. In Zukunft sind operationelle Anwendungen durchaus vorstellbar. Zwei aktuelle Preprints des SLF bewegen sich in eine solche Richtung (Preprints sind bei wissenschaftlichen Zeitschriften eingereichte Studien, die online zugänglich sind, aber noch keinen vollständigen Peer-Review Prozess durchlaufen haben.) In beiden Fällen kommt ein sogenanntes Random Forest Modell zum Einsatz. Der “zufällige Wald” ist ein “Wald” aus vielen Entscheidungsbäumen und wird häufig für die automatisierte Klassifizierung von großen Datensätzen eingesetzt.

In “A random forest model to assess snow instability from simulated snow stratigraphy” sieht das folgendermaßen aus: Als Datenbasis dienen über 700 Schneeprofile, für die unter anderem das Ergebnis eines Rutschblocktests vorliegt. Je nach Rutschblock werden die Profile manuell als stabil, instabil, oder “irgendwas dazwischen” eingestuft. Mit Hilfe von Wetterdaten wurden alle Profile zudem mit einem Schneedeckenmodell simuliert - es gibt also jeweils ein tatsächlich im Schnee gegrabenes und ein simuliertes Profil. Für jedes simulierte Profil werden relevante Schwachschichten und das darüberliegende Schneebrett anhand von 34 “Features” beschrieben, darunter beispielsweise die Korngröße der Schicht, die Konrgrößendifferenz zur nächsten Schicht, die Scherfestigkeit, Viskosität, Dichte, usw.

Der Random Forest Algorithmus bekommt dann manuell klassifizierte Trainingsdaten, also Profile und entsprechende “Features”, die als stabil oder instabil identifiziert wurden. Damit “lernt” der Algorithmus, welche Features für die Stabilität bzw. Instabilität ausschlaggebend sind und sortiert die simulierten Profile je nach Eigenschaften der Schwachschicht und des darüberliegenden Bretts in die Schublade “stabil” oder “instabil”. Der Abgleich mit den “echten” Profil- und Lawinendaten zeigt, dass Instabilität ziemlich verlässlich erkannt wird. Die Autorinnen und Autoren der Studie sehen Potential, solche Methoden in naher Zukunft auch in die operationelle Lawinenwarnung mit einfließen zu lassen.

Interessant dabei ist, dass Instabilität meistens erkannt wird, obwohl die simulierten Profile des Schneedeckenmodells mit räumlich interpolierten Wetterdaten erzeugt werden, also eine gewisse Unschärfe haben und kleinräumige, mikroklimatische Unterschiede nicht wiedergeben. Die für Schwachschichten ausschlaggebendsten Wetterfaktoren werden offenbar dennoch erfasst.

AuĂźerdem ist spannend, welche der 34 charakteristischen Features fĂĽr die stabil/instabil Klassifizierung am wichtigsten sind. Im Random Forest Algorithmus sind folgende 6 am zentralsten:

  • Die viskose Deformationsrate
  • Die "critical cut length" (Länge, die man bei einem Propagation Saw Test sägt, bis es zum Bruch kommt)
  • Skifahrer Eindringtiefe (stark abhängig von der Dichte der obersten 30cm der Schneedecke)
  • Die Kornsphärizität in der Schwachschicht (wie rund sind die Körner?)
  • Das Verhältnis der mittleren Schneebrettdichte zur Korngröße
  • Die Korngröße in der Schwachschicht

Alle anderen Features beeinflussen das Ergebnis nicht oder nur geringfügig. Hieraus ergeben sich sicher viele weitere Forschungsfragen. Der Random Forest ist vielleicht “intelligent”, kann aber nicht genau erläutern, warum er sich diese Features aussucht. Um das schneephysikalisch zu erklären, braucht es andere Ansätze.

Das zweite aktuelle SLF Preprint, "Data-driven automated predictions of the avalanche danger level for dry-snow conditions in Switzerland", nutzt ebenfalls eine Klassifizierung mittels Random Forest. Hier wird anhand von Wetterdaten und Schneedeckenmodellrechnungen automatisch die Lawinengefahrenstufe bestimmt. Das gelingt in 70 bis knapp 80% der untersuchten Fälle. Es gibt allerdings gewisse regionale Unterschiede und das ganze funktioniert etwas schlechter, wenn ein Altschneeproblem vorherrscht. Nasschneesituationen wurden aufgrund der speziellen Lawinenprozesse ausgeschlossen. Die Trainingsdaten, mit denen das Modell "lernt", umfassen die Winter 1997-98 bis 2017/18, getestet wurde das Modell mit Daten der letzten beiden Winter (2018/19 und 2019/20)

Auch hier gibt es wieder zahlreiche Features, bzw. charakteristische Parameter, die dem Random Forest zur Verfügung stehen, um einem Tag die passende Gefahrenstufe zuzuordnen. Und wieder zeigt sich, dass nur relativ wenige Features die Klassifizierung maßgeblich beeinflussen: verschiedene Neu- und Triebschneekenngrößen, die Schneefallrate, die Skifahrer Eindringtiefe, die "critical cut length", sowie die relative Luftfeuchtigkeit, die Lufttemperatur, und Stabilitätsindizes. Im Prinzip also genau die Dinge, die auch in die "manuelle" Lawinenprognose stark einfließen.

In beiden Fällen zielen die Studien darauf ab, aus Schnee- und Wettermodellen automatische Aussagen über die Stabilität der Schneedecke bzw. die Lawinengefahr zu treffen. Die Vorteile liegen auf der Hand: In den mit Geländedaten wahrlich gesegneten Alpen ließe sich mit solchen Systemen die räumliche Auflösung der Informationen noch weiter verbessern und die Warndienste hätten ein zusätzliches Tool zur Verfügung. In Weltregionen, wo es keine oder schlechter ausgestattete Warndienste gibt, wäre eine operationelle Anwendung eine umso signifikantere Informationssteigerung. In dem Kontext stellt sich die Frage, ob und in wie weit die KI gestützten Methoden einen praktischen Informationsgewinn gegenüber "klassischen" Verfahren darstellen, da außerhalb der Alpen die Datenbasis insgesamt meist wesentlich schlechter ist. Unter Umständen kommt man also gar nicht erst in die Verlegenheit, mit Variablen wie Sphärizität oder Deformationsraten zu rechnen, sondern muss sich auf Wind und Neuschnee in der Wettervorhersage beschränken.

KI: Theoretisch schlau, praktisch nicht immer

Ein wichtiger Grundsatz lautet bei jeglicher Form von Statistik, ob “intelligent” oder nicht: Garbage in, garbage out (GIGO). Der ML-Algorithmus kann noch so schlau sein - wenn man ihn mit Müll, also schlechten Daten, füttert, spuckt er auch Müll aus. Was wir mit Hilfe von Machine Learning Methoden aus Daten lernen können, ist immer nur so gut, wie die Daten selbst. ML Algorithmen reproduzieren einerseits Fehler, die vielleicht in den Daten enthalten sind, und lernen andererseits unter Umständen nicht das, was sie lernen sollen, wenn die Daten zu viel Spielraum ermöglichen. Viele ML Algorithmen, darunter auch die Random Forests der genannten Studien, sind zudem sogenannte Black Box Modelle - wir können nicht vollständig nachvollziehen, wie das Ergebnis entsteht, das am Ende ausgespuckt wird.

Die für die oben genannten Studien verwendeten Daten sind natürlich das Gegenteil von Datenmüll. Allerdings enthalten von menschlichen BeobachterInnen aufgenommene Schneeprofile, Stabilitätsbewertungen und vom Lawinenwarndienst bestimmte Gefahrenstufen durchaus eine gewisse Interpretationsspanne. Vorhersagen sind quasi per Definition nicht immer vollkommen zutreffend und über die "richtige" Bestimmung der Gefahrenstufe lässt sich mehr oder weniger endlos diskutieren. Es ist keine triviale Aufgabe, bei dieser Art von Trainingsdaten ein absolutes Richtig und Falsch, oder stabil und instabil, zu definieren. Der Computer macht das aufgrund seiner naturgemäß binären Denkweise zwar aus Prinzip, aber dadurch auch nicht richtiger oder falscher.

Bei beiden zitierten Preprints sind die Charakteristiken der Eingangdaten und die Datenbereinigung ein wichtiges Thema. Beim Gefahrenstufen-Modell wurde zum Beispiel einmal mit allen Daten “gelernt” und einmal mit einem gesäuberten Datensatz, der vermutlich weniger Fehlprognosen enthält und auch etwas weniger Bias hat. Der Algorithmus hat “gelernt”, wie Wetter und simulierte Schneedecke in den letzten 20 Jahren mit der in der Schweiz vorhergesagten Gefahrenstufe zusammenhängen. Falls es hier also zum Beispiel Schweizer Eigenheiten geben sollte, hat das Modell diese auch gelernt.

Lawinen sind physikalisch sehr komplex und die Lawinenvorhersage ist eine Art Musterbeispiel für die beeindruckenden Fähigkeiten des menschlichen Gehirns, aus unvollständigen, mehrdimensionalen Informationen relevante Schlüsse zu ziehen. Gerade deswegen ist die Lawinenforschung als KI Einsatzgebiet sehr spannend, aber auch sehr herausfordernd. Wir sind gespannt, wohin die Entwicklung in den nächsten Jahren geht!

Vielen Dank an Stephanie Mayer und Frank Techel (beide SLF) für den Input zu diesem Beitrag!

Ă„hnliche Artikel

Kommentare

Bergwissen
presented by