KI fĂĽr die Lawinenwarnung?
Aus skifahrender Perspektive fragt man sich natürlich: Was kann uns die künstliche Intelligenz über die Lawinengefahr sagen? Wissen die Computer etwas, das die Lawinenwarndienste nicht wissen? Derzeit eher noch nicht - allerdings können sie unter Umständen multidimensionale Zusammenhänge erkennen, die für das menschliche Gehirn zu komplex sind. In Zukunft sind operationelle Anwendungen durchaus vorstellbar. Zwei aktuelle Preprints des SLF bewegen sich in eine solche Richtung (Preprints sind bei wissenschaftlichen Zeitschriften eingereichte Studien, die online zugänglich sind, aber noch keinen vollständigen Peer-Review Prozess durchlaufen haben.) In beiden Fällen kommt ein sogenanntes Random Forest Modell zum Einsatz. Der “zufällige Wald” ist ein “Wald” aus vielen Entscheidungsbäumen und wird häufig für die automatisierte Klassifizierung von großen Datensätzen eingesetzt.
In “A random forest model to assess snow instability from simulated snow stratigraphy” sieht das folgendermaßen aus: Als Datenbasis dienen über 700 Schneeprofile, für die unter anderem das Ergebnis eines Rutschblocktests vorliegt. Je nach Rutschblock werden die Profile manuell als stabil, instabil, oder “irgendwas dazwischen” eingestuft. Mit Hilfe von Wetterdaten wurden alle Profile zudem mit einem Schneedeckenmodell simuliert - es gibt also jeweils ein tatsächlich im Schnee gegrabenes und ein simuliertes Profil. Für jedes simulierte Profil werden relevante Schwachschichten und das darüberliegende Schneebrett anhand von 34 “Features” beschrieben, darunter beispielsweise die Korngröße der Schicht, die Konrgrößendifferenz zur nächsten Schicht, die Scherfestigkeit, Viskosität, Dichte, usw.
Der Random Forest Algorithmus bekommt dann manuell klassifizierte Trainingsdaten, also Profile und entsprechende “Features”, die als stabil oder instabil identifiziert wurden. Damit “lernt” der Algorithmus, welche Features für die Stabilität bzw. Instabilität ausschlaggebend sind und sortiert die simulierten Profile je nach Eigenschaften der Schwachschicht und des darüberliegenden Bretts in die Schublade “stabil” oder “instabil”. Der Abgleich mit den “echten” Profil- und Lawinendaten zeigt, dass Instabilität ziemlich verlässlich erkannt wird. Die Autorinnen und Autoren der Studie sehen Potential, solche Methoden in naher Zukunft auch in die operationelle Lawinenwarnung mit einfließen zu lassen.
Interessant dabei ist, dass Instabilität meistens erkannt wird, obwohl die simulierten Profile des Schneedeckenmodells mit räumlich interpolierten Wetterdaten erzeugt werden, also eine gewisse Unschärfe haben und kleinräumige, mikroklimatische Unterschiede nicht wiedergeben. Die für Schwachschichten ausschlaggebendsten Wetterfaktoren werden offenbar dennoch erfasst.
AuĂźerdem ist spannend, welche der 34 charakteristischen Features fĂĽr die stabil/instabil Klassifizierung am wichtigsten sind. Im Random Forest Algorithmus sind folgende 6 am zentralsten:
- Die viskose Deformationsrate
- Die "critical cut length" (Länge, die man bei einem Propagation Saw Test sägt, bis es zum Bruch kommt)
- Skifahrer Eindringtiefe (stark abhängig von der Dichte der obersten 30cm der Schneedecke)
- Die Kornsphärizität in der Schwachschicht (wie rund sind die Körner?)
- Das Verhältnis der mittleren Schneebrettdichte zur Korngröße
- Die Korngröße in der Schwachschicht
Alle anderen Features beeinflussen das Ergebnis nicht oder nur geringfügig. Hieraus ergeben sich sicher viele weitere Forschungsfragen. Der Random Forest ist vielleicht “intelligent”, kann aber nicht genau erläutern, warum er sich diese Features aussucht. Um das schneephysikalisch zu erklären, braucht es andere Ansätze.
Das zweite aktuelle SLF Preprint, "Data-driven automated predictions of the avalanche danger level for dry-snow conditions in Switzerland", nutzt ebenfalls eine Klassifizierung mittels Random Forest. Hier wird anhand von Wetterdaten und Schneedeckenmodellrechnungen automatisch die Lawinengefahrenstufe bestimmt. Das gelingt in 70 bis knapp 80% der untersuchten Fälle. Es gibt allerdings gewisse regionale Unterschiede und das ganze funktioniert etwas schlechter, wenn ein Altschneeproblem vorherrscht. Nasschneesituationen wurden aufgrund der speziellen Lawinenprozesse ausgeschlossen. Die Trainingsdaten, mit denen das Modell "lernt", umfassen die Winter 1997-98 bis 2017/18, getestet wurde das Modell mit Daten der letzten beiden Winter (2018/19 und 2019/20)
Auch hier gibt es wieder zahlreiche Features, bzw. charakteristische Parameter, die dem Random Forest zur Verfügung stehen, um einem Tag die passende Gefahrenstufe zuzuordnen. Und wieder zeigt sich, dass nur relativ wenige Features die Klassifizierung maßgeblich beeinflussen: verschiedene Neu- und Triebschneekenngrößen, die Schneefallrate, die Skifahrer Eindringtiefe, die "critical cut length", sowie die relative Luftfeuchtigkeit, die Lufttemperatur, und Stabilitätsindizes. Im Prinzip also genau die Dinge, die auch in die "manuelle" Lawinenprognose stark einfließen.