So lernt eine KI Lawinen zu erkennen
Wie bringt man einer KI nun Lawinendetektion bei? Die Antwort lautet: Daten, Daten, Daten. Eine KI kann nur das, was man ihr beibringt. In diesem konkreten Anwendungsfall heißt das also, dass man dem Modell sehr viele Fotos von Lawinen “zeigen” muss. Natürlich muss man der KI auch Fotos zeigen, auf denen keine Lawine zu sehen ist, nur so kann sie die Unterscheidung lernen. Würde man das Training ausschließlich oder zu einem stark überwiegenden Teil mit Lawinenfotos durchführen, hätte das Modell einen starken Bias, dh. es würde tendenziell eine Lawine erkennen, auch wenn gar keine zu sehen ist. Für das Projekt CADS wurden insgesamt 4090 Fotos verwendet, auf denen insgesamt 7228 einzelne Lawinen identifiziert werden konnten. Die im Projekt verwendeten Fotos wurden zu einem großen Teil vom Lawinenwarndienst Tirol zur Verfügung gestellt und vorwiegend im deutschsprachigen Alpenraum - allen voran in Tirol - aufgenommen. Im Trainingsprozess kamen Techniken zur Datenerweiterung zum Einsatz, z.B. Farbvariationen und zufällige horizontale Spiegelungen, um die Generalisierung des Modells zu verbessern.
Die Lawinenfotos, die im Forschungsprojekt verwendet wurden, mussten vor Beginn des eigentlichen Trainings noch “gelabelt” werden. Einerseits musste ein Polygon um den Lawinenumriss gezeichnet werden, andererseits musste ein Label für das Bild vergeben werden. Dieses Label bezog sich jeweils auf den Lawinentyp, also Schneebrett-, Gleitschnee- oder Lockerschneelawine. Diese Form des Labelings erschien am sinnvollsten, da sich die drei Lawinentypen in ihren optischen Eigenschaften unterscheiden. Für die Schneebrettlawine ist beispielsweise die markante linienförmige Anrisskante typisch, bei Gleitschneelawinen kommt der Untergrund zum Vorschein, Lockerschneelawinen zeichnen sich durch den punktförmigen Anriss und den birnenförmigen Auslauf aus. So kann man dem Modell nicht nur die Lawinendetektion im Allgemeinen beibringen, sondern auch die Unterscheidung der einzelnen Lawinentypen. Mithilfe dieser “Annotationen” kann nun das Training beginnen. Um den Prozess zu beschleunigen, wurde auf bestehende Deep Learning Modelle, wie z.B. das Objekterkennungsmodell YOLO (v5), zurückgegriffen.
Wie gut funktioniert das Modell tatsächlich?
Von den gelabelten Fotos wurde ein Teil (10%) vom Training zurückgehalten. Dieser Pool an Fotos wurde später zur Validierung der Modell-Performance herangezogen. Im Zuge der Validierung werden die vom Modell detektierten Lawinen bzw. deren “Bounding Boxes” mit jenen des “Test Sets” verglichen. Die Ergebnisse der Validierung in diesem “Test Set” waren äußerst erfreulich: Es konnte eine hohe Erkennungsrate erzielt werden und die Rate für “übersehene” Lawinen - sog. False Negatives - konnte niedrig gehalten werden. Das ist für eine mögliche praktische Anwendung in der Zukunft insofern wichtig, als übersehene Lawinenereignisse teils folgenschwer sein können, wenn dadurch z.B. bei einem Lawinenereignis mit Personenbeteiligung die Rettungskette nicht rechtzeitig in Gang gesetzt wird oder Sicherungsmaßnahmen bei alpiner Infrastruktur (z.B. Straßensperre) zu spät eingeleitet werden. Die Folgen von False Positives, also wenn eine Lawinendetektion gemeldet wird, obwohl keine Lawine abgegangen ist, wiegen nicht so schwer. Ärgerlich wären sind solche Fehlalarmierungen trotzdem. Umso besser, dass auch dieser Wert niedrig gehalten werden konnte. Für die erste Phase der Praxiseinführung erscheint es sinnvoll, dass die Entscheidung des Modells - “Lawine” oder “keine Lawine” - zusätzlich noch von Domänenexpert:innen überprüft wird. Im Falle einer falschen Klassifizierung kann das entsprechende Foto korrekt gelabelt und dem Trainingsdatensatz hinzugefügt werden, um die Modellqualität so laufend zu verbessern.