L'IA pour la prévision des avalanches?
D'un point de vue de skieur, on se demande naturellement : que peut nous dire l'intelligence artificielle sur le risque d'avalanche ? Les ordinateurs savent-ils quelque chose que les services de prévision d'avalanche ne savent pas ? Pour l'instant, plutôt pas - toutefois, ils peuvent éventuellement reconnaître des relations multidimensionnelles qui sont trop complexes pour le cerveau humain. Des applications opérationnelles sont tout à fait envisageables à l'avenir. Deux preprints actuels du SLF vont dans ce sens (les preprints sont des études soumises à des revues scientifiques, accessibles en ligne, mais qui n'ont pas encore fait l'objet d'un processus complet de peer review). Dans les deux cas, un modèle dit de "forêt aléatoire" est utilisé. La "forêt aléatoire" est une "forêt" composée de nombreux arbres de décision et est souvent utilisée pour la classification automatisée de grands ensembles de données.
Dans "A random forest model to assess snow instability from simulated snow stratigraphy", cela se présente comme suit : Plus de 700 profils de neige, pour lesquels on dispose entre autres du résultat d'un test de blocs de glissement, servent de base de données. Selon le bloc de glissement, les profils sont classés manuellement comme stables, instables ou "quelque chose entre les deux". À l'aide de données météorologiques, tous les profils ont en outre été simulés avec un modèle de manteau neigeux - il y a donc à chaque fois un profil réellement creusé dans la neige et un profil simulé. Pour chaque profil simulé, les couches fragiles pertinentes et la plaque de neige qui les recouvre sont décrites à l'aide de 34 "caractéristiques", dont par exemple la taille des grains de la couche, la différence de taille avec la couche suivante, la résistance au cisaillement, la viscosité, la densité, etc.
L'algorithme Random Forest reçoit ensuite des données d'entraînement classées manuellement, c'est-à -dire des profils et des "caractéristiques" correspondantes qui ont été identifiés comme stables ou instables. L'algorithme "apprend" ainsi quelles caractéristiques sont déterminantes pour la stabilité ou l'instabilité et classe les profils simulés dans le tiroir "stable" ou "instable" en fonction des propriétés de la couche faible et de la planche qui la recouvre. La comparaison avec les données "réelles" des profils et des avalanches montre que l'instabilité est détectée de manière assez fiable. Les auteurs de l'étude voient un potentiel d'intégration de telles méthodes dans la prévision opérationnelle des avalanches dans un avenir proche.
Il est intéressant de noter que l'instabilité est généralement détectée bien que les profils simulés du modèle de manteau neigeux soient générés avec des données météorologiques interpolées dans l'espace, qu'ils présentent donc une certaine imprécision et ne reflètent pas les différences microclimatiques à petite échelle. Les facteurs météorologiques les plus décisifs pour les couches fragiles sont apparemment tout de même saisis.
En outre, il est passionnant de savoir lesquelles des 34 caractéristiques sont les plus importantes pour la classification stable/instable. Dans l'algorithme Random Forest, les 6 suivantes sont les plus centrales :
Le taux de déformation visqueuse
La "critical cut length" (longueur que l'on scie lors d'un test de Propagation Saw jusqu'Ă ce qu'il y ait rupture)
La profondeur de pénétration du skieur (dépend fortement de la densité des 30 premiers centimètres du manteau neigeux)
La sphéricité des grains dans la couche fragile (à quel point les grains sont-ils ronds ?)
Le rapport entre la densité moyenne de la plaque de neige et la taille des grains
La taille des grains dans la couche fragile
Toutes les autres caractéristiques n'influencent pas ou peu le résultat. De nombreuses autres questions de recherche en découlent certainement. La Random Forest est peut-être "intelligente", mais elle ne peut pas expliquer précisément pourquoi elle choisit ces caractéristiques. Pour l'expliquer du point de vue de la physique de la neige, il faut d'autres approches.
Le deuxième preprint actuel du SLF, "Data-driven automated predictions of the avalanche danger level for dry-snow conditions in Switzerland", utilise également une classification au moyen de la Random Forest. Ici, le niveau de danger d'avalanche est déterminé automatiquement à partir des données météorologiques et des calculs du modèle de manteau neigeux. Cela réussit dans 70 à près de 80% des cas étudiés. Il existe toutefois certaines différences régionales et l'ensemble fonctionne un peu moins bien lorsqu'un problème de neige ancienne prédomine. Les situations de neige mouillée ont été exclues en raison des processus d'avalanche particuliers. Les données d'entraînement avec lesquelles le modèle apprend couvrent les hivers 1997-98 à 2017/18, le modèle a été testé avec les données des deux derniers hivers (2018/19 et 2019/20)
Il existe à nouveau de nombreuses caractéristiques, ou paramètres caractéristiques, à la disposition de la Random Forest pour attribuer à un jour le niveau de danger approprié. Une fois de plus, on constate que seules quelques caractéristiques ont une influence déterminante sur la classification : différentes caractéristiques de neige fraîche et de neige soufflée, le taux de chute de neige, la profondeur de pénétration des skieurs, la "critical cut length", ainsi que l'humidité relative de l'air, la température de l'air et les indices de stabilité. En principe, ce sont donc exactement les mêmes choses qui sont fortement intégrées dans la "prévision manuelle des avalanches".