Aller au contenu

Cookies 🍪

Ce site utilise des cookies qui nécessitent votre consentement.

Plus de détails dans notre politique de confidentialité

Cette page est également disponible en English.

Zur Powderguide-Startseite Zur Powderguide-Startseite
Guides de Montagne

Le monde de la science | Avalanches et intelligence artificielle

Qu'apporte l'IA Ă  la recherche sur les avalanches ?

28/03/2022
Lea Hartl
L'intelligence artificielle et l'apprentissage automatique (machine learning) sont les mots-clés du moment dans de nombreux domaines ou des dernières années. Les techniques correspondantes sont de plus en plus utilisées dans la recherche sur la neige et les avalanches. Mais qu'est-ce que l'IA, quelles sont ses applications concrètes et que nous apporte-t-elle ?

L'intelligence artificielle (IA) désigne plus ou moins tout ce qui permet aux ordinateurs de simuler le comportement ou les décisions humaines. L'apprentissage automatique est généralement une sous-catégorie de l'IA. Ici, les ordinateurs reçoivent des données et "apprennent" quelque chose à partir de celles-ci, sans qu'on leur dise explicitement ce qu'ils doivent faire exactement. L'apprentissage automatique (ML) englobe tout, de la régression linéaire, que l'on connaît peut-être encore de l'école, aux réseaux neuronaux complexes.

Traitement rapide de grands ensembles de données

Dans le domaine des géosciences, le ML est souvent utilisé pour traiter de grandes quantités de données ou des ensembles de données complexes et multidimensionnels plus rapidement et plus efficacement que cela ne serait possible avec une programmation explicite. Dans la littérature actuelle, on trouve par exemple de nombreuses études qui utilisent les méthodes ML d'une manière ou d'une autre pour la classification des terrains et l'identification des couloirs d'avalanche. Cela apporte un gain de connaissances surtout dans les régions du monde où les données de terrain ne sont disponibles qu'avec une résolution modérée et où de telles classifications n'existent pas encore (quelques exemples : Iran, Iran, Iran, Inde, Tianshan, Turquie). Les méthodes ML sont également très utiles pour identifier les départs d'avalanches dans les données satellites. Les algorithmes ML reçoivent des jeux de données dans lesquels les avalanches ont été dessinées manuellement et s'entraînent ainsi à trouver des avalanches dans les images satellites elles-mêmes. Cela ne fonctionne pas toujours parfaitement, mais relativement bien, et c'est plus rapide et beaucoup moins laborieux que de compter manuellement les avalanches pour des régions entières (Snow avalanche detection and mapping in multitemporal and multiorbital radar images from TerraSAR-X and Sentinel-1,Snow Avalanche Segmentation in SAR Images With Fully Convolutional Neural Networks).

L'IA pour la prévision des avalanches?

D'un point de vue de skieur, on se demande naturellement : que peut nous dire l'intelligence artificielle sur le risque d'avalanche ? Les ordinateurs savent-ils quelque chose que les services de prévision d'avalanche ne savent pas ? Pour l'instant, plutôt pas - toutefois, ils peuvent éventuellement reconnaître des relations multidimensionnelles qui sont trop complexes pour le cerveau humain. Des applications opérationnelles sont tout à fait envisageables à l'avenir. Deux preprints actuels du SLF vont dans ce sens (les preprints sont des études soumises à des revues scientifiques, accessibles en ligne, mais qui n'ont pas encore fait l'objet d'un processus complet de peer review). Dans les deux cas, un modèle dit de "forêt aléatoire" est utilisé. La "forêt aléatoire" est une "forêt" composée de nombreux arbres de décision et est souvent utilisée pour la classification automatisée de grands ensembles de données.

Dans "A random forest model to assess snow instability from simulated snow stratigraphy", cela se présente comme suit : Plus de 700 profils de neige, pour lesquels on dispose entre autres du résultat d'un test de blocs de glissement, servent de base de données. Selon le bloc de glissement, les profils sont classés manuellement comme stables, instables ou "quelque chose entre les deux". À l'aide de données météorologiques, tous les profils ont en outre été simulés avec un modèle de manteau neigeux - il y a donc à chaque fois un profil réellement creusé dans la neige et un profil simulé. Pour chaque profil simulé, les couches fragiles pertinentes et la plaque de neige qui les recouvre sont décrites à l'aide de 34 "caractéristiques", dont par exemple la taille des grains de la couche, la différence de taille avec la couche suivante, la résistance au cisaillement, la viscosité, la densité, etc.

L'algorithme Random Forest reçoit ensuite des données d'entraînement classées manuellement, c'est-à-dire des profils et des "caractéristiques" correspondantes qui ont été identifiés comme stables ou instables. L'algorithme "apprend" ainsi quelles caractéristiques sont déterminantes pour la stabilité ou l'instabilité et classe les profils simulés dans le tiroir "stable" ou "instable" en fonction des propriétés de la couche faible et de la planche qui la recouvre. La comparaison avec les données "réelles" des profils et des avalanches montre que l'instabilité est détectée de manière assez fiable. Les auteurs de l'étude voient un potentiel d'intégration de telles méthodes dans la prévision opérationnelle des avalanches dans un avenir proche.

Il est intéressant de noter que l'instabilité est généralement détectée bien que les profils simulés du modèle de manteau neigeux soient générés avec des données météorologiques interpolées dans l'espace, qu'ils présentent donc une certaine imprécision et ne reflètent pas les différences microclimatiques à petite échelle. Les facteurs météorologiques les plus décisifs pour les couches fragiles sont apparemment tout de même saisis.

En outre, il est passionnant de savoir lesquelles des 34 caractéristiques sont les plus importantes pour la classification stable/instable. Dans l'algorithme Random Forest, les 6 suivantes sont les plus centrales :

  • Le taux de dĂ©formation visqueuse

  • La "critical cut length" (longueur que l'on scie lors d'un test de Propagation Saw jusqu'Ă  ce qu'il y ait rupture)

  • La profondeur de pĂ©nĂ©tration du skieur (dĂ©pend fortement de la densitĂ© des 30 premiers centimètres du manteau neigeux)

  • La sphĂ©ricitĂ© des grains dans la couche fragile (Ă  quel point les grains sont-ils ronds ?)

  • Le rapport entre la densitĂ© moyenne de la plaque de neige et la taille des grains

  • La taille des grains dans la couche fragile

Toutes les autres caractéristiques n'influencent pas ou peu le résultat. De nombreuses autres questions de recherche en découlent certainement. La Random Forest est peut-être "intelligente", mais elle ne peut pas expliquer précisément pourquoi elle choisit ces caractéristiques. Pour l'expliquer du point de vue de la physique de la neige, il faut d'autres approches.

Le deuxième preprint actuel du SLF, "Data-driven automated predictions of the avalanche danger level for dry-snow conditions in Switzerland", utilise également une classification au moyen de la Random Forest. Ici, le niveau de danger d'avalanche est déterminé automatiquement à partir des données météorologiques et des calculs du modèle de manteau neigeux. Cela réussit dans 70 à près de 80% des cas étudiés. Il existe toutefois certaines différences régionales et l'ensemble fonctionne un peu moins bien lorsqu'un problème de neige ancienne prédomine. Les situations de neige mouillée ont été exclues en raison des processus d'avalanche particuliers. Les données d'entraînement avec lesquelles le modèle apprend couvrent les hivers 1997-98 à 2017/18, le modèle a été testé avec les données des deux derniers hivers (2018/19 et 2019/20)

Il existe à nouveau de nombreuses caractéristiques, ou paramètres caractéristiques, à la disposition de la Random Forest pour attribuer à un jour le niveau de danger approprié. Une fois de plus, on constate que seules quelques caractéristiques ont une influence déterminante sur la classification : différentes caractéristiques de neige fraîche et de neige soufflée, le taux de chute de neige, la profondeur de pénétration des skieurs, la "critical cut length", ainsi que l'humidité relative de l'air, la température de l'air et les indices de stabilité. En principe, ce sont donc exactement les mêmes choses qui sont fortement intégrées dans la "prévision manuelle des avalanches".

Dans les deux cas, les études visent à obtenir des informations automatiques sur la stabilité du manteau neigeux ou le risque d'avalanche à partir de modèles de neige et de météo. Les avantages sont évidents : dans les Alpes, où les données de terrain sont vraiment abondantes, de tels systèmes permettraient d'améliorer encore la résolution spatiale des informations et les services d'alerte disposeraient d'un outil supplémentaire. Dans les régions du monde où les services d'alerte sont inexistants ou moins bien équipés, une application opérationnelle permettrait d'augmenter l'information de manière d'autant plus significative. Dans ce contexte, la question se pose de savoir si et dans quelle mesure les méthodes basées sur l'IA représentent un gain pratique d'informations par rapport aux méthodes classiques, étant donné qu'en dehors des Alpes, la base de données est généralement bien moins bonne. Dans certaines circonstances, on n'a même pas l'embarras du choix pour calculer des variables telles que la sphéricité ou les taux de déformation, mais on doit se limiter au vent et à la neige fraîche dans les prévisions météorologiques.

L'IA : intelligente en théorie, pas toujours en pratique

Un principe important s'applique à toute forme de statistique, qu'elle soit "intelligente" ou non : Garbage in, garbage out (GIGO). L'algorithme ML peut être aussi intelligent que possible - si on le nourrit de déchets, c'est-à-dire de mauvaises données, il recrache aussi des déchets. Ce que nous pouvons apprendre des données à l'aide des méthodes d'apprentissage automatique n'est jamais aussi bon que les données elles-mêmes. D'une part, les algorithmes ML reproduisent des erreurs qui sont peut-être contenues dans les données et, d'autre part, il se peut qu'ils n'apprennent pas ce qu'ils sont censés apprendre si les données permettent une trop grande marge de manœuvre. De plus, de nombreux algorithmes ML, y compris les forêts aléatoires des études mentionnées, sont ce que l'on appelle des modèles de boîte noire - nous ne pouvons pas comprendre entièrement comment le résultat qui est recraché à la fin est produit.

Les données utilisées pour les études mentionnées ci-dessus sont bien sûr le contraire d'un déchet de données. Cependant, les profils d'enneigement enregistrés par des observateurs humains, les évaluations de stabilité et les niveaux de danger déterminés par le service de prévision des avalanches comportent bien une certaine marge d'interprétation. Par définition, les prévisions ne sont pas toujours parfaitement exactes et la détermination du niveau de danger peut être discutée à l'infini. Ce n'est pas une tâche triviale que de définir un juste et un faux absolu, ou un stable et un instable, pour ce type de données d'entraînement. En raison de son mode de pensée naturellement binaire, l'ordinateur le fait par principe, mais cela ne le rend pas plus juste ou plus faux.

Dans les deux préprints cités, les caractéristiques des données d'entrée et le nettoyage des données constituent un thème important. Dans le cas du modèle de niveau de risque, par exemple, on a "appris" une fois avec toutes les données et une fois avec un ensemble de données nettoyé, qui contient probablement moins d'erreurs de prédiction et présente aussi un peu moins de biais. L'algorithme a "appris" comment la météo et le manteau neigeux simulé au cours des 20 dernières années sont liés au degré de danger prévu en Suisse. Si, par exemple, il devait y avoir des particularités suisses, le modèle les a également apprises.

Les avalanches sont physiquement très complexes et la prévision des avalanches est une sorte d'exemple type des capacités impressionnantes du cerveau humain à tirer des conclusions pertinentes à partir d'informations incomplètes et multidimensionnelles. C'est précisément pour cette raison que la recherche sur les avalanches en tant que domaine d'application de l'IA est très passionnante, mais aussi très stimulante. Nous sommes impatients de voir où l'évolution va nous mener dans les années à venir!

Merci à Stephanie Mayer et Frank Techel (tous deux du SLF) d'avoir contribué à cet article!

.

Remarque

PowderGuide.com est un site à but non lucratif, nous sommes donc heureux de recevoir votre soutien. Si vous souhaitez améliorer notre backend de traduction DeepL, n'hésitez pas à écrire un email aux éditeurs avec vos suggestions pour une meilleure compréhension. Merci beaucoup à l'avance!

Vers l'original (Allemand)

Articles similaires

Commentaires