Aller au contenu

Cookies 🍪

Ce site utilise des cookies qui nécessitent votre consentement.

Plus de détails dans notre politique de confidentialité

Cette page est également disponible en English.

Zur Powderguide-Startseite Zur Powderguide-Startseite
Guides de Montagne

Welt der Wissenschaft | Frank Techel (SLF) sur les hommes et les modèles

Hommes et modèles dans la prévision des avalanches - l'intelligence artificielle connaît-elle le niveau de danger de demain ?

26/02/2025
Lea Hartl
Frank Techel est un prévisionniste d'avalanche et chercheur au SLF. Il s'occupe de l'intégration de modèles dans la prévision opérationnelle des avalanches et pense qu'il existe un grand potentiel pour améliorer la prévision des avalanches lorsque l'homme et la machine travaillent ensemble. Dans l'interview, il explique comment "l'IA" soutient l'équipe humaine du SLF dans l'élaboration du bulletin et quelles sont les limites des modèles.

En plus du modèle physique de manteau neigeux SNOWPACK, qui calcule la stratification du manteau neigeux en un point donné à partir de données météorologiques, trois modèles d'apprentissage automatique ("AI") sont utilisés au SLF. Ces modèles ont "appris", à l'aide de jeux de données d'entraînement, des relations statistiques entre les simulations du manteau neigeux, les données météorologiques et les observations d'avalanches ou les niveaux de danger. Les relations apprises sont utilisées pour prévoir les paramètres pertinents des avalanches (probabilité de déclenchement, niveau de danger) sans l'intervention de prévisionnistes humains.

PG : Dans tes publications, tu écris que la tendance en matière de prévision des avalanches en Suisse est de s'éloigner d'une pure "approche basée sur l'expertise" et de se diriger vers une "approche basée sur les données et les modèles". Est-ce un objectif fondamental chez vous ?

FT : Je ne sais pas si une approche purement axée sur les données et les modèles est vraiment l'objectif, mais je considère qu'une plus grande prise en compte de modèles de plus en plus performants dans le processus de prévision est une évolution logique. Jusqu'à il y a environ cinq ans, nous n'avions en fait dans la prévision d'avalanche que l'observation du jour, les valeurs mesurées du jour et une prévision météorologique pour le lendemain. Nous avions déjà le modèle de manteau neigeux SNOWPACK, mais il était peu utilisé chez nous. Les modèles météo étaient donc les seuls modèles qui ont vraiment joué un rôle. Tout le reste a été fait par les prévisionnistes d'avalanche avec leur expérience, leurs connaissances, leur intuition. C'est ce que j'entends par "Expert Based Approach".

Depuis quelques années, nous disposons de beaucoup plus de données de modélisation. D'une part SNOWPACK, que nous utilisons de plus en plus pour les prévisions, et d'autre part les modèles de Machine Learning, qui viennent quasiment se greffer sur SNOWPACK. Il s'est passé beaucoup de choses depuis le dernier article de PowderGuide sur le sujet. A l'époque, nous avions déjà partiellement testé les chaînes de modèles, mais entre-temps, cela fonctionne de manière très stable et est utilisé de manière opérationnelle. Outre tout le travail de programmation qui a été nécessaire, la formation des signaleurs et signaleuses d'avalanches est également méga importante. Nous devons tous apprendre ce que les modèles peuvent faire et surtout ce qu'ils ne peuvent pas faire.

Apprécies-tu également cette tendance dans les pays voisins, vers les modèles et l'abandon de l'expertise purement humaine ?

Oui. Lorsque je parle avec des collègues au Tyrol, ou en Norvège ou au Canada, il est en fait clair pour tous que les modèles offrent une grande opportunité. Je ne parle pas ici de l'IA, mais de tous les modèles. Il y a certainement encore beaucoup de travail de mise en œuvre à faire, tout comme de la recherche, mais les modèles ont un grand potentiel pour améliorer la prévision des avalanches. J'essaie de faire avancer ce transfert - que les modèles passent vraiment de la recherche à nous pour la prévision des avalanches.

Qu'en est-il de l'"approche axée sur les modèles" dans l'exploitation courante?

Je ne sais pas si je parlerais déjà d'une "approche axée sur les modèles". Mais les modèles offrent déjà un deuxième avis précieux sur la manière d'interpréter les données disponibles. Ainsi, lorsque je fais une prévision, je continue à faire exactement les mêmes réflexions qu'il y a quelques années, mais j'ai aussi un modèle qui me dit quelque chose sur la probabilité d'avalanches spontanées, par exemple.

Qu'attends-tu des modèles à l'avenir?

Les modèles m'aident à remettre en question mes propres prévisions. Si le modèle dit quelque chose de différent de moi, je me demande si j'ai raté quelque chose ou si le modèle ne voit pas quelque chose. Et puis les modèles peuvent aussi nous aider à reconnaître des modèles spatiaux, ce qui peut alors conduire à des prévisions spatialement plus précises. On voit déjà chez nous que les prévisions d'avalanches sont de plus en plus précises. Il y a dix ans, nous distinguions et décrivions peut-être cinq zones de danger différentes dans l'espace alpin suisse. Aujourd'hui, il y a souvent dix zones. Cette tendance a toutefois un plafond, qui est déterminé par ce que l'homme peut faire. Car nous, les prévisionnistes d'avalanches, sommes limités dans notre capacité à traiter les données. Les modèles peuvent effectuer des calculs à haute résolution spatiale et temporelle presque à l'infini.

En Suisse, il y a un bulletin deux fois par jour et la résolution spatiale est ce qu'on appelle les microrégions.

Oui, c'est à peu près ce que nous pouvons faire en tant qu'êtres humains. Et même là, nous ne faisons pas d'estimation pour chacune des cent quarante microrégions, mais nous résumons. En théorie, nous pourrions évaluer les cent quarante régions individuellement, mais nous devrions alors savoir pour chacune d'entre elles en quoi elle se distingue des régions voisines, et ensuite écrire quelque chose pour chaque région. Ce n'est pas possible avec deux ou trois personnes dans l'équipe de prévision. Pour que cela soit possible, il faudrait que la machine puisse prendre en charge une grande partie. Mais le peut-elle ? Et quelle résolution est actuellement judicieuse avec les données disponibles?

On pourrait penser qu'une résolution élevée est super, que plus d'informations est plus d'informations. Quand est-ce que c'est trop, ou que ça n'a plus de sens?

C'est une bonne question et je n'ai pas de réponse pour le moment. D'après ce que je vois actuellement sur le plan opérationnel, il est très clair pour moi que les modèles ne font pas de prévisions pour une seule pente. Une résolution un peu plus élevée que celle dont nous disposons actuellement est probablement possible. Il est très difficile de savoir ce qui serait possible si l'homme et le modèle travaillaient ensemble.

Pourquoi les modèles ne font-ils pas de prévisions pour une seule pente ?

Mon sentiment est que nous en sommes encore très, très loin pour le moment. En Suisse, nous travaillons avec des simulations de manteau neigeux réalisées dans des stations météo, puis nous interpolons entre les deux. Cela signifie que tout ce que nous faisons entre les deux est une sorte de pollution des informations ponctuelles. Nous prenons certes en compte l'orientation des pentes et le niveau de la mer, mais pas la topographie locale, vraiment zéro.

Les données de terrain pour cela existeraient bien en Suisse, non ?

Oui, en théorie, on peut simuler le manteau neigeux pour n'importe quel point ou versant. Mais on peut se demander dans quelle mesure ces simulations peuvent reproduire les effets locaux ou la variabilité du manteau neigeux.

C'est pourquoi je suis d'avis qu'il faut encore beaucoup de recherche dans ce domaine.

Parlons un peu plus précisément des modèles que vous utilisez. Peux-tu nous dire brièvement ce que fait SNOWPACK ?

SNOWPACK prend les données météorologiques et calcule en quelque sorte le manteau neigeux. Chaque événement météorologique a une influence sur le manteau neigeux, qu'il s'agisse d'une croissance avec une couche de neige fraîche, ou lorsque de l'eau de fonte s'infiltre, ou autre chose. SNOWPACK simule ensuite ces processus pour un point donné.

SNOWPACK n'est pas un modèle d'IA, mais un modèle physique qui calcule, sur la base de notre compréhension des processus, ce qui se passe dans le manteau neigeux lorsqu'il pleut ou lorsqu'il neige sur celui-ci, par exemple.

Exactement, oui.

Vous avez maintenant plusieurs modèles d'IA, dont le Danger Level Model, l'Instability Model et le Natural Avalanche Model. Que font-ils ?

Nous avons, comme je l'ai dit, les simulations très complexes de SNOWPACK sur des centaines de points de données et pour différentes expositions. Au total, cela fait beaucoup de données qu'il faut d'abord rendre utilisables et interprétables pour le système d'alerte aux avalanches. Avec les modèles d'IA, nous essayons de filtrer les informations les plus pertinentes.

Les trois modèles d'IA sont entraînés à répondre à une question très spécifique. Ils peuvent chacun faire une chose spécifique. Par exemple, le modèle de niveau de danger a appris, avec les données des vingt dernières années, quelle combinaison de données météorologiques et de couches de neige SNOWPACK est approximativement en corrélation avec quel niveau de danger.

Le modèle d'instabilité est différent. Il ne prend que le profil de couche simulé et passe en revue chaque combinaison de couches. À quoi ressemble la couche ? Peut-il s'agir d'une couche fragile et une plaque de neige se trouve-t-elle par-dessus ? Le modèle a appris les corrélations à partir de tests de blocs de glissement. Il indique alors une probabilité qu'il s'agisse d'une combinaison typique d'une couche fragile et d'une "planche" au-dessus. En nous basant sur les données du passé, nous nous attendons alors à un résultat de bloc glissant plus ou moins faible. La combinaison couche-planche la plus défavorable dans un profil simulé classe alors le profil de neige comme faible ou stable.

Le modèle d'avalanche spontanée se base sur le modèle d'instabilité et prend également la neige fraîche comme paramètre. Il a tiré des enseignements d'un ensemble de données historiques sur les avalanches observées. Nous avons utilisé le modèle pour la première fois de manière opérationnelle l'hiver dernier et avons ensuite évalué comment les prévisions du modèle étaient corrélées avec les avalanches détectées par radar. Les données radar proviennent de certains couloirs d'avalanche, où des capteurs fixes détectent lorsqu'une avalanche se déclenche. De tels systèmes sont utilisés par exemple sur les voies de circulation exposées pour des fermetures de routes automatisées. Pour l'évaluation du modèle d'avalanche spontanée, il s'agit d'un ensemble de données intéressant, car le radar enregistre les avalanches quasiment en temps réel. En revanche, les observations humaines des avalanches sont généralement légèrement décalées dans le temps, parce que nous ne remarquons pas toujours les avalanches au moment où elles se produisent, ou parce qu'il neige et que nous ne voyons tout simplement rien. La comparaison avec les détections radar a confirmé notre sentiment que le modèle réagit avec un peu de retard. C'est probablement dû au fait que le modèle a été entraîné avec les observations humaines, qui sont justement aussi un peu retardées. Il est donc très important pour tous les modèles que nous sachions comment ils sont entraînés, car cela détermine aussi les erreurs potentielles.

Les modèles statistiques basés sur l'IA sont entraînés avec vos prévisions et observations et les simulations du manteau neigeux de SNOWPACK. Cela signifie que nous avons toujours besoin de comprendre les processus physiques et que nous ne pouvons pas nous fier uniquement à la magie de l'IA, n'est-ce pas ? J'aimerais beaucoup avoir des modèles qui représentent le mieux possible les processus physiques. En fait, je ne regarde jamais seulement la sortie du modèle d'instabilité, mais je reviens toujours aussi à la simulation SNOWPACK et je regarde pour quelques stations si les couches semblent plausibles. Il est très important que nous comprenions au moins en partie ce qui se passe dans ces longues chaînes de modèles. Les modèles d'IA arrivent à la toute fin et ne font que recouvrir tout ce qui se passe avant.

Les modèles IA aident à extraire ce qui est pertinent. SNOWPACK débite beaucoup, beaucoup d'informations et l'IA filtre ensuite pour nous. Peut-on le résumer ainsi ?

Oui, on peut le résumer ainsi. En fin de compte, ce sont simplement des modèles qui sont ajoutés en haut de SNOWPACK à la fin. Mais ces "petits" modèles ont entraîné chez nous un saut assez important dans l'utilisation de SNOWPACK dans le service de prévision. En effet, ils rendent soudain digeste la sortie complexe du modèle SNOWPACK en en extrayant des informations pertinentes relativement simples à comprendre. Je pense donc qu'il serait important que nous puissions intégrer les modèles encore plus facilement lors de la création des prévisions.

Il faut donner aux modèles d'IA de bonnes données d'entraînement pour qu'ils donnent de bons résultats et le modèle de niveau de danger a été entraîné avec vos prévisions d'avalanches. Comment savez-vous si les prévisions sont bonnes et si le modèle apprend ce qu'il faut ?

Le modèle de niveau de danger n'a pas été entraîné simplement avec nos prévisions, mais avec des prévisions vérifiées. Toutefois, l'homme est toujours présent, tant dans les prévisions que dans la vérification rétrospective. En effet, c'est toujours un homme qui détermine un niveau de danger. Pour la vérification, nous utilisons par exemple les retours des observateurs qui font une évaluation du danger. Ou l'activité avalancheuse observée. En outre, nous discutons après coup, lorsque nous disposons de toutes les données relatives à un jour, pour savoir si le niveau de danger était rétrospectivement adapté. Mais une vérification fiable des prévisions est vraiment méga difficile avec les données disponibles. [Pour en savoir plus sur la vérification des prévisions d'avalanche par Frank, voir cet article de PG]

Comment interprètes-tu le fait que le modèle te dise quelque chose à quoi tu ne t'attendais pas?

Primairement, ce qui est important pour moi, c'est que le modèle dise autre chose que ce que j'avais imaginé. Cela signifie que soit j'ai oublié quelque chose, soit il manque des informations au modèle. Par exemple, si nous entrons dans une phase d'avalanche et que nous entendons parler de grosses avalanches, cette information est prise en compte dans notre prévision pour demain. Le modèle de niveau de danger n'a pas cette information. Il n'a aucune idée de ce qui s'est déjà passé en termes d'avalanches, il continue simplement à calculer en fonction de la météo. Ce serait un cas où mon évaluation serait probablement plus juste, car je sais que de grandes avalanches se sont déjà produites.

Il y a aussi des cas moins clairs, par exemple lorsque nous avons un problème de neige ancienne et que nous sommes en train de passer du degré trois au degré deux. Dans ce cas, le modèle des degrés de danger recule souvent un peu plus vite que nous. La grande question est toujours la suivante : sommes-nous simplement trop prudents ou le modèle ne voit-il pas les couches fragiles ? Là aussi, nous n'avons pas encore de solution pour savoir si et comment nous devons tenir compte du modèle.

Le modèle des niveaux de danger est déjà intégré de manière opérationnelle, n'est-ce pas ?

Oui, nous avons maintenant une approche qui intègre le modèle des niveaux de danger directement dans le logiciel du bulletin. Les autres modèles sont intégrés en tant qu'informations supplémentaires pendant que nous préparons les prévisions. Je pense que nous sommes sur la bonne voie, mais nos procédures ne sont pas encore tout à fait idéales. En outre, nous devons déterminer quand les modèles sont meilleurs que nous et quand ils n'y parviennent tout simplement pas encore. Ce sont les grands défis à relever pour utiliser les modèles de la manière la plus judicieuse possible.

Dans votre flux de travail, tous les prévisionnistes et le modèle de niveau de danger émettent une proposition pour le niveau de danger de demain. Le modèle est pour ainsi dire traité comme un autre membre de l'équipe qui fait une prévision. L'idée sous-jacente est que plus on a de membres de l'ensemble ou de propositions, meilleur est le résultat?

Exactement, nous prenons la médiane de cet ensemble. La condition de base pour que cela fonctionne est que chaque membre de l'ensemble soit compétent. Cela ne veut pas dire que l'on a toujours raison, mais que l'on a en moyenne plus souvent raison que tort. Si tu as trois mauvais pronostiqueurs et que tu calcules une moyenne, le résultat risque d'être encore pire. Si les trois sont assez bons en moyenne, la moyenne est généralement un bon point de départ pour la discussion qui suit.

Nous travaillons toujours avec deux prévisionnistes d'avalanche et le modèle. Si les deux personnes sont d'accord et que le modèle diverge, et que l'on calcule ensuite une médiane, alors le modèle n'a en fait rien à dire. Et si les deux personnes ne sont pas d'accord, alors le modèle peut faire pencher la balance. Mais nous pouvons aussi exclure délibérément le modèle si nous sommes presque sûrs qu'il est à côté de la plaque. L'idée est donc de déterminer d'abord une proposition aussi objective que possible, puis d'en discuter. Car ce n'est pas une personnalité forte qui doit imposer sa proposition, mais nous en discutons en équipe, en partant d'un ancrage relativement fort d'un point de vue statistique.

Comment cela se passe-t-il dans la pratique ? Je dis trois plus. Tu dis quatre moins, le modèle dit trois plus. Ensuite, on fait la médiane. Comment se présente alors la discussion?

Dans ce cas, si nous y ajoutons le modèle, nous commencerions avec 3+ comme point de départ. Supposons que je sois maintenant très mécontent de donner un 3 à la situation pour demain. Ma tâche serait alors d'expliquer aux autres pourquoi je ne pense pas que ce soit une bonne chose. Si possible en se basant sur des données, bien que cela soit évidemment difficile, car il y a toujours notre interprétation humaine à la fin. Dans cette discussion, il est probable que l'on décide parfois d'une manière, parfois d'une autre. Et c'est aussi l'une de nos faiblesses, car nous, les humains, ne sommes pas toujours cohérents.

Alors, il y a toujours des humains?

Il y a clairement des humains. Nous restons avant tout des avertisseurs d'avalanche humains. Mais les modèles peuvent nous aider et nous montrer où nous devons peut-être regarder de plus près aujourd'hui.

Cela restera-t-il ainsi à l'avenir ?

Je ne sais pas à quoi ressemblera une prévision d'avalanche dans le futur. Peut-être que dans dix ans, la prévision sera à haute résolution, peut-être que les modèles feront une grande partie de la prévision. Qui sait ? Mais c'est peut-être pour cela qu'il est d'autant plus important de pouvoir donner des explications et de communiquer à l'utilisateur : "Faites attention juste là...". Donc cette voix humaine que l'on apporte encore. Pour moi, la forme que prendront les prévisions d'avalanches du futur est encore très ouverte.

Remarque

PowderGuide.com est un site à but non lucratif, nous sommes donc heureux de recevoir votre soutien. Si vous souhaitez améliorer notre backend de traduction DeepL, n'hésitez pas à écrire un email aux éditeurs avec vos suggestions pour une meilleure compréhension. Merci beaucoup à l'avance!

Vers l'original (Allemand)

Articles similaires

Commentaires