Saltar al contenido

Cookies 🍪

Este sitio utiliza cookies que requieren consentimiento.

Más información

Esta página también está disponible en English.

Zur Powderguide-Startseite Zur Powderguide-Startseite
Conocimientos sobre la montaña

Welt der Wissenschaft | Frank Techel (SLF) sobre personas y modelos

Humanos y modelos en la alerta de avalanchas: ¿conoce la inteligencia artificial el nivel de peligro de mañana?

26/02/2025
Lea Hartl
Frank Techel es pronosticador de aludes e investigador en el SLF. Se ocupa de la integración de modelos en la previsión operativa de aludes y cree que existe un gran potencial para mejorar la alerta de aludes cuando humanos y máquinas trabajan juntos. En la entrevista, explica cómo la "IA" ayuda al equipo humano del SLF a elaborar el boletín y dónde están los límites de los modelos.

Además del modelo físico de manto de nieve SNOWPACK, que utiliza datos meteorológicos para calcular la estratificación del manto de nieve en un punto concreto, en el SLF se utilizan tres modelos de aprendizaje automático ("IA"). Estos modelos han "aprendido" correlaciones estadísticas entre las simulaciones de la capa de nieve, los datos meteorológicos y las observaciones de aludes o los niveles de peligro utilizando conjuntos de datos de entrenamiento. Las correlaciones aprendidas se utilizan para predecir parámetros relevantes de las avalanchas (probabilidad de desencadenamiento, nivel de peligro) sin la intervención de pronosticadores humanos.

PG: En sus publicaciones, usted escribe que la tendencia en la alerta suiza de avalanchas se aleja de un enfoque puramente "basado en expertos" y se acerca a un "enfoque basado en datos y modelos". Es ese un objetivo fundamental para usted?

FT: No sé si un enfoque puramente basado en datos y modelos es realmente el objetivo, pero sí veo como una evolución lógica una mayor integración de modelos cada vez mejores en el proceso de previsión. Hasta hace unos cinco años, lo único que teníamos en realidad en las alertas de aludes eran las observaciones de hoy, las mediciones de hoy y una previsión meteorológica para el día siguiente. También disponíamos del modelo de manto nivoso SNOWPACK, pero rara vez se utilizaba en nuestra zona. Por tanto, los modelos meteorológicos eran los únicos que realmente desempeñaban un papel. Todo lo demás lo hacían los vigilantes de aludes con su experiencia, sus conocimientos y su intuición. A eso me refiero con enfoque basado en expertos.

Desde hace unos años, disponemos de muchos más datos de modelos. Por un lado, SNOWPACK, que cada vez utilizamos más para hacer previsiones, y por otro, los modelos de aprendizaje automático que se añaden sobre SNOWPACK. Han pasado muchas cosas desde que se publicó el último artículo de PowderGuide sobre este tema. En aquel momento, ya habíamos probado parcialmente las cadenas de modelos, pero ahora son muy estables y están en uso operativo. Además de todo el trabajo de programación que ha sido necesario para ello, la formación de los guardas de aludes también es extremadamente importante. Todos tenemos que aprender lo que los modelos pueden hacer y, sobre todo, lo que no pueden hacer.

¿También está notando esta tendencia en los países vecinos hacia los modelos y lejos de la experiencia puramente humana?

Sí. Cuando hablo con colegas en Tirol, o en Noruega o Canadá, en realidad está claro para todos que los modelos ofrecen una gran oportunidad. No me refiero a la IA, sino a todos los modelos. Desde luego, aún queda mucho trabajo de implementación, así como de investigación, pero los modelos tienen un gran potencial para mejorar la alerta de aludes. Estoy tratando de promover esta transferencia - que los modelos realmente vienen de la investigación a nosotros en la previsión de avalanchas.

¿Qué aspecto tiene el "enfoque basado en modelos" en las operaciones diarias?

Aún no sé si lo llamaría enfoque basado en modelos. Pero los modelos ya ofrecen una valiosa segunda opinión sobre cómo interpretar los datos existentes. Así que cuando hago una previsión, sigo teniendo exactamente las mismas consideraciones que hace unos años, pero también tengo un modelo que me dice algo sobre la probabilidad de avalanchas espontáneas, por ejemplo.

¿Qué espera obtener de los modelos en el futuro?

Los modelos me ayudan a analizar mis propias previsiones. Si el modelo me dice algo diferente, pienso si he pasado algo por alto o si el modelo no ve algo. Además, los modelos también pueden ayudarnos a reconocer patrones espaciales, lo que a su vez puede dar lugar a previsiones más precisas desde el punto de vista espacial. Ya podemos ver que la previsión de avalanchas es cada vez más detallada. Hace diez años, podíamos haber diferenciado y descrito cinco zonas de peligro distintas en los Alpes suizos. Ahora a menudo hay diez zonas. Sin embargo, esta tendencia tiene un tope, que viene determinado por lo que la gente puede hacer. Esto se debe a que los pronosticadores de aludes estamos limitados en nuestra capacidad de procesar datos. Los modelos pueden calcular con una resolución espacial y temporal casi infinita.

En Suiza se emite un boletín dos veces al día y la resolución espacial es la de las llamadas microrregiones.

Sí, eso es más o menos lo que podemos hacer los humanos. E incluso así, no hacemos una evaluación para cada una de las ciento cuarenta microrregiones, sino que las resumimos. En teoría, podríamos evaluar las ciento cuarenta individualmente, pero entonces también tendríamos que saber en qué se diferencia cada región de las vecinas y luego escribir algo para cada región individualmente. Eso no es posible con dos o tres personas en el equipo de previsión. Para que algo así fuera posible, la máquina tendría que ser capaz de hacer una gran parte. ¿Pero puede hacerlo? ¿Y qué resolución tiene sentido actualmente con los datos disponibles?

Podría pensarse que la alta resolución es genial, más información es más información. ¿Cuándo es demasiado o deja de ser útil?

Esa es una buena pregunta y no tengo una respuesta por el momento. Basándome puramente en lo que veo operacionalmente ahora, tengo bastante claro que los modelos no hacen previsiones de una sola pendiente. Probablemente sea posible una resolución ligeramente superior a la actual. Averiguar qué sería posible si los humanos y los modelos trabajaran juntos es extremadamente difícil.

¿Por qué los modelos no hacen previsiones a una sola pendiente?

Mi sensación es que de momento estamos muy, muy lejos de eso. En Suiza, trabajamos con simulaciones de la capa de nieve que se hacen en las estaciones meteorológicas y luego interpolamos entre ellas. Esto significa que todo lo que hacemos entre medias es una especie de difuminación de información puntual. Tenemos en cuenta la orientación de las pendientes y el nivel del mar, pero nada de topografía local, realmente cero.

Los datos del terreno para esto estarían disponibles en Suiza, ¿no?

Sí, teóricamente se puede simular la capa de nieve para cualquier punto o pendiente. Pero la medida en que estas simulaciones pueden representar los efectos locales o la variabilidad de la cubierta de nieve es cuestionable, por lo que creo que todavía se necesita mucha investigación.

Hablemos con más detalle de los modelos que utiliza. ¿Puede explicarnos brevemente qué hace SNOWPACK?

SNOWPACK toma los datos meteorológicos y los utiliza para calcular la capa de nieve, por así decirlo. Cada fenómeno meteorológico influye en el manto de nieve, ya sea un aumento con una nueva capa de nieve, o cuando penetra agua de deshielo, o cualquier otra cosa. SNOWPACK simula entonces estos procesos para un punto concreto.

SNOWPACK no es un modelo de IA, sino un modelo físico que calcula lo que ocurre en el manto de nieve cuando llueve o nieva sobre él, por ejemplo, basándose en nuestra comprensión del proceso.

Exactamente, sí.

Ahora tienen varios modelos de IA, como el Modelo de Nivel de Peligro, el Modelo de Inestabilidad y el Modelo de Avalancha Natural. ¿Qué hacen?

Como he dicho, tenemos las simulaciones muy complejas de SNOWPACK en cientos de puntos de datos y para diferentes exposiciones. En total, son muchos datos que primero hay que hacer utilizables e interpretables para el sistema de alerta de aludes. Con los modelos de IA, intentamos filtrar la información más relevante.

Los tres modelos de IA están entrenados para una cuestión muy específica. Cada uno puede hacer una cosa específica. El modelo de nivel de peligro, por ejemplo, ha utilizado datos de los últimos veinte años para aprender qué combinación de datos meteorológicos y capas de nieve SNOWPACK se correlaciona aproximadamente con qué nivel de peligro.

El modelo de inestabilidad es diferente. Sólo toma el perfil de capa simulado y pasa por cada combinación de capas. ¿Qué aspecto tiene la capa? ¿Podría ser una capa débil y hay una capa de nieve sobre ella? El modelo ha aprendido las correlaciones basándose en las pruebas de bloques deslizantes. A continuación, da una probabilidad de que se trate de una combinación típica de una capa débil y la "losa" que hay sobre ella. Basándonos en datos anteriores, esperamos entonces un resultado de bloque de deslizamiento más o menos débil. La combinación más desfavorable de capa y placa en un perfil simulado clasifica entonces el perfil de nieve como débil o estable.

El modelo de avalancha espontánea se basa en el modelo de inestabilidad y también toma la nieve fresca como parámetro. Ha aprendido de un conjunto de datos históricos con avalanchas observadas. El invierno pasado utilizamos el modelo por primera vez y analizamos su correlación con los aludes detectados por radar. Los datos de radar proceden de determinadas pistas de aludes en las que sensores instalados permanentemente reconocen cuándo está a punto de producirse un alud. Estos sistemas se utilizan, por ejemplo, para el cierre automático de carreteras en vías de tráfico expuestas. Se trata de un conjunto de datos interesante para evaluar el modelo de avalancha espontánea, ya que el radar registra las avalanchas prácticamente en tiempo real. En cambio, las observaciones humanas de los aludes suelen retrasarse un poco porque no siempre nos damos cuenta de que se producen en cuanto empiezan, o porque está nevando y simplemente no vemos nada. La comparación con las detecciones de radar confirmó nuestra sensación de que el modelo reacciona con un ligero retraso. Esto se debe probablemente a que el modelo se entrenó con observaciones humanas, que también sufren un ligero retraso. Por lo tanto, es muy importante para todos los modelos que sepamos cómo se entrenan los modelos, ya que esto también determina los posibles errores.

Los modelos estadísticos basados en IA se entrenan con tus previsiones y observaciones y con las simulaciones del manto nivoso de SNOWPACK. Eso significa que todavía tenemos que entender los procesos físicos y no podemos confiar sólo en la magia de la IA, ¿verdad? Me gustaría mucho disponer de modelos que representen lo mejor posible los procesos físicos. Nunca me fijo sólo en los resultados del modelo de inestabilidad, siempre vuelvo a la simulación SNOWPACK y miro algunas de las estaciones para ver si las capas parecen plausibles. Es muy importante que al menos empecemos a comprender lo que ocurre en estas largas cadenas de modelos. Los modelos de IA llegan al final y en realidad se superponen a todo lo que ocurre antes.

Los modelos de IA ayudan a extraer la información relevante. SNOWPACK escupe montones y montones de información y la IA la filtra por nosotros. ¿Puede resumirlo así?

Sí, se puede resumir así. Al fin y al cabo, se trata simplemente de modelos que acaban encima de SNOWPACK. Pero estos "pequeños" modelos han supuesto un gran salto en el uso de SNOWPACK en nuestro servicio de previsión. Esto se debe a que, de repente, hacen digerible el complejo resultado del modelo SNOWPACK extrayendo de él información relevante relativamente fácil de entender. Por lo tanto, creo que sería importante que pudiéramos integrar los modelos aún más fácilmente al crear la previsión.

Hay que dar a los modelos de IA buenos datos de entrenamiento para que ofrezcan buenos resultados y el modelo de nivel de peligro se entrenó con sus previsiones de aludes. ¿Cómo se sabe si las previsiones eran buenas y el modelo aprende lo correcto?

El modelo de nivel de peligro no se entrenó simplemente con nuestras previsiones, sino con previsiones verificadas. Sin embargo, siempre hay un elemento humano implicado, tanto en la previsión como retrospectivamente en la revisión. Porque siempre es una persona la que determina un nivel de peligro. Para la revisión, por ejemplo, utilizamos los comentarios de los observadores que hacen una evaluación del riesgo. O la actividad de aludes observada. También discutimos a posteriori, cuando tenemos todos los datos de un día, si el nivel de peligro era correcto. Pero una revisión fiable de la previsión es realmente muy difícil con los datos disponibles. [Puede encontrarse más información de Frank sobre la verificación de las previsiones de aludes en este artículo de PG]

¿Cómo interpretas cuando el modelo te dice algo que no esperas?

Para mí, lo primordial es que el modelo diga algo distinto de lo que yo imaginaba. Esto significa que, o bien he pasado algo por alto, o bien al modelo le falta información. Por ejemplo, si empezamos una fase de avalanchas y oímos hablar de grandes aludes, esta información pasa a nuestra previsión para mañana. El modelo de nivel de peligro no tiene esta información. No tiene ni idea de los aludes que ya se han producido, simplemente calcula en función de la meteorología. Ese sería un caso en el que mi valoración es probablemente más correcta, porque sé que ya se han producido grandes aludes.

También hay casos menos claros, por ejemplo cuando tenemos un problema de nieve antigua y estamos en descenso del nivel tres al dos. El modelo de nivel de peligro suele declinar un poco más rápido que nosotros. La gran pregunta es siempre: ¿estamos siendo demasiado prudentes o es que el modelo no reconoce las capas débiles? Aún no tenemos una solución sobre si debemos tener en cuenta el modelo y cómo.

El modelo de niveles de riesgo ya está integrado en el funcionamiento

Sí, ahora tenemos un enfoque que integra el modelo de niveles de riesgo directamente en el software del boletín. Los demás modelos fluyen como información adicional mientras preparamos la previsión. Creo que vamos por buen camino, pero nuestros procesos aún no son ideales. También tenemos que averiguar cuándo los modelos son mejores que nosotros y cuándo simplemente no pueden hacerlo todavía. Estos son los principales retos para utilizar los modelos de la forma más eficaz posible.

En su flujo de trabajo, todos los pronosticadores y el modelo de nivel de peligrosidad hacen una propuesta para el nivel de peligrosidad de mañana. El modelo es tratado como un miembro más del equipo que realiza una previsión. La idea detrás de esto es que cuantos más miembros del conjunto o sugerencias tengas, mejor será el resultado?

Exactamente, tomamos la mediana de este conjunto. La condición básica para que algo así funcione es que cada miembro del conjunto sea competente. Esto no significa que siempre acierten, sino que, por término medio, acierten más a menudo que se equivoquen. Si tenemos tres pronosticadores malos y formamos una media, el resultado puede ser aún peor. Si los tres son bastante buenos de media, el valor medio suele ser un buen punto de partida para la discusión posterior.

Siempre trabajamos con dos pronosticadores de aludes y el modelo. Si las dos personas están de acuerdo y el modelo se desvía, y entonces se forma una mediana, entonces el modelo no tiene realmente nada que decir. Y si las dos personas no están de acuerdo, entonces el modelo puede inclinar la balanza. Pero también podemos excluir deliberadamente el modelo si estamos bastante seguros de que es erróneo. La idea es, por tanto, determinar primero una propuesta lo más objetiva posible y luego debatirla. La idea no es que una personalidad fuerte imponga su propuesta, sino que la discutamos en equipo, basándonos en un anclaje relativamente fuerte desde el punto de vista estadístico.

¿Cómo funciona eso en la práctica? Yo digo tres más. Tú dices cuatro menos, el modelo dice tres más. Entonces formamos la mediana.

En este caso, si incluimos el modelo, empezaríamos con 3+ como punto de partida. Supongamos que ahora estoy muy descontento con dar a la situación un 3+ para mañana. Entonces mi tarea consistiría en explicar a los demás por qué no me parece correcto. Tan basado en datos como sea posible, aunque, por supuesto, esto es difícil porque al final siempre interviene nuestra interpretación humana. En este debate, es probable que se tomen decisiones en un sentido o en otro. Y esa es también una de nuestras debilidades, porque los humanos no siempre somos coherentes.

Así que sigue siendo humano?

Es claramente humano. Seguimos siendo sistemas de alerta de avalanchas fundamentalmente humanos. Sin embargo, los modelos pueden servirnos de apoyo y mostrarnos dónde tal vez debamos fijarnos más hoy.

¿Seguirá siendo así en el futuro?

No sé cómo será una alerta de aludes en el futuro. Quizá dentro de diez años la previsión tenga una alta resolución, quizá los modelos hagan gran parte de la previsión. ¿Quién sabe? Quizá por eso sea aún más importante que podamos dar explicaciones y comunicar al usuario: "Cuidado ahí...". En otras palabras, esa voz humana que aporta. Cómo será la previsión de avalanchas del futuro es algo que todavía tengo muy abierto.

Nota

Este artículo ha sido traducido automáticamente con DeepL y posteriormente editado. Si, a pesar de ello, detectáis errores ortográficos o gramaticales, o si la traducción ha perdido sentido, no dudéis en enviar un correo electrónico a la redacción.

Ir al original (Alemán)

Artículos relacionados

Comentarios