Saltar al contenido

Cookies 🍪

Este sitio utiliza cookies que requieren consentimiento.

Más información

Esta página también está disponible en English.

Zur Powderguide-Startseite Zur Powderguide-Startseite
Conocimientos sobre la montaña

El mundo de la ciencia | Avalanchas e inteligencia artificial

¿Qué ventajas aporta la IA a la investigación de aludes?

28/03/2022
Lea Hartl
La inteligencia artificial y el aprendizaje automático son las palabras de moda en muchos ámbitos y lo han sido durante los últimos años. Las técnicas correspondientes también se utilizan cada vez más en la investigación de la nieve y las avalanchas. ¿Qué es exactamente la IA, cuáles son sus aplicaciones concretas y cuáles son sus ventajas?

La inteligencia artificial (IA) es más o menos cualquier cosa que permita a los ordenadores simular el comportamiento o las decisiones humanas. El aprendizaje automático suele referirse a una subcategoría de la IA. En este caso, los ordenadores reciben datos y "aprenden" algo de ellos sin que se les diga explícitamente qué deben hacer exactamente. El aprendizaje automático (AM), a su vez, abarca desde la regresión lineal, que quizá recuerde del colegio, hasta las complejas redes neuronales.

Procesamiento rápido de grandes conjuntos de datos

En las geociencias, el AM se utiliza a menudo para procesar grandes cantidades de datos o conjuntos de datos complejos y multidimensionales de forma más rápida y eficiente de lo que sería posible con la programación explícita. En la literatura actual, por ejemplo, hay numerosos estudios que utilizan métodos de ML de un modo u otro para la clasificación del terreno y la identificación de huellas de avalancha. Esto es particularmente útil en regiones del mundo donde los datos del terreno sólo están disponibles en resolución moderada y tales clasificaciones no existen ya (algunos ejemplos: Irán, Irán, Irán, India, Tianshan, Turquía). Los métodos ML también son muy útiles para identificar avalanchas en datos de satélite. Los algoritmos de ML reciben conjuntos de datos en los que las avalanchas se han etiquetado manualmente y los utilizan para entrenarse en la búsqueda de avalanchas en las imágenes de satélite. Esto no siempre funciona a la perfección, pero funciona relativamente bien y es más rápido y mucho menos laborioso que el recuento manual de avalanchas para regiones enteras (Snow avalanche detection and mapping in multitemporal and multiorbital radar images from TerraSAR-X and Sentinel-1,Snow Avalanche Segmentation in SAR Images With Fully Convolutional Neural Networks).

).

¿AI para la alerta de aludes?

Desde la perspectiva del esquí, la pregunta surge de forma natural: ¿Qué puede decirnos la inteligencia artificial sobre el peligro de aludes? ¿Saben los ordenadores algo que no sepan los servicios de alerta de aludes? De momento, no, aunque es posible que sean capaces de reconocer correlaciones multidimensionales demasiado complejas para el cerebro humano. No cabe duda de que las aplicaciones operativas son concebibles en el futuro. Dos preprints actuales del SLF van en esta dirección (los preprints son estudios enviados a revistas científicas a los que se puede acceder en línea pero que aún no han sido sometidos a un proceso completo de revisión por pares). En ambos casos se utiliza el llamado modelo de bosque aleatorio. El "bosque aleatorio" es un "bosque" de muchos árboles de decisión y se utiliza a menudo para la clasificación automatizada de grandes conjuntos de datos.

En "Un modelo de bosque aleatorio para evaluar la inestabilidad de la nieve a partir de la estratigrafía simulada de la nieve", se ve así: Más de 700 perfiles de nieve sirven de base de datos, para los que se dispone, entre otras cosas, de los resultados de una prueba de bloques de deslizamiento. En función del bloque de deslizamiento, los perfiles se clasifican manualmente como estables, inestables o "algo intermedio". Con ayuda de los datos meteorológicos, todos los perfiles se simularon también con un modelo de manto de nieve, de modo que hay un perfil real excavado en la nieve y un perfil simulado. Para cada perfil simulado, se describen las capas débiles relevantes y la capa de nieve suprayacente mediante 34 "características", entre las que se incluyen, por ejemplo, el tamaño del grano de la capa, la diferencia en el tamaño del cono con la capa siguiente, la resistencia al cizallamiento, la viscosidad, la densidad, etc.

El algoritmo Random Forest recibe entonces datos de entrenamiento clasificados manualmente, es decir, perfiles y las "características" correspondientes que se han identificado como estables o inestables. A continuación, el algoritmo "aprende" qué características son decisivas para la estabilidad o la inestabilidad y clasifica los perfiles simulados en la categoría "estable" o "inestable" en función de las propiedades de la capa débil y del tablero suprayacente. La comparación con el perfil "real" y los datos de avalanchas muestra que la inestabilidad se reconoce con bastante fiabilidad. Los autores del estudio ven potencial para incorporar estos métodos a las alertas operativas de aludes en un futuro próximo.

Es interesante destacar que la inestabilidad suele reconocerse a pesar de que los perfiles simulados del modelo del manto de nieve se generan con datos meteorológicos interpolados espacialmente, lo que significa que son algo borrosos y no reflejan las diferencias microclimáticas a pequeña escala. No obstante, los factores meteorológicos más decisivos para las capas débiles son aparentemente captados.

Además, es interesante ver cuáles de los 34 rasgos característicos son los más importantes para la clasificación estable/inestable. En el algoritmo Random Forest, los 6 siguientes son los más centrales:

  • La tasa de deformación viscosa

  • La "longitud de corte crítica" (longitud que se sierra en una prueba de sierra de propagación hasta que se produce la rotura)

  • La profundidad de penetración del esquiador (fuertemente dependiente de la densidad de los 30 cm superiores del manto de nieve)

  • La esfericidad del grano en la capa débil (¿cómo de redondos son los granos?))

  • La relación entre la densidad media de la placa de nieve y el tamaño del grano

  • El tamaño del grano en la capa débil

Todas las demás características tienen poca o ninguna influencia en el resultado. Sin duda, esto dará lugar a muchas más preguntas de investigación. El bosque aleatorio puede ser "inteligente", pero no puede explicar exactamente por qué elige estas características. Se necesitan otros enfoques para explicar esto en términos de física de la nieve.

El segundo preprint actual del SLF, "Predicciones automatizadas basadas en datos del nivel de peligro de avalancha para condiciones de nieve seca en Suiza", también utiliza la clasificación de bosque aleatorio. En este caso, el nivel de peligro de avalancha se determina automáticamente a partir de los datos meteorológicos y los cálculos del modelo del manto de nieve. Esto tiene éxito en el 70 a casi el 80% de los casos analizados. Sin embargo, existen ciertas diferencias regionales y el conjunto funciona algo peor si prevalece un problema de nieve antigua. Se excluyeron las situaciones de nieve húmeda debido a los procesos especiales de avalancha. Los datos de entrenamiento con los que "aprende" el modelo incluye los inviernos 1997-98 a 2017/18, el modelo se probó con datos de los dos últimos inviernos (2018/19 y 2019/20)

Una vez más, hay numerosos rasgos y parámetros característicos que están a disposición del Random Forest para asignar el nivel de peligro adecuado a un día. Y una vez más, resulta que solo relativamente pocas características influyen significativamente en la clasificación: varios parámetros de nieve nueva y de deriva, la tasa de nevadas, la profundidad de penetración del esquiador, la "longitud de corte crítica", así como la humedad relativa, la temperatura del aire y los índices de estabilidad. En principio, exactamente las mismas cosas que también se incorporan en gran medida en el "manual" de previsión de aludes.

En ambos casos, los estudios pretenden utilizar modelos nivológicos y meteorológicos para hacer afirmaciones automáticas sobre la estabilidad de la capa de nieve y el riesgo de aludes. Las ventajas son evidentes: en los Alpes, verdaderamente bendecidos con datos sobre el terreno, estos sistemas podrían mejorar aún más la resolución espacial de la información y los servicios de alerta dispondrían de una herramienta adicional. En las regiones del mundo donde no existen servicios de alerta o están mal equipados, una aplicación operativa supondría un aumento aún más significativo de la información. En este contexto, se plantea la cuestión de saber si, y en qué medida, los métodos apoyados por la IA representan una ganancia práctica de información en comparación con los métodos "clásicos", ya que la base de datos global suele ser mucho más pobre fuera de los Alpes. En determinadas circunstancias, puede que ni siquiera sea posible calcular con variables como la esfericidad o las tasas de deformación, sino que debe limitarse al viento y la nieve fresca en la previsión meteorológica.

AI: teóricamente inteligente, en la práctica no siempre

Un principio importante para cualquier forma de estadística, ya sea "inteligente" o no, es: basura dentro, basura fuera (GIGO). No importa lo inteligente que sea el algoritmo de ML: si lo alimentas con basura, es decir, con datos malos, también escupirá basura. Lo que podemos aprender de los datos con la ayuda de métodos de aprendizaje automático sólo es tan bueno como los propios datos. Por un lado, los algoritmos de ML reproducen los errores que puedan contener los datos y, por otro, pueden no aprender lo que se supone que deben aprender si los datos dejan demasiado margen de maniobra. Muchos algoritmos de ML, incluyendo los bosques aleatorios de los estudios mencionados anteriormente, son también los llamados modelos de caja negra - no podemos entender completamente cómo se crea el resultado que se escupe al final.

Los datos utilizados para los estudios mencionados anteriormente son, por supuesto, lo contrario de basura de datos. Sin embargo, los perfiles de nieve registrados por observadores humanos, las evaluaciones de estabilidad y los niveles de peligro determinados por el servicio de alerta de aludes contienen un cierto margen de interpretación. Las predicciones, por definición, no siempre son del todo exactas y la determinación "correcta" del nivel de peligro puede discutirse más o menos sin fin. No es tarea trivial definir un acierto y un error absolutos, o estable e inestable, con este tipo de datos de entrenamiento. El ordenador lo hace en principio debido a su forma de pensar naturalmente binaria, pero esto no lo hace más correcto o incorrecto.

Las características de los datos de entrada y la limpieza de datos son un tema importante en los dos preprints citados. Por ejemplo, el modelo de nivel de riesgo se "aprendió" una vez con todos los datos y otra con un conjunto de datos depurados, que presumiblemente contiene menos predicciones falsas y también tiene algo menos de sesgo. El algoritmo ha "aprendido" cómo se relacionan el tiempo y la capa de nieve simulada de los últimos 20 años con el nivel de peligro previsto en Suiza. Así, si hay alguna peculiaridad suiza, por ejemplo, el modelo también la ha aprendido.

Las avalanchas son físicamente muy complejas y la predicción de aludes es una especie de ejemplo paradigmático de la impresionante capacidad del cerebro humano para extraer conclusiones relevantes a partir de información incompleta y multidimensional. Precisamente por eso, la investigación de aludes como campo de aplicación de la IA es muy emocionante, pero también muy desafiante. Estamos impacientes por ver adónde nos llevarán los avances en los próximos años.

Muchas gracias a Stephanie Mayer y Frank Techel (ambos de SLF) por sus aportaciones a este artículo.

Nota

Este artículo ha sido traducido automáticamente con DeepL y posteriormente editado. Si, a pesar de ello, detectáis errores ortográficos o gramaticales, o si la traducción ha perdido sentido, no dudéis en enviar un correo electrónico a la redacción.

Ir al original (Alemán)

Artículos relacionados

Comentarios