Cómo aprende una IA a reconocer avalanchas
Entonces, ¿cómo se enseña a una IA a detectar avalanchas? La respuesta es: datos, datos, datos. Una IA solo puede hacer lo que se le enseña. En este caso de uso específico, esto significa que tienes que "mostrar" al modelo un montón de fotos de avalanchas. Por supuesto, también hay que mostrar a la IA fotos que no muestren una avalancha, ya que es la única forma de que aprenda a diferenciarlas. Si el entrenamiento se realizara exclusiva o predominantemente con fotos de avalanchas, el modelo tendría un fuerte sesgo, es decir, tendería a reconocer una avalancha aunque no se viera ninguna. Para el proyecto CADS se utilizaron un total de 4.090 fotos, en las que se pudieron identificar un total de 7.228 aludes individuales. La mayoría de las fotos utilizadas en el proyecto fueron facilitadas por el Servicio de Alerta de Aludes del Tirol y se tomaron principalmente en la región alpina de habla alemana, sobre todo en el Tirol. En el proceso de entrenamiento se utilizaron técnicas de aumento de datos, por ejemplo, variaciones de color y reflejos horizontales aleatorios, para mejorar la generalización del modelo.
Las fotos de aludes utilizadas en el proyecto de investigación tuvieron que ser "etiquetadas" antes de que pudiera comenzar el entrenamiento propiamente dicho. Por un lado, había que dibujar un polígono alrededor del contorno de la avalancha y, por otro, asignar una etiqueta a la imagen. Esta etiqueta se refería al tipo de alud, es decir, alud de placas, alud de nieve deslizante o alud de nieve suelta. Esta forma de etiquetado parecía la más lógica, ya que los tres tipos de aludes difieren en sus características visuales. Por ejemplo, la avalancha de nieve en placa se caracteriza por un borde de avalancha lineal llamativo, mientras que las avalanchas de nieve deslizante revelan el subsuelo y las avalanchas de nieve suelta se caracterizan por un borde de avalancha puntiforme y una salida en forma de pera. De este modo, se puede enseñar al modelo no sólo a detectar aludes en general, sino también a diferenciar entre los distintos tipos de aludes. Con la ayuda de estas "anotaciones", puede comenzar el entrenamiento. Para acelerar el proceso, se utilizaron modelos de aprendizaje profundo existentes, como el modelo de reconocimiento de objetos YOLO (v5).
¿Qué tal funciona realmente el modelo?
De las fotos etiquetadas, se retuvo una proporción (10%) del entrenamiento. Este conjunto de fotos se utilizó posteriormente para validar el rendimiento del modelo. Durante la validación, las avalanchas detectadas por el modelo y sus recuadros delimitadores se comparan con las del conjunto de prueba. Los resultados de la validación en este "conjunto de prueba" fueron muy satisfactorios: se alcanzó una alta tasa de detección y la tasa de aludes "pasados por alto" -los llamados falsos negativos- se mantuvo baja. Esto es importante para una posible aplicación práctica en el futuro, ya que los casos de aludes pasados por alto pueden tener a veces graves consecuencias si, por ejemplo, la cadena de rescate no se pone en marcha a tiempo en el caso de un alud que afecte a personas o si las medidas de seguridad se inician demasiado tarde en el caso de las infraestructuras alpinas (por ejemplo, el cierre de carreteras). Las consecuencias de los falsos positivos, es decir, cuando se notifica la detección de una avalancha aunque no se haya producido, no son tan graves. Sin embargo, estas falsas alarmas son molestas. Por eso es mejor que esta cifra también se haya mantenido baja. Para la primera fase de aplicación práctica, parece sensato que la decisión del modelo - "avalancha" o "no avalancha"- sea comprobada adicionalmente por expertos en la materia. En caso de clasificación incorrecta, la foto correspondiente puede etiquetarse correctamente y añadirse al conjunto de datos de entrenamiento para mejorar continuamente la calidad del modelo.