¿Será importante el Big Data para una mejor preparación ante los desastres naturales?
Los recientes huracanes en el Atlántico Norte y el terremoto en México espolean el deseo de diseñar sistemas para una alerta temprana o cuando menos para una cuantificación rápida y precisa de los daños sufridos para poder ayudar en las tareas de reconstrucción. Aunque muchos de estos desastres naturales son difícilmente predecibles, la forma en que la sociedad se prepara y responde ante ellos determina en gran medida su impacto social y económico. En este contexto, la disponibilidad y el procesamiento adecuado de datos se presenta como un nuevo aliado.
La incorporación de las nuevas tecnologías de la información en diferentes sectores de nuestra sociedad está dando lugar a la generación y almacenamiento de cantidades enormes de datos que reflejan el comportamiento de las personas en numerosas facetas de su actividad diaria. El procesamiento de estos datos masivos (Big Data) juega ya un papel fundamental en la mejora de nuestra sociedad: entre otros campos, tiene aplicación en medicina, la gestión inteligente de ciudades y el análisis social para ayuda al desarrollo y la acción humanitaria.
Un primer caso de aplicación en la gestión de desastres naturales fue el terremoto de Haití en el que, el procesamiento de los datos registrados sobre el empleo de los teléfonos móviles, permitió estimar la movilidad de la población, y consecuentemente mejorar el despliegue humanitario. El tratamiento de registros telefónicos agregados y anonimizados permite también extraer patrones de comportamiento y redes sociales existentes en la población. Desde entonces, se han desarrollado metodologías para aprovechar dichos datos en la gestión integral cíclica de los desastres: preparación (mediante mecanismos de alerta temprana), respuesta (optimizando la distribución de recursos o la difusión de información vital), recuperación y mitigación (sobre la base de indicadores sociales).
Datos masivos para el bien social
A lo largo de los últimos años, varios grupos de investigación de la Universidad Politécnica de Madrid han trabajado en el procesamiento de datos masivos para el bien social. El profesor Pedro J. Zufiria, responsable del Grupo de Sistemas Dinámicos, Aprendizaje y Control (SisDAC), ha organizado durante estos últimos años, junto con el investigador Luis Úbeda-Medina y a través de la Cátedra Orange en la ETSIT-UPM, varios cursos bajo el lema “Data Science for Social Good”. Asimismo, Zufiria y Úbeda-Medina han trabajado junto con David Pastor-Escuredo, experto del itdUPM, y otros investigadores de la UPM en el procesamiento de datos masivos para la ayuda al desarrollo y la acción humanitaria.
Como proyecto experimental de colaboración internacional, en 2014 un equipo integrado por Pastor-Escuredo, Alfredo Morales y Yolanda Torres de la UPM, junto con otros investigadores de Telefónica y UN Global Pulse -iniciativa de Naciones Unidas de innovación con big data e inteligencia artificial-, asesorado por el Gobierno de México y el Programa Mundial de Alimentos, combinó datos de móviles y de satélites con el objetivo de estudiar la gestión de inundaciones en Tabasco, México.
En 2016, el itdUPM colaboró en un Hackatón organizado por el Banco Interamericano de Desarrollo en Ecuador para potenciar la innovación frente a terremotos, como el ocurrido en la región de la Malabí. De estos casos se desprende que los datos pueden ayudar a una mejor comprensión del impacto socio-económico del desastre, primer paso hacia su gestión más eficiente para incrementar la resiliencia y capacidades de recuperación.
El procesamiento masivo de datos puede ser también un gran aliado en mejorar programas de desarrollo para la consecución de los Objetivos de Desarrollo Sostenible (ODS), que hace unos días han cumplido su segundo aniversario. La Revolución de los Datos impulsada desde la Secretaría General de Naciones Unidas reconociendo los datos como elemento clave para catalizar una transformación sostenible y cumplir con la agenda 2030, también está siendo promovida por el itdUPM, junto con varios grupos de investigación de la UPM.
Un grupo liderado por Rosa M. Benito de la UPM exploró las posibilidades del uso de datos para el desarrollo, en el Challenge de Data For Development (D4D) en 2013 (Costa de Marfil). En la siguiente edición del D4D (Senegal, 2015), otro grupo liderado por Pedro J. Zufiria, junto con el laboratorio de innovación de UN Global Pulse en Kampala y el Programa Mundial de Alimentos fue galardonado con uno de los premios otorgados por la Fundación Bill & Melinda Gates. La integración y análisis de datos sirvió para caracterizar patrones socio-económicos, con el fin de monitorizar migraciones y seguridad alimentaria para mitigar la pobreza y el hambre causadas por condiciones externas que se vienen agudizando debido al cambio climático.
El despliegue de todo este potencial de manera adecuada y responsable debe tener en cuenta aspectos fundamentales relacionados con la disponibilidad, uso y privacidad de datos. Además de garantizar la privacidad de los datos a nivel individual y la seguridad tecnológica, es necesario que los algoritmos y métodos empleados tengan en cuenta que detrás de los datos se esconden circunstancias humanas que, en algunos casos, reflejan situaciones de riesgo y desigualdad. En la actualidad, se tiende a un consenso internacional sobre el papel fundamental de la alfabetización y la ética en el uso de los datos para ir adoptando positivamente el empleo del Big Data para el bien social.
La compartición de los datos entre el sector público y privado también es clave para poder llevar a cabo un uso social de los mismos. La colaboración del sector público, el sector privado y las universidades ha mostrado ser una alianza útil y responsable para trabajar con datos de alto valor social. En la medida en que se establezcan mecanismos de colaboración adecuados, será posible usar los datos en tiempo real para mitigar el impacto de desastres como los acontecidos recientemente.