Miércoles 9 de diciembre de 2015

Una de las principales necesidades de los astrónomos hoy en día son los datos. ¡Enormes cantidades de datos! Actualmente , todo gira en torno a la adquisición, la transferencia rápida y el análisis de monstruosas cantidades de información. En lugar de tratar con gigabytes, los astrónomos solemos lidiar con petabytes (un petabyte son mil terabytes, que a su vez son ¡un millón de gigabytes!).
Sin embargo, como en la vida, mucho de lo mismo no es siempre mejor. A menudo, la variedad es más importante. Las observaciones astronómicas acumulan muy rápidamente cientos de terabytes en bruto, los que luego son reducidos a un nivel manejable, hasta donde el cerebro humano puede comprender su información esencial. Sin embargo, en la Astronomía la mayor variedad de datos y no más cantidad de ellos ayuda a responder a las preguntas más difíciles.
Los datos astronómicos se generan en varios observatorios y, a menudo, son procesados y analizados en lugares distintos. Mientras que antes las imágenes eran interpretadas por humanos, hoy en día la información es analizada automáticamente por súper computadores. Esto permite que datos distintos se puedan reunir para un sólo proyecto, como por ejemplo, imágenes de galaxias distantes tomadas en diferentes longitudes de onda del espectro electromagnético. La razón para esto es simple: la comprensión de la diversidad de los procesos físicos.
Por ejemplo, los procesos de alta energía como los que se encuentran en ambientes extremadamente energéticos y en los alrededores de los agujeros negros, las estrellas de neutrones o la explosión de una supernova, emiten luz energética en rayos gamma y X. Mientras que estrellas normales como nuestro Sol emiten la mayor parte de su energía en luz visible, en tanto que los procesos de bajo consumo energético –como las nubes de gas interestelares– emiten en longitudes de onda infrarrojas y de radio. Para entender el universo y lograr construir la imagen más precisa de la naturaleza, se utilizan la información de todas las longitudes de onda.
Esto, por supuesto, multiplica la cantidad de datos por órdenes de magnitud generando nuevos desafíos tecnológicos. A lo largo del proceso de reducción de datos, los astrónomos tratan de unir la información de las diferentes longitudes de onda en una imagen consistente utilizando "machine learning" e inteligencia artificial, lo que amplía las posibilidades de lograr nuevos conocimientos sobre los procesos físicos en el universo.
Para llegar a este nivel, Chile necesita invertir en tecnologías de vanguardia. Redes nacionales como REUNA están entregando la columna vertebral de la conectividad entre los centros de investigación dentro y fuera del país, pero la velocidad máxima de conexión actual de 1,35 Gbps –equivalente a una tasa de transferencia de datos de 168,8 megabyte por segundo– lo que ya no es suficiente. El radiotelescopio ALMA está aumentando su producción de datos y nuevos instrumentos como MUSE y DECam están entregando hasta algunos terabytes por noche. Mientras que en cinco años más, el Gran Telescopio para Rastreos Sinópticos (LSST) generará 30 terabytes de información por noche, lo que requerirá redes y capacidad computacional mucho más poderosas. Chile tiene una gran oportunidad de crear una de las redes y centros de datos de alto rendimiento más rápido en América del Sur. Esto no sólo beneficiará a la Astronomía y las ciencias asociadas, sino que elevará el valor de la educación y desarrollo de economía nacional mediante la estimulación de nuevas empresas y la atracción de nuevas inversiones. Entonces, ¿qué estamos esperando?