Blog de noticias de astronomía - Desde Buenos Aires, Argentina
¡Que no cunda el pánico!
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.

28/10/09 - DJ:

La astronomía ante un nuevo paradigma

TEL: 4 min. 31 seg.

Los instrumentos astronómicos recolectan cada vez más datos. La ciencia más antigua enfrenta nuevos desafíos para el almacenamiento y el procesamiento de los mismos.
Disco Duro Universo


Lo que sigue es continuación de nuestra nota La ciencia ante "El cuarto paradigma". En ese artículo abordábamos los nuevos desafíos de la ciencia en general, según la visión de Jim Gray, científico computacional de Microsoft Research que desapareció en 2007. Un nuevo libro, "El cuarto paradigma" (1) contiene artículos de varios autores sobre los cambios que se están produciendo en la ciencia y la tecnología.
El cielo más cerca: Los descubrimientos en la inundación de datos
En el mismo libro hay un artículo (2) de Alyssa A. Goodman (Harvard) y Curtis G. Wong (MR).
Básicamente continúa en la línea de pensamiento del artículo anterior, como todo el libro: vivimos en una era de inundación de datos recolectados por los experimentos. En astronomía esto es patente en los grandes observatorios y sondeos. Además de analizar esos datos, es posible ya visualizarlos a través de herramientas que están "democratizando" el acceso a los mismos.
Aquí se habla del WorldWide Telescope (WWT) de Microsoft como una de las herramientas que están permitiendo traernos el universo a nuestras pantallas. También se menciona Google Sky e iniciativas como GalaxyZoo. Aquí hemos abordado el uso de esos programas recientemente en varios artículos, por ejemplo: "Trucos para mejorar el cielo en la PC".
WWT+IRAS

Con el tiempo, la cantidad de datos y herramientas crecerá mucho más y allí nos esperan nuevos desafíos. Se tratará de diseñar herramientas que fomenten los descubrimientos y enlacen los recursos existentes y otras utilidades de visualización. Aunque no se menciona explícitamente, un tema importante es la estandarización de los datos. Tener una forma estándar de "etiquetar" los datos astronómicos es esencial para que cualquier aplicación pueda entender los datos que se muestran en una imagen: objeto, denominación, localización, autores, etc.

Una nueva era para la ciencia más antigua
En el número 72, agosto, (3) de la publicación de noticias del Centro e-Science del Reino Unido, un artículo de Iain Coleman nos trae reflexiones sobre el mismo tema. Y nos permite cuantificarlo.
Imaginemos hacer un sondeo de todo el cielo. ¿Cuántos datos generará? La interferencia atmosférica que hace que las estrellas titilen marca un límite en la resolución de lo que se puede observar desde un observatorio en suelo de alrededor de la mitad de un arco-segundo o algo más de una diezmilésima de grado. Dividiendo toda el área del cielo por ese tamaño de píxel y permitiendo 2-4 bytes por píxel para tener un rango dinámico aceptable para las mediciones, pone el tamaño del sondeo de todo el cielo en unas cuantas decenas de terabytes. Digamos 20 TB.

¿A cuánto equivalen 12 TB?¿A cuánto equivalen 12 TB?


En los antiguos días de las placas fotográficas, podría tardar 60 años de tiempo de observación producir esa cantidad de datos. Actualmente llevaría un año. La nueva generación de sondeos producirá 20 TB por noche durante una década. Al incrementarse dramáticamente la cantidad de datos, la importancia de la computación crece. No sólo para almacenar, sino para curar, analizar y representar los datos. Es el cuarto paradigma lo que genera desafíos computacionales: el código para analizar los datos debe ser ejecutado en un centro de datos, ya no es posible descargarlos al ser tantos. El modelo de base de datos relacionales no alcanza a todas las formas de análisis astronómicos. Eso llevó al desarrollo de SciDB.
Otro desafío es el seguimiento en tiempo real de eventos de tránsito. Cuando una estrella explota, un rango de telescopios examinan el evento a diferentes longitudes de ondas, pero sólo si lo hacen a tiempo. Si un examen del cielo es capaz de sacar un alerta dentro del minuto de detección de un efecto de tránsito, el sistema de reducción de datos debe manejar una tasa 2 TB por hora.
Los astrónomos deben trabajar con los informáticos. Y también al revés, al poder desarrollar algoritmos de manejo de datos y minería.

Los sondeos del cielo: La próxima generación
Al respecto hubo una conferencia pública sobre "La nueva generación de sondeos del cielo", por Bob Mann, el 7 de julio en el Instituto e-Science. Las diapositivas de esa charla se pueden descargar, en formato PPT o como Webcast:
http://www.nesc.ac.uk/esi/events/993/


Los desafíos no se pueden simular
Recientemente se conoció una simulación cosmológica utilizando la computadora más potente del mundo: Roadrunner ("Correcaminos") del Laboratorio Los Alamos.
Roadrunner es un sistema de 1.105 petaflops que será usado en seguridad nacional de EE.UU. Para probar el sistema se eligieron 10 proyectos que se ejecutaron durante los últimos seis meses.
Los proyectos probados incluyen:
Simulaciones astrofísicas: el modelo más grande del universo en expansión; VIH: Un árbol filogenético del VIH; Láseres: se adaptó VPIC, un código para simular interacciones de plasma; Modelado de nanocables, exploración de la reconexión magnética; y las ondas de choque: simulaciones de cómo las ondas de choque afectan a los materiales.
La correcaminos informática puede realizar mil billones (1015) de cálculos por segundo, es decir, 1 petaflop/s. Fue desarrollada por IBM junto con el Laboratorio Los Alamos y la Administración de seguridad Nuclear de USA para realizar avanzadas simulaciones clasificadas en relación a la seguridad nuclear de ese país.
El secreto de su éxito es su diseño híbrido. Cada nodo en este cluster consiste en dos procesadores AMD Opteron dual-core, más cuatro procesadores PowerXCell 8i™ usados como aceleradores, que son variantes de los que usa la PlayStation 3 y lo que convierte al superordenador en distinto de otros clusters.
Roadrunner


Salman Habib y colegas del Laboratorio comienzan su artículo científico (4), en el que reportan sobre el proyecto "Roadrunner Universe", indicando que en las últimas dos décadas se realizó un tremendo progreso en el área. Eso fue posible gracias al desarrollo de herramientas de precisión para estudiar el Fondo de radiación de microondas y el universo a gran escala. Sin embargo, nos topamos con grandes desafíos teóricos: ¿Por qué el lado oscuro del universo predomina? ¿Qué son la energía y la materia oscuras?
Para ayudar a responder estos interrogantes las observaciones de vanguardia continuan realizando sondeos que ahora se ponen online, y los que vendrán supondrán una mejora en la capacidad de dos órdenes de magnitud respecto a los actuales. Realizar modelos computacionales de los parámetros determinados por las observaciones con muy poco margen de error se vuelve cada vez más difícil. Las dificultades mayores parecen ser dos: la codificación precisa y el tiempo que demandan las simulaciones. Lo ideal sería que un modelo computacional tardara sólo unos pocos días como mucho y no meses, como ocurre actualmente. Así, las simulaciones deberán ser mejoradas en gran medida, lo que constituye el desafío computacional de petaescala para la cosmología de precisión.


Fuentes y links relacionados


Sobre las imágenes


  • Disco duro Universo. Combinación de imagen de disco genérico con M51. Crédito: M51:Instituto de Astrofisica Canarias.
  • Captura de pantalla de WWT
  • ¿A cuánto equivalen 12TB?. Imagen del blog Jbeavers
  • Imagen de Roadrunner. Crédito: Los Alamos Laboratory



Etiquetas:
-

No hay comentarios.:

Publicar un comentario