Blog de noticias de astronomía - Desde Buenos Aires, Argentina
¡Que no cunda el pánico!
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.

1/7/09 - DJ:

La computación GRID para el LHC está preparada

TEL: 2 min. 30 seg.

La mayor red GRID pasó las pruebas más detalladas a la fecha, anticipándose a la reactivación del acelerador de partículas más poderoso. La computación GRID para el LHC deberá analizar y manejar datos reales a niveles exorbitantes.
Almacenamiento de Cintas en GRID Brookhaven

La computación GRID es computación distribuída (a veces denominada "computación de rejilla" o "informática en malla") que utiliza un gran número de ordenadores organizados en "racimos", unidos por una red.
Los experimentos en el Gran Acelerador de Hadrones (LHC, por sus siglas en inglés) producirán la friolera de 15 petabytes (15 millones de gigabytes) de datos por año, que deberán ser almacenados, respaldados y disponibles para los más de 7.000 científicos alrededor del mundo. Para manejar esta inmensa carga computacional, el CERN trabaja con grupos en todo el mundo para construir un sistema informático para el LHC.
La Computación GRID mundial para el LHC (Worldwide LHC Computing Grid o WLCG) integra almacenamiento y poder de procesamiento alrededor del mundo para el uso de los físicos de LHC y es todo un paso adelante en la tecnología de computación distribuída.

Centro de Computación Grid (GCC) Fermilab

¿Esta red está ya preparada para semejante carga de trabajo? Esta respuesta se intentó responder a través de una serie de pruebas denominadas en conjunto "Prueba a escala del programa experimental 2009" (Scale Test of the Experimental Program 2009 o STEP09), que demostró la habilidad de WLCG de navegar eficientemente los datos recolectados por las intensas colisiones del LHC durante todo el proceso que culmina en los laboratorios y universidades del mundo.
Aunque hubo otros varios tests de procesamiento de datos de la WLCG en el pasado, STEP09, que se completó el 15 de junio, fue el primero en probar simultáneamente todos los elementos clave del proceso.

"A diferencia de desafíos anteriores, que eran períodos de pruebas dedicados, STEP09 fue una actividad de producción que concuerda mucho con los tipos de carga de trabajo que se esperan durante las tomas de datos de LHC. Fue una demostración no sólo de la preparación de experimentos, sitios y servicios, sino también de las operaciones y apoyo de procedimientos e infraestructuras", comentó Ian Bird, líder del proyecto WLCG.

Una vez que los datos de LHC se hayan recolectado en CERN, redes de fibra óptica dedicadas, distribuirán los datos a 11 centros (llamados "Tier-1") en Europa, Estados Unidos y Asia. Desde éstos, los datos son despachados a más de 140 centros "Tier-2" alrededor del globo. En esos centros (y en los "Tier-3") es que los físicos analizarán los datos de los experimentos -ATLAS, CMS, ALICE y LHCb – para llegar (eso esperan) a nuevos descubrimientos.

Cables Centro de Computación Grid (GCC) Fermilab

"Para poder probar realmente nuestra preparación a circunstancias cercanas a la vida real, debemos realizar replicación de datos, reprocesamiento, análisis e incluso simulación de eventos, todo al mismo tiempo y a la escala esperada para la adquisición de datos. Eso es lo que convierte a STEP09 en único", explicó Michael Ernst, director del centro de computación Tier-1 del Laboratorio Brookhaven.

El resultado parece haber sido ampliamente satisfactorio. Un objetivo clave fue probar y medir las capacidades de análisis de los centros Tier2 y Tier3. Durante las pruebas (que duraron 13 días), siete centros Tier2 para el experimento CMS y cuatro Tier3, realizaron alrededor de 225.000 exitosos análisis de trabajos.

"Ahora sabemos que estamos listos para las colisiones", señaló Oliver Gutsche, físico de Fermilab que lideró el esfuerzo para el experimento CMS.

En los Estados Unidos existe Open Science Grid, una infraestructura clave en este proceso, pensada para investigación científica de gran escala. La OSG contribuye a la WLCG como la instalación de computación distribuída usada por los experimentos ATLAS y CMS. OSG está construída y operada por un consorcio de 90 universidades, laboratorios, colaboraciones y desarrolladores de software.


Links relacionadosFuentes y links relacionados


Crédito imágenesSobre las imágenes
El interior de una librería automatizada de cintas en Brookhaven.
(Crédito: Brookhaven National Laboratory)

Centro de Computación Grid (GCC) Fermilab. (Crédito: Fermilab)

Cables en Centro de Computación Grid (GCC) Fermilab. (Crédito: Fermilab)


tags--

No hay comentarios.:

Publicar un comentario