Blog de noticias de astronomía - Desde Buenos Aires, Argentina
¡Que no cunda el pánico!
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.

31/10/09 - DJ:

La misión Kepler, en espera hasta 2011

TEL: 2 min. 2 seg.

KeplerLa misión Kepler no sería capaz de detectar exoplanetas hasta, al menos, 2011, por un problema con sus amplificadores.

El telescopio espacial Kepler fue lanzado en marzo y se espera que en la región del cielo en la que se enfocará (que contiene unas 100.000 estrellas) existan exoplanetas que orbiten en las zonas habitables de sus estrellas. Pero hay un problema.

El sensitivo equipamiento a bordo ha sido diseñado para detectar los pequeños cambios en el brillo de las estrellas, que se producen cuando los planetas pasan frente a las mismas. Al pasar un planeta frente a una estrella produce un pequeñísimo cambio de brillo en la luz estelar que reciben los CCDs de Kepler.

Los amplificadores en la electrónica del telescopio espacial son usados para ampliar la señal de los CCDs. Tres de esos amplificadores están produciendo niveles inaceptables de ruido, por lo que el equipo Kepler está evaluando sus opciones. Los CCDs forman el corazón del telescopio, su fotómetro, que consta de 42 CCDs, cada uno de 50x25mm y 2200x1024 pixels.

Los demás amplificadores parecen estar funcionando bien, pero es necesario arreglar los que producen el ruido. Si el instrumento estuviera en nuestro planeta se los podría cambiar sencillamente, pero al estar en órbita hay que pensar en otras alternativas.

Los científicos están trabajando en una solución de software, pero que no estaría preparada hasta 2011. Aunque sólo una pequeña porción de las observaciones serían afectadas por el problema, sería muy difícil remover los malos datos luego de haber sido enviados al centro de control. Por esto, el equipo Kepler puso a la misión en pausa, hasta tener la solución.

Ilustración tránsito


Mientras, la falla de Kepler permitirá un incentivo mayor a los equipos cazadores de exoplanetas aquí en la Tierra, que en vez de buscar los cambios en brillo de las estrellas, utilizan el método de velocidad radial. Esas mediciones observan los débiles "bamboleos" o alteraciones de la órbita de las estrellas generados por los planetas a su alrededor.

Y hay una especie de "confrontación" entre ambos métodos. En ambos casos, el objetivo primario parece ser encontrar un planeta extrasolar lo más similar a la Tierra. Esto implica un planeta rocoso, de un tamaño similar y dentro de la llamada zona de habitabilidad. Hasta ahora, con Kepler en órbita, las fichas de la "apuesta científica" estaban la sonda de NASA, pero ahora las fichas parecen cambiar de manos.

"No seremos capaces de encontrar planetas del tamaño de la Tierra en la zona habitable -o va a ser muy difícil- hasta que el trabajo esté hecho", señaló William Borucki, principal investigador de Kepler, quien reveló el problema el jueves en una reunión en el Centro Ames frente al Consejo Consultivo de NASA (NAC).

Los ruidosos amplificadores fueron notados durante las pruebas, antes de que el dispositivo fuera lanzado. "Todos sabían y estaban preocupados por esto", indicó el científico Doug Caldwell. Pero al final, señaló, el equipo pensó que era más riesgoso entrometerse con la electrónica del telescopio que lidiar con el problema en órbita.

Fuentes y links relacionados


Sobre las imágenes


  • Ilustraciones de Kepler y de un exoplaneta en tránsito. Crédito: NASA




Etiquetas:
-

30/10/09 - DJ:

El cuento del pastor y los rayos gamma

TEL: 2 min. 41 seg.

Dos investigadores usaron datos del telescopio Fermi, de NASA, para indicar que posiblemente exista evidencia para la materia oscura. Pero los científicos no son parte del equipo que recolectó los datos. Fermi publicará su análisis la semana próxima. Esto es posible por la política de liberación de datos al público de la agencia espacial estadounidense. Los miembros del equipo Fermi no parecen muy conformes.
Pastor Fermi


Lisa Goodenough de la Universidad de New York y Dan Hooper de Fermilab usaron datos del Telescopio Espacial de rayos gamma Fermi, de NASA, y tras analizarlos sostienen que concuerdan con una partícula de materia oscura con una masa entre 25 a 30 GeV (unas 30 veces más pesada que el protón).

Independientemente de si las conclusiones son correctas o no, este análisis de datos ha producido controversia entre los investigadores de Fermi, ya que los dos investigadores que publicaron el artículo preliminar (1) no forman parte de su equipo.
Esto es posible porque la política de NASA es liberar los datos al público casi inmediatamente. Sin embargo, si el análisis fuese correcto, se hablará quizás del descubrimiento de Goodenough y Hooper, y no del hallazgo del equipo de Fermi.

Es decir que los datos se hicieron públicos antes de que el equipo del telescopio realizara el análisis de los mismos, lo que abrió la puerta para que ese estudio lo hicieran los dos investigadores que finalmente publicaron el artículo.

Mapa de fuentes Fermi


Para Hooper, esto no tiene nada de malo. Según indicó a physicsworld.com, "la mayoría de los papers en mi comunidad son puestos en arXiv antes de ser aceptados por una revista y esta no es la excepción", y explicó la razón por la que se envían antes los artículos a arXiv al señalar que "en los meses que puede tardar una revisión en ser realizada, algo importante puede ocurrir sobre el estado de la investigación y no compartir el progreso inmediatamente con el resto de la comunidad puede ser contraproducente".

Julie McEnery, de Fermi, cree que el trabajo de su equipo no compite con el de los investigadores que publicaron el artículo, ya que un cuidadoso análisis tendrá un impacto más perdurable. Añadió que los resultados aparentemente innovadores sería mejor publicarlos en revistas por árbitros antes de su aparición en arXiv, un archivo para borradores electrónicos de artículos científicos.
El peligro, según ella, es que ocurra como en el cuento del pastor mentiroso: "Hay un peligro en que vamos a confundir con muchos resultados que pueden no ser verdaderos y, al mismo tiempo, cuando algo realmente clave y sólido surja, la comunidad científica continuará interesada, pero los medios y el público quizás no".

Mapa de fuentes gamma Fermi


El equipo de Fermi planea presentar su análisis de los datos del centro galáctico la próxima semana. Mientras, otros grupos que estudian los mismos datos llegaron a distintas conclusiones. Por ejemplo, physicsworld.com cita a Gregory Dobler de la Universidad de Harvard y colegas (2), que atribuyen la señal de rayos gamma a un fenómeno en el que los fotones ganan energía cuando interactúan con la materia (Efecto Compton inverso), como explica Sean Carroll en su blog.

Una postura diferente con respecto a la liberación de datos es la de Katherine Freese, astrofísica de la Universidad de Michigan, quien cree que los datos son públicos y no hay nada malo en que las personas traten de cosechar de los mismos lo que puedan.

Supongo que no hace falta preguntarle a Goodenough para saber que ella piensa que su análisis es suficientemente bueno...

Los nuevos datos de Fermi
Durante el primer año de operaciones, Fermi mapeó el cielo con un sensibilidad sin precedentes. Captó más de 1.000 fuentes de rayos gamma, entre las cuales, el 10 de mayo de este año, se encontró la fuente GRB 090510, que permitiría reforzar las ideas de Einstein sobre la velocidad de las radiaciones electromagnéticas, y GRB 090423, la explosión más distante jamás observada. Estos nuevos datos fueron presentados el 28-10 al público general en una conferencia de prensa.


Fuentes y links relacionados


Sobre las imágenes


  • Mapa de fuentes Fermi. Crédito: NASA/DOE/Fermi LAT Collaboration

  • Combinación Pastor-Fermi. Imagen Fermi de NASA. Crédito Pastor: EnCuentos.com




Etiquetas:
-

Educación astronómica en América Latina

TEL: 2 min. 36 seg.

La educación es una parte vital de la sociedad y las revistas son una forma importante de diseminar información. Una revista dedicada a la educación en astronomía en Latinoamérica propone interesantes artículos para leer y releer.
RELEA


Se trata de la Revista Latinoamericana de Educación en Astronomía (RELEA). Para garantizar al máximo posible el acceso a la misma eligieron un formato on-line. Es producida por el Instituto Superior de Ciencias Aplicadas (ISCA) con sede en la ciudad de Limeira (San Pablo, Brasil).

No es la primera ni la única revista sobre educación astronómica, pero sí una de las pocas que reúne las experiencias y propuestas de los países de América Latina.

El primer número se publicó en 2004 y se ha publicado un número por año desde entonces, excepto en 2008 en que se publicaron dos números. El sitio de la revista cuenta con la posibilidad de acceder a tres idiomas: español, portugués e inglés.

RELEA está compuesta de las siguientes secciones:

· Cultura, Historia y Sociedad
· Formación de Maestros
· Enseñanza-Aprendizaje
· Recursos Didácticos
· Políticas Educacionales
· Actualidades
· Reseñas
· Eventos

La revista, cuyos artículos son revisados por dos árbitros competentes, tiene como metas principales:
- Suplir la ausencia de una publicación específica en el área de Educación en Astronomía;
- Ser un espacio para la divulgación de la producción de los países de América Latina en esa área;
- Atender a los educadores, investigadores y estudiantes de Astronomía, en los diversos niveles de enseñanza, proveyéndolos de elementos metodológicos y de contenidos educativos; y
- Fomentar el desarrollo de investigación en el área de Educación en Astronomía en los países latinoamericanos.

El cuerpo editorial está compuesto por varios investigadores de distintos países:
Brasil:
Roberto Boczko (Inst. Astr., Geof. e Ciênc. Atm./Univ. São Paulo)
Amâncio Friaça (Inst. Astr., Geof. e Ciênc. Atm./Univ. São Paulo)
Fernando Antonio Pires Vieira (Fundação Planetário/Rio de Janeiro)
Jorge Megid Neto (Fac. Educ./Univ. Estad. Campinas)
Sérgio Mascarello Bisch (Depto. Fïs./Univ. Fed. Espírito Santo)

Argentina:
Horacio Tignanelli (Fac. Cienc. Astron. y Geof./Univ. Nac. La Plata y Min. Educ., Cienc. y Tecn. de la Nación)

Chile:
Maria Isabel Ormeño Aguirre (Dep. de Fisica/Univ. de Santiago de Chile)

Uruguay:
Gabriel Otero Gaynicotch (Asoc. Profes. Astron. del Uruguay)

México:
Julieta Fierro (Inst. Astron./Univ. Aut. México)

En el último número contamos con tres trabajos:
Instrumentación para la Enseñanza de Astronomía: Proyectando la Imagen del Sol, de Francisco Catelli, Odilon Giovannini, Osvaldo Balen y Fernando Siqueira da Silva.
En este trabajo se describe un dispositivo óptico simple para proyectar la imagen del Sol, adecuado para observaciones de eclipses solares y para la estimativa del tamaño de las manchas solares.

Enseñanza de la Astronomía y la Formación Continua de Profesores: La Interdisciplinariedad Durante un Eclipse Total de Luna, de Rodolfo Langhi.
Este texto relata como 67 profesores, provenientes de 23 ciudades, pudieron despertar en los alumnos el interés científico utilizando un fenómeno natural astronómico: un eclipse lunar total.

El Universo Representado en una Caja: Introducción al Estudio de la Astronomía en la Formación Inicial de Profesores de Física, de Marcos Daniel Longhini.
Se trata del relato de una actividad de introducción al estudio de la astronomía desarrollada con un grupo de futuros profesores de física en una universidad pública brasilera.

Artículos Argentinos
En el primer número hay un artículo de Viviana Bianchi (Grupo Astronómico Don Torcuato y a cargo de la sección radioastronomía de Cielosur) sobre Radioastronomía: una mirada más amplia.

En el número 3 hay un artículo sobre Astronomía en la escuela: La medición de la distancia Tierra-Luna, de Olga Pintado (Consejo Nacional de Investigaciones Científicas y Técnicas y Departamento de Física, Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán) y Santiago Paolantonio (Grupo de Investigación en Enseñanza, Difusión e Historia de la Astronomía, del Observatorio Astronómico, Universidad Nacional de Córdoba)


Fuentes y links relacionados


Sobre las imágenes


  • Portada de RELEA




Etiquetas:
-

28/10/09 - DJ:

La astronomía ante un nuevo paradigma

TEL: 4 min. 31 seg.

Los instrumentos astronómicos recolectan cada vez más datos. La ciencia más antigua enfrenta nuevos desafíos para el almacenamiento y el procesamiento de los mismos.
Disco Duro Universo


Lo que sigue es continuación de nuestra nota La ciencia ante "El cuarto paradigma". En ese artículo abordábamos los nuevos desafíos de la ciencia en general, según la visión de Jim Gray, científico computacional de Microsoft Research que desapareció en 2007. Un nuevo libro, "El cuarto paradigma" (1) contiene artículos de varios autores sobre los cambios que se están produciendo en la ciencia y la tecnología.
El cielo más cerca: Los descubrimientos en la inundación de datos
En el mismo libro hay un artículo (2) de Alyssa A. Goodman (Harvard) y Curtis G. Wong (MR).
Básicamente continúa en la línea de pensamiento del artículo anterior, como todo el libro: vivimos en una era de inundación de datos recolectados por los experimentos. En astronomía esto es patente en los grandes observatorios y sondeos. Además de analizar esos datos, es posible ya visualizarlos a través de herramientas que están "democratizando" el acceso a los mismos.
Aquí se habla del WorldWide Telescope (WWT) de Microsoft como una de las herramientas que están permitiendo traernos el universo a nuestras pantallas. También se menciona Google Sky e iniciativas como GalaxyZoo. Aquí hemos abordado el uso de esos programas recientemente en varios artículos, por ejemplo: "Trucos para mejorar el cielo en la PC".
WWT+IRAS

Con el tiempo, la cantidad de datos y herramientas crecerá mucho más y allí nos esperan nuevos desafíos. Se tratará de diseñar herramientas que fomenten los descubrimientos y enlacen los recursos existentes y otras utilidades de visualización. Aunque no se menciona explícitamente, un tema importante es la estandarización de los datos. Tener una forma estándar de "etiquetar" los datos astronómicos es esencial para que cualquier aplicación pueda entender los datos que se muestran en una imagen: objeto, denominación, localización, autores, etc.

Una nueva era para la ciencia más antigua
En el número 72, agosto, (3) de la publicación de noticias del Centro e-Science del Reino Unido, un artículo de Iain Coleman nos trae reflexiones sobre el mismo tema. Y nos permite cuantificarlo.
Imaginemos hacer un sondeo de todo el cielo. ¿Cuántos datos generará? La interferencia atmosférica que hace que las estrellas titilen marca un límite en la resolución de lo que se puede observar desde un observatorio en suelo de alrededor de la mitad de un arco-segundo o algo más de una diezmilésima de grado. Dividiendo toda el área del cielo por ese tamaño de píxel y permitiendo 2-4 bytes por píxel para tener un rango dinámico aceptable para las mediciones, pone el tamaño del sondeo de todo el cielo en unas cuantas decenas de terabytes. Digamos 20 TB.

¿A cuánto equivalen 12 TB?¿A cuánto equivalen 12 TB?


En los antiguos días de las placas fotográficas, podría tardar 60 años de tiempo de observación producir esa cantidad de datos. Actualmente llevaría un año. La nueva generación de sondeos producirá 20 TB por noche durante una década. Al incrementarse dramáticamente la cantidad de datos, la importancia de la computación crece. No sólo para almacenar, sino para curar, analizar y representar los datos. Es el cuarto paradigma lo que genera desafíos computacionales: el código para analizar los datos debe ser ejecutado en un centro de datos, ya no es posible descargarlos al ser tantos. El modelo de base de datos relacionales no alcanza a todas las formas de análisis astronómicos. Eso llevó al desarrollo de SciDB.
Otro desafío es el seguimiento en tiempo real de eventos de tránsito. Cuando una estrella explota, un rango de telescopios examinan el evento a diferentes longitudes de ondas, pero sólo si lo hacen a tiempo. Si un examen del cielo es capaz de sacar un alerta dentro del minuto de detección de un efecto de tránsito, el sistema de reducción de datos debe manejar una tasa 2 TB por hora.
Los astrónomos deben trabajar con los informáticos. Y también al revés, al poder desarrollar algoritmos de manejo de datos y minería.

Los sondeos del cielo: La próxima generación
Al respecto hubo una conferencia pública sobre "La nueva generación de sondeos del cielo", por Bob Mann, el 7 de julio en el Instituto e-Science. Las diapositivas de esa charla se pueden descargar, en formato PPT o como Webcast:
http://www.nesc.ac.uk/esi/events/993/


Los desafíos no se pueden simular
Recientemente se conoció una simulación cosmológica utilizando la computadora más potente del mundo: Roadrunner ("Correcaminos") del Laboratorio Los Alamos.
Roadrunner es un sistema de 1.105 petaflops que será usado en seguridad nacional de EE.UU. Para probar el sistema se eligieron 10 proyectos que se ejecutaron durante los últimos seis meses.
Los proyectos probados incluyen:
Simulaciones astrofísicas: el modelo más grande del universo en expansión; VIH: Un árbol filogenético del VIH; Láseres: se adaptó VPIC, un código para simular interacciones de plasma; Modelado de nanocables, exploración de la reconexión magnética; y las ondas de choque: simulaciones de cómo las ondas de choque afectan a los materiales.
La correcaminos informática puede realizar mil billones (1015) de cálculos por segundo, es decir, 1 petaflop/s. Fue desarrollada por IBM junto con el Laboratorio Los Alamos y la Administración de seguridad Nuclear de USA para realizar avanzadas simulaciones clasificadas en relación a la seguridad nuclear de ese país.
El secreto de su éxito es su diseño híbrido. Cada nodo en este cluster consiste en dos procesadores AMD Opteron dual-core, más cuatro procesadores PowerXCell 8i™ usados como aceleradores, que son variantes de los que usa la PlayStation 3 y lo que convierte al superordenador en distinto de otros clusters.
Roadrunner


Salman Habib y colegas del Laboratorio comienzan su artículo científico (4), en el que reportan sobre el proyecto "Roadrunner Universe", indicando que en las últimas dos décadas se realizó un tremendo progreso en el área. Eso fue posible gracias al desarrollo de herramientas de precisión para estudiar el Fondo de radiación de microondas y el universo a gran escala. Sin embargo, nos topamos con grandes desafíos teóricos: ¿Por qué el lado oscuro del universo predomina? ¿Qué son la energía y la materia oscuras?
Para ayudar a responder estos interrogantes las observaciones de vanguardia continuan realizando sondeos que ahora se ponen online, y los que vendrán supondrán una mejora en la capacidad de dos órdenes de magnitud respecto a los actuales. Realizar modelos computacionales de los parámetros determinados por las observaciones con muy poco margen de error se vuelve cada vez más difícil. Las dificultades mayores parecen ser dos: la codificación precisa y el tiempo que demandan las simulaciones. Lo ideal sería que un modelo computacional tardara sólo unos pocos días como mucho y no meses, como ocurre actualmente. Así, las simulaciones deberán ser mejoradas en gran medida, lo que constituye el desafío computacional de petaescala para la cosmología de precisión.


Fuentes y links relacionados


Sobre las imágenes


  • Disco duro Universo. Combinación de imagen de disco genérico con M51. Crédito: M51:Instituto de Astrofisica Canarias.
  • Captura de pantalla de WWT
  • ¿A cuánto equivalen 12TB?. Imagen del blog Jbeavers
  • Imagen de Roadrunner. Crédito: Los Alamos Laboratory



Etiquetas:
-

27/10/09 - DJ:

La ciencia ante "El cuarto paradigma"

TEL: 6 min. 18 seg.

La ciencia enfrenta, en sus diversas disciplinas, un cambio mayúsculo: manejar una ingente cantidad de datos, almacenarlos, curarlos, analizarlos y compartirlos.
Portada de El cuarto paradigma


"El cuarto paradigma". Así se llama un nuevo libro de Microsoft Research (MR) en el que se recopilan artículos de diferentes autores, sobre la cantidad y el tratamiento de los datos científicos. Dedicado a la memoria de Jim Gray. El libro se puede descargar como PDF completo desde la página especial de MR sobre El cuarto paradigma.
Contiene un artículo (1) de una conferencia dada por Gray en enero de 2007 en el Consejo Nacional de Investigación para la Comisión de Ciencias Computacionales y Telecomunicaciones, sobre lo que se denomina "eScience", la ciencia de la nueva era informática.
Allí aboga por la creación de nuevas herramientas que apoyen todo el ciclo de la investigación, desde la captura de datos, la curación y análisis hasta la visualización de los mismos. Lo que ocurre, dice Gray, es que los datos que finalmente se publican son sólo la punta del iceberg. Los datos recolectados por los científicos son cada vez mayores. Luego de quitar lo que no sirve y analizar los datos, lo que se termina publicando son algunas pocas columnas en una publicación científica. En su artículo habla de cómo todo el proceso de "peer review" (revisión por pares) debe cambiar.

Los paradigmas de la ciencia
Hace mil años, la ciencia era empírica: describía los fenómenos naturales.
Los últimos siglos, pasó a ser teórica: usando modelos y generalizaciones
En las últimas décadas, llegó la era computacional: simulación de complejos fenómenos
Hoy, el cuarto paradigma implica la exploración de datos: la eScience.

Paradigmas de la ciencia


eScience es donde la Tecnología de la Información (TI) se encuentra con la ciencia. Los investigadores están usando muchos métodos para recolectar datos, desde sensores y CCDs a supercomputadoras y colisionadores de partículas. Pero, ¿qué hacemos con todos esos datos cuando finalmente los tenemos en la pantalla del ordenador? Ya no alcanzan las planillas de cálculo para la ingente cantidad de datos recolectados.

Las dos ramas
Gray indica que estamos ante la evolución de dos ramas para cada disciplina. Existe la ecología computacional, que realiza simulaciones, y la eco-informática, que recolecta y analiza información. La meta de muchos científicos es compartir la información, pero para eso hay que codificarla en una forma algorítmica. Para esto, necesitas una representación estándar de lo que es un gen o una galaxia o una medida de temperatura.

En la siguiente diapositiva de su presentación, Gray muestra los problemas de información, X-Info, donde X es cualquier disciplina:
La evolución de la x-info y comp-x para cada disciplina x se enfrenta a la necesidad de cómo codificar y representar nuestro conocimiento. Los problemas genéricos son:
x-info vs comp-info
Ingesta de datos
Manejar un Petabyte
Esquema común
Cómo organizar, reorganizar y compartir los datos
Herramientas de consulta y visualización
Crear y ejecutar modelos
Integrar datos y literatura
Documentar experimentos
Curación y preservación de los datos

Presupuestos experimentales: 1/4 a 1/2 del software
Dice Gray que estuvo trabajando con los astrónomos durante una década. Algo que le impresionó, cuenta, es lo increíble que son los telescopios, de 15 a 20 millones de dólares, manejados por 20 a 50 personas. Pero luego apreció que hay literalmente cientos de personas escribiendo código para lidiar con la información generada por el instrumento y hay millones de líneas de código que deberán escribirse para analizar la información. De hecho, el costo del software domina por sobre el capital. Al menos dice que es cierto para el Sloan Digital Sky Survey (SDSS) y seguirá siendo así para los sondeos del cielo de gran escala o para los experimentos del LHC.

Los proyectos piramidales
Hay algunos proyectos internacionales, hay más proyectos multi-campus, y luego hay muchos proyectos de laboratorios (single-lab). Básicamente tenemos instalaciones piramidales jerarquizadas. Los científicos que trabajan en proyectos en la cima de la pirámide cuentan con suficientes recursos para hardware y software.
Pero si eres un científico en el fondo de la pirámide, ¿qué presupuesto tendrás? Comprarás MATLAB y Excel o software similar.
Lo que se necesita es un "Sistema de Manejo de Información de Laboratorio" (LIMS en inglés) que provean una arquitectura pipeline para la instrumentación o simulación de los datos en un archivo y se está cerca de lograr en un número de ejemplos. Así es posible tomar datos de varios instrumentos, filtrarlos y limpiarlos y finalmente ponerlos en una base que se puede publicar en la web.
Todo el proceso, desde un instrumento a un navegador web, requiere un cantidad de talentos, pero la idea es ir a algo similar a los CMS, los sistemas de manejo de contenidos. Eso se puede lograr también respecto de la investigación científica, con prototipos bien documentados, que conviertan a todo el proceso en algo más "amigable".
Según Gray, ya existen LIMS comerciales, pero parecen tener dos problemas: son muy específicos, para tal o cual tarea, y son muy caros.

La cantidad no es lo de menos
La otra cuestión es la cantidad de datos y su análisis. Se necesitan mejores algoritmos para analizar los datos en grillas de clusters que permitan descubrir patrones ocultos en la información. Esencialmente es minería de datos.
Mucho del análisis estadístico tiene que lidiar con la creación de muestras uniformes, filtrar datos, incorporar o comparar alguna simulación, etc, lo que genera una gran cantidad de archivos que sólo contienen un conjunto de bytes. La diferencia con una base de datos relacional es que los datos en esos archivos no dicen nada, hay que trabajar duro para saber qué significan. La comunidad científica inventó un conjunto de formatos que califican como del tipo "base de datos". HDF (Hierarchical Data Formal) y NetCDF (Network Common Data Form) son dos de los formatos usados, pero se necesitan, según Gray, mejores herramientas.
La otra cuestión es el almacenamiento de conjuntos de datos: ya no es posible usar simplemente un FTP cuando hablamos de Petabytes. Se necesitan índices y acceso en paralelo.

La computación distribuída
Lo que Gray dijo en aquella conferencia es que se necesitan clusters Beowulf que permitan combinar muchas computadoras "baratas". Hay un software llamado Condor que permite cosechar ciclos de procesamiento de máquinas departamentales. Similarmente, existe BOINC que permite tomar ciclos de PC como en SETI@Home y otros proyectos.
También tenemos Linux y FreeBSD Unix. Existe LabVIEW también, pero es necesario crear muchos otros sistemas.

La revolución en camino
La segunda parte de su charla es acerca de la comunicación académica. Comienza diciendo que los Estados (USA, UK) tienen leyes ya, y están por tener más, sobre la obligatoriedad de publicación de los datos científicos de proyectos subvencionados por los gobiernos. Lo que conlleva a tener los datos en la web, de público acceso (Aquí juega su parte ScienceCommons, iniciativa de la que hablaremos en el futuro). Así, será posible estar leyendo un artículo y luego ir y ver los datos originales. E incluso rehacer el análisis. Eso incrementará la velocidad de información de las ciencias y mejorará la productividad de los investigadores.

Todos los datos online

Peer review, a revisión
Ejemplo: alguien que trabaja en el Instituto Nacional de Salud produce un reporte. Descubre algo acerca de la enfermedad X. Vas al doctor y le dices que te sientes mal. Te hace varias pruebas y te dice que no tenés nada. Tres años después, te llama y te dice que tenés la enfermedad X. No sabe qué es, pero se enteró que alguien en tal lugar sabe todo acerca de eso. Buscás en Google los síntomas como parámetros de búsqueda. En la primera página de resultados hay un artículo de una publicación especializada "Todo sobre la enfermedad X. Si quiere leerlo debe pagar tantos dólares". El autor del artículo es quien trabaja en el Instituto Nacional de Salud. ¿Y para qué pago los impuestos? La información científica se pone en el domino público pero no siempre es gratuita. Leamos un artículo en Science o Nature. ¿Estás suscripto? ¿No? Lo lamento, aquí tienes un resumen, buena suerte.

Hacia la nueva librería digital
Es gratis y simple poner un artículo o página en la web. Pero no podemos poner "cualquier cosa" en el ámbito académico. Debe ser revisado. De allí surge parte de su importancia. En este blog, cuando comentamos algún descubrimiento, enlazamos al paper publicado o a publicarse. Si no existe, no hay nota. Que exista una publicación revisada por expertos nos da cierta tranquilidad. Pero eso tiene un costo, de dinero o de tiempo. Para eso es necesario automatizar todo el proceso. Un ejemplo de Gray es un sistema creado en Microsoft Research llamado Conference Management Tool (CMT). Es una herramienta que permite manejar todo el flujo de trabajo para una conferencia.
Todo apunta a que los datos y la literatura estará en acceso público y manejado por sistemas semi-automatizados.
La ciencia está cambiando por el impacto de la TI. Las ciencias experimental, teórica y computacional están siendo afectadas por el diluvio de datos y un cuarto paradigma de "intensidad de datos" está emergiendo. El objetivo es tener un mundo en el cual toda la literatura científica esté en línea, al igual que los datos, y que sea factible la interoperatividad gracias a nuevas y más poderosas herramientas.

La ciencia está entrando en una nueva era, e-Science, a través de un nuevo paradigma, el manejo de un diluvio de datos. Seguiremos con el tema en la segunda parte de esta nota, específicamente sobre la astronomía.

Fuentes y links relacionados


Sobre las imágenes


  • Figuras 1-3 y portada de "The Fourth Paradigm", Jim Gray




Etiquetas:
-

26/10/09 - DJ:

Una controvertida teoría sobre el origen de la Luna

TEL: 2 min. 49 seg.

Un científico cree que nuestro satélite natural no se habría formado de la Tierra debido a una colisión de nuestro planeta con otro gran cuerpo, sino que se habría formado dentro de la órbita de Mercurio y luego habría sido adoptada por su actual "pareja cósmica".
Tierra Fría Primitiva


La idea va a contramano de la hipótesis con mayor consenso científico: la hipótesis del gran impacto, que sostiene que la Luna se formó de los desechos dejados por una colisión entre un objeto del tamaño de Marte que chocó con la Tierra hace 4.500 millones de años.

Sin embargo, la Luna tiene algunas características que podrían no ser explicadas por esa hipótesis y, desde hace varios años, Robert Malcuit, de la Universidad Denison, postula una visión alternativa para la historia de nuestro satélite natural.

La versión de Malcuit de los eventos va en sentido opuesto de una Tierra primitiva caliente y, en cambio, es acorde a los recientes hallazgos de minerales en Australia, de hace 4.000 millones de años, que sugieren que el planeta era demasiado frío.

Si la Tierra hubiera tenido un gran impacto con un objeto del tamaño de Marte, habría estado muy caliente, con lo que los hallazgos en Australia no concordarían con la visión general del origen de la Luna.

"Todo en el modelo del impacto gigante es caliente, caliente, caliente. Es incompatible con lo que vemos en los registros geológicos. La Tierra era suficientemente fría en ese momento como para haber sostenido un impacto temprano en su historia que formara la Luna", señaló Malcuit.

Los modelos computacionales en los que el científico ha trabajado desde la década de 1980 muestran que sería posible que la gravedad de nuestro planeta capturara a la Luna. Al principio, la órbita de nuestro satélite habría sido altamente elíptica, pasando muy cerca de la Tierra para luego alejarse, a razón de ocho veces por año.

El tirón gravitacional habría estirado al planeta 18 a 20 kilómetros cerca del ecuador, agitando el caliente manto y la corteza. Las rocas más cercanas a los polos serían como las halladas actualmente en Australia. Las capas superiores de la nueva Luna capturada, se habrían derretido por la fricción gravitacional hasta que la órbita del satélite se estabilizó hace 3.000 millones de años.

Tierra-Luna


Malcuit presentó esta hipótesis en la Reunión Anual de la GSA (Sociedad Geológica Americana) en Portland, entre el 18 y 21 de octubre.

Tradicionalmente, los científicos citan la baja densidad y la falta de hierro de la Luna como las razones por las que se piensa que surgió de nuestro planeta, en virtud de que el gran impacto habría separado los materiales livianos de las capas superiores de la Tierra.

Jack Lissauer, de NASA, piensa que la hipótesis de Malcuit es altamente improbable, según señaló a Discovery News. "La captura es muy, muy difícil. Habría que tener la velocidad justa y parámetros muy especiales para que todo sea correcto". Sin embargo, está de acuerdo en que la hipótesis actual debe ser revisada, pero no cree que si el que la Tierra estuvo fría hace primitivamente implique que la idea de Malcuit sea correcta.
"El calor del impacto se disipó muy rápidamente. No tomaría 100 millones de años, y ciertamente no llevaría 500 millones", recalcó.

Al calor de las ideas
Las ideas sobre una Tierra primitiva caliente comenzaron a cambiar hace algunos años, cuando los geólogos como John W. Valley de la Universidad Wisconsin-Madison, descubrieron docenas de cristales del mineral zircón (o circón). Las inusuales propiedades de estos durables minerales permitió preservar pistas robustas acerca del medioambiente primitivo del planeta, en los eones Hadeico y Arcaico. Estas diminutas cápsulas (del tamaño de un punto) poseen evidencia sobre la existencia de océanos y quizás continentes 400 millones de años antes de lo que se pensaba.
En estas investigaciones se base Malcuit para sostener que la Tierra, si estaba más fría, no pudo sobrellevar un gran cataclismo. Sin embargo, la hipótesis de la captura parece difícil de sostener sólo con modelos computacionales.

De cualquier forma, sea que haya salido del interior de la Tierra o que haya sido capturada por la hipnótica gravedad a nuestros pies, siempre habrá Un hombre que mira a la Luna.

Fuentes y links relacionados


  • A Prograde Planetoid Capture Episode About 3.95 Ga Ago: Is This Model Compatible With The Information From Hadean- And Archean-Age Detrital Zircon Crystals?
    Malcuit, Robert
    2009 Portland GSA Annual Meeting (18-21 Octubre 2009)
    Paper No. 266-2
    Presentation Time: 1:45 PM-2:00 PM

  • Controversial Moon Origin Theory Rewrites History, por Michael Reilly, Discovery News

  • Early Archean Ophiolites And The Cool Early Earth: Can They Be Explained In The Context Of A Tidal Capture Model For The Origin Of The Moon?
    2007 GSA Denver Annual Meeting (28–31 October 2007)
    Malcuit, Robert
    Paper No. 121-1
    Presentation Time: 8:15 AM-8:30 AM

  • A cool early Earth
    John W. Valley et al.
    Geology; April 2002; v. 30; no. 4; p. 351-354;
    DOI: 10.1130/0091-7613(2002)030<0351:ACEE>2.0.CO;2
    A Cool Early Earth, (2002) Geology. 30: 351-354.

  • Scientific American: A Cool Early Earth?
    John W. Valley
    Oct. 2005



Sobre las imágenes


  • Ilustración de la Fría Tierra Primitiva, 4.400 millones de años atrás. Gráfico: Andrée Valley y Mary Diman

  • Tierra y Luna. NASA




Etiquetas:
-

25/10/09 - DJ:

Charla: "Las estrellas no son eternas"

TEL: 1 min.

El miércoles 28 de octubre 2009, a las 16:30hs tendrá lugar la charla "Las estrellas no son eternas" dentro del marco "Charlas para todo público en el IAFE".
Dubner-Giacani


Estará a cargo de la Dra. Elsa Giacani del Instituto de Astronomía y Física del Espacio (CONICET-UBA)

La charla se desarrollará en el aula del edificio IAFE en Ciudad Universitaria.

Resumen:

A primera vista el cielo que vemos cada noche es indistinguible del que vieron nuestros ancestros y las estrellas en sí parecen estáticas e inmutables. En la actualidad sabemos que las estrellas cambian con el tiempo. En algunos casos esos cambios son imperceptibles para nosotros, aún en un tiempo comparable con toda la historia de la humanidad, en otros son más dramáticos y ocurren en escala de tiempo humano.
En esta charla se hará un recorrido por el ciclo de vida de las estrellas, desde su nacimiento, pasando por las distintos caminos que pueden seguir hasta llegar a su muerte, que en algunos casos será de forma pacífica y en otros catastrófica.

La Dra. Elsa Giacani es Prof. Adjunto Semi-Dedicación - UBA, Investigadora Independiente CONICET/ Instituto de Astronomía y Física del Espacio (IAFE).
Fue miembro del comité argentino para el proyecto SKA, ha estudiado varias remanentes de supernova junto a la Dra. Gloria Dubner, como G0.9+0.1, RX J1713.7-3946, y Kes 79 y G352.7-0.1, estas últimas en un último estudio de próxima aparición en A&A, entre otras investigaciones.


Fuentes y links relacionados


Sobre las imágenes


  • Gloria Dubner (izq.) y Elsa Giacani. Crédito: La Nación




Etiquetas:
-

24/10/09 - DJ:

Trucos para mejorar el cielo en la PC

TEL: 3 min. 58 seg.

Algunos "trucos" creados para Google Earth/Sky, WorldWide Telescope y Twitter, como ejemplos de las formas en las que herramientas online pueden ser usadas solas o en conjunto con otros servicios en línea.
DotAstronomy 2009


Robert J. Simpson, del Departamento de física y astronomía de la Universidad de Cardiff, presentó este artículo en la Conferencia "DotAstronomy" (que podríamos traducir como "PuntoAstronomía") en septiembre de 2008. Además, posee un completo blog con páginas especiales en las que explica cómo combinar diferentes aplicaciones web en astronomía.

Las aplicaciones con enlaces online, como Google Earth y servicios como Twitter son el blanco de una creciente comunidad de programadores. En algún tiempo, estas personas habrían sido consideradas "hackers", programadores que logran desentrañar el funcionamiento de algo para cambiarlo a su gusto. En la era web, compañías como Google y Twitter liberan las llamadas "APIs", Interfaces de Programación de Aplicaciones, que permiten que cualquiera interaccione con ese servicio. Esto permite crear interesantes usos basados en las funciones de cada aplicación. Es decir que podemos "tunear" estas aplicaciones al combinarlas con otras.

1.Google Earth/Sky
Satélites
A través de Orbiting Frog, Simpson pone a disposición algunos scripts para rastrear satélites en Google Earth. Su página sirve como repositorio para bajar los archivos y tener información sobre ellos. Lo que tenemos allí a disposición son archivos KMZ, creados con KML que es un lenguaje de marcado, un xml, para codificar geolocalizaciones. Estos archivos los podemos ejecutar en la apliación para que nos muestren la Estación Espacial Internacional, el Telescopio Hubble, los satélites Iridium, y más.
Hubble e ISS en Google Sky


1.2 SIMBAD en Google Sky
El servicio SIMBAD ha sido implementado en Google Sky. Un pequeño archivo se puede descargar que permite realizar búsquedas de objetos en la misma ventana de Google Sky. Cada objeto puede ser luego explorado a fondo a través de un enlace a SIMBAD.
SIMBAD en Google Sky


1.3 En longitudes submilimétricas
Simpson creó una capa que permite acceder a los mapas submilimétricos de SCUBA.
SCUBA fue una cámara en el Telescopio James Clerk Maxwell en Hawaii, creada para estudiar las regiones del universo normalmente oscuras a frecuencias ópticas.
Una vez iniciado por primera vez, el archivo comenzará a descargar los 9 MB del catálogo. Así se podrán ver los datos puntuales (en verde) e imágenes tomadas con la cámara SCUBA. Las imágenes se mostrarán únicamente cuando estemos viendo los objetos de muy cerca, para ahorrar tiempo y espacio de disco.
SCUBA Google Sky


1.4 SkyView en GoogleSky
SkyView es un sitio web de NASA que funciona como observatorio virtual. Para combinar ambas herramientas, Simpson creó un archivo de ejemplo usando el sondeo infrarrojo IRAS 100 micron. En su blog explica cómo jugar con GoogleSky.
IRAS en Google Sky


2. Twitter
En busca de la Estación espacial
Simpson tiene un sitio especial en su blog con las cuentas de Twitter que creó para cada ciudad, en las que se indica cúando pasará la EEI, Hubble, Envisat y otros objetos interesantes. Las cuentas tienen la forma: "overciudad", donde ciudad es el lugar que nos interese, dentro de los disponibles. Por ejemplo, @overbuenosaires, @overmadrid, @barcelona1, @santiago, @overrio. Por cierto, falta México!
Además, según indica el autor, el tweet aparece sólo si el clima en la localización es suficientemente bueno para observar, gracias a Yahoo!Weather. Se indica el brillo del objeto (escala de magnitud), las coordenadas en el cielo y la duración de la visibilidad.
http://orbitingfrog.com/blog/over-twitter/
overTwitter


3. Microsoft WWT
Hasta acá, una idea de lo que intentó transmitir Simpson en su paper. Queda afuera, WWT, aunque seguramente en la próxima DotAstronomy tendrá su lugar. Mientras tanto, y para que mi primo Miguel no me rete, hablemos un poco de esta magnífica aplicación de Microsoft Research (MR).
Con este planetario también podemos "tunear" el cielo en nuestro escritorio. Es posible crear Tours y Colecciones y compartirlas, acceder a catálogos y buscar los objetos deseados, etc.
En la página de WWT hay algunas referencias sobre cómo manipular estos archivos
y el blog de MR también nos permite conocer algunos "trucos".

A nuestro alcance tenemos los datos de SkyView, de los que también WWT hace uso, como contábamos en "El cosmos a través de SkyView". Un archivo que contiene los mapas de calor de las regiones del cielo más frecuentadas desde 2007 por los usuarios se puede descargar como cuentan en SkyView Queries.

Si en GoogleSky usamos archivos kmz (kml), en WWT usamos arhivos WTML, acrónimo de Worldwide Telescope Markup Language. Se trata también de un lenguaje de marcado que puede ser usado para varias funciones, como definir colecciones, localizar imágenes, etc. Lo que allí se guarda no son datos, sino punteros y son ideales para compartir información. En el blog de MR hay una buena explicación sobre cómo funcionan los archivos WTML.


Un ejemplo: la sonda WMAP que sondea el Fondo de Radiación de Microondas liberó sus resultados de cinco años de observación y en su página podemos encontrar un archivo WTML que nos permite navegar esas imágenes en WWT:
http://lambda.gsfc.nasa.gov/product/map/current/wwt

WWT+WMAP


El experimento GalaxyMap
Kevin Jardine, de GalaxyMap nos cuenta que creó un conjunto de sondeos (Surveys) para WWT. Lo explica en WorldWide Telescope experiment, y nos indica allí un archivo para descargar y navegar en WWT.

WWT+IRAS



Lo que viene
Mucho más se irá creando. Es muy simple en la actualidad gracias a la múltiple colección de servicios de información en la web. Una aplicación todavía no muy desarrollada, pero que merece más atención, es el deslizador de longitudes de onda, por ejemplo.

El tema cobrará un nuevo ímpetu en la conferencia .Astronomy 2009 que se llevará a cabo en Leiden, entre el 30 de noviembre y el 4 de diciembre, de la cual Simpson forma parte del comité organizador. Prometen un "hack day", en una o varias sesiones. Allí seguramente ahondarán en los "trucos" para las aplicaciones web mencionadas aquí, así como para Worldwide Telescope de Microsoft.
Desde aquí abordaremos más sobre este asunto próximamente, ya que estas herramientas forman parte de lo que algunos están llamando "El cuarto paradigma" de la investigación en la era computacional.

Fuentes y links relacionados


  • Hacking the Sky
    R. J. Simpson
    arXiv:0903.0484v1
    Conferencia "Astronomy: Networked Astronomy and the New Media", 2009,
    editado por R. J. Simpson, D. Ward-Thompson

  • Orbiting Frog blog


Sobre las imágenes


  • Capturas de pantalla propias e imágenes de Robert Simpson

  • Logo de DotAstronomy 2009. Crédito: Lost Valley Observatory por Keith Quattrocchi




Etiquetas:
-

23/10/09 - DJ:

Los exoplanetas "mediocres"

TEL: 5 min. 22 seg.

Desde el descubrimiento del primer exoplaneta, alrededor de la estrella 51 Pegasi, más de 400 planetas alrededor de otras estrellas se han descubierto. Pero estos objetos, a diferencia de otros, no tienen nombre, sino una designación científica.
Un astrónomo propone darles un nombre a los exoplanetas.
Ilustración de Gliese 581 eGliese 581, el planeta más liviano


Wladimir Lyra es Brasilero. Estudió en la Universidad Federal de Río de Janeiro. En 2002 fue elegido para un trabajo de verano de 10 semanas para el Instituto de Ciencia Espacial Hubble en Baltimore. Estuvo en Chile con el proyecto CTIO. En 2004 comenzó su doctorado en la Universidad de Uppsala, Suecia. Luego de 4 turbulentos años, 11 papers e incontables noches codificando y haciendo simulaciones sobre discos protoplanetarios lo empezaron a llamar "Doctor". Ahora es un postdoctorando en el Instituto Max Planck en Heidelberg. Además de tener el pasaporte repleto de sellos, habla fluído su portugués natal, español, francés y sueco.

En un reciente ensayo, un paper no enviado a ninguna publicación, sugiere nombres "apropiados" para los 403 exoplanetas conocidos a la fecha.

Nomenclatura científica vs. nombres "humanos"
Ciertamente, denominar a un exoplaneta como MOA-2008-BLG-310-L b no parece muy acertado, pero es el mote que recibió hasta ahora un reciente planeta de masa inferior a la de Saturno detectado en el Bulbo Galáctico.
La UAI sostiene que no es práctico darles un nombre. Se argumenta que los descubrimientos se incrementarán exponencialmente y no sería posible nombrarlos a todos. Claro que también se descubren estrellas y sí es viable, al menos hasta ahora, ponerles una denominación más amigable. Incluso los asteroides tienen sus nombres. Hasta algunas galaxias, al menos las más cercanas, lo tienen. La UAI está analizando la creación de un sistema, que será menos romántico que lo que propone Lyra, pero más ordenado.
En la actualidad se utiliza el nombre de la estrella a la que pertenece el exoplaneta (según catálogo) seguido de una letra (comenzado por la b), si es que hay varios planetas en el sistema.

Nombrando a las estrellas
Las estrellas más brillantes suelen tener nombre propio que les viene de antiguo. La gran mayoría vienen del griego (como Cástor) o del árabe (como Aldebarán), pero hasta las de magnitud 6 pueden nombrarse sistemáticamente de dos maneras:
El método de Bayer consiste en ponerle una letra, griega o latina, antes del nombre de su constelación en genitivo; por ejemplo: a Virginis.
El método de Flamsteed consiste en ponerle un número antes del nombre de su constelación en genitivo; por ejemplo: 67 Virginis.
Más información en Nombre de las estrellas, de Antonio Herrera.
Pero no sólo se usan constelaciones. Los astrónomos asignan nombres a las estrellas según los catálogos a los que pertenecen. A lo largo de la historia se han realizado muchos catálogos: Johannes Bayer en Uranometria hizo un atlas del cielo usando letras griegas. También existen otros: Flamsteed (1712), Lacaille (1742), Bradley (1760), Piazzi (1800) y Lalande (1801). Este último dio el número, magnitud y posición de 47 390 estrellas.


En la actualidad se usa mucho el catálogo de Henry Draper para nombrar a los exoplanetas. Por ejemplo el sistema HD 155358 tiene al menos dos planetas, b y c.


Ilustración exoplanetasWASP-17b, el exoplaneta que va para atrás


¿Por qué nombrar a los exoplanetas? Lyra argumenta que el Principio Copernicano es una razón principal. Nuestro lugar en el cosmos no es especial, por lo que no hay razón para que sólo los planetas en nuestro sistema solar tengan nombre. Una extrapolación de esta idea se conoce como Principio de mediocridad.

Algunos planetas poseen un nombre sugerido. Por ejemplo, al autor se le ocurrió que a 51 Pegasi b le sentaría bien el mote de "Belorofonte". Así se cruzó en la web con el sitio "Extrasolar planet naming society" en el que se sugiere justamente ese nombre.

Otra página, de Devon Moore, posee sugerencias para nombrar a más de 40 planetas, algunos que le parecen apropiados, otros que rechazaría.

Los tres planetas descubiertos alrededor de Upsilon Andromedae han sido apodados "Fourpiter", "Twopiter" y "Dinky" por niños de cuarto grado. Claramente los dos primeros poseen referencias a su tamaño en relación a Júpiter. Sin ofensa a los creativos niños, dice Lyra, no son ya los tiempos en los que Venitia Burney, la niña de 11 años, sugirió el nombre Plutón (el dios romano del submundo, no el perro de Disney!) para el alejado y frío ex-planeta, en 1930. A propósito, "Naming Pluto" ("Nombrando a Plutón") es un documental al respecto que cuenta la historia.

¿Cómo hacerlo entonces? Lyra sugiere retornar a la clásica tradición de utilizar la mitología Greco-Romana. El artículo contiene un tabla con los exoplanetas encontrados hasta ahora y las sugerencias de Lyra. ¿Método? La Enciclopedia de Exoplanetas de Jean Schneider (que contiene los 32 exoplanetas recientemente descubiertos), un diccionario de Mitología y algunas fuentes online. Para buscar un nombre apropiado, un manera que le parece razonable es la asociación con la constelación en la que se encuentra. Por ejemplo, el sistema Gliese 581, en Libra, podría ser llamado Themis, la diosa de la justicia.

Constelaciones Sur


¿Y las constelaciones del Sur? Las constelaciones clásicas descritas en el Almagesto eran, por supuesto, dibujadas sobre las estrellas visibles desde el hemisferio norte únicamente. Y usaron los mitos para buscar nombres apropiados. Pero las constelaciones australes definidas durante la Era de la Navegación no están asociadas a figuras mitológicas.
Para eso, Lyra reconoce a Moore el mérito de saber qué hacer. Sencillamente asociarlas con la mitología clásica: Horologium (el reloj de arena) podría ser Cronos, el dios del Tiempo. De la misma forma se pueden asociar los nombres en Uranometría, de Bayer, con la mitología clásica.

A continuación, el autor menciona los mitos de navegación -La Ilíada, la Odisea, la Eneida- como fuentes de referencias clásicas. Y también propone, de la literatura portuguesa, "Las Lusíadas", epopeya del Renacimiento de Luís de Camões, de 1572. El título significa "los hijos de Luso". Según la leyenda, los portugueses descienden de Luso, hijo del dios Baco, que conquistó por las armas un territorio que después será Lusitania, o sea, Portugal.
Esta sugerencia abre la puerta a la inclusión de otros mitos y asociaciones literarias: La canción de Rolando, Los Nibelungos, La Divina Comedia, Don Quijote, etc. Y también cita "The Columbiad" ("La Colombiada"), de Joel Barlow (1807).

En las siguientes páginas, Lyra propone asociaciones mitológicas clásicas con las constelaciones para, finalmente sugerir nombres para los 403 exoplanetas descubiertos a octubre 2009.

Tabla exoplanetas


Las críticas
No digo que la propuesta esté mal ni bien, sólo me hago preguntas:
Existiendo tantos objetos distintos (estrellas, planetas, asteroides) el nombramiento podría ser engorroso y la lista a elegir, finita. Quizás lo mejor sea sí nombrar amigablemente a las estrellas y, a partir de ellas, a los planetas y asteroides. En nuestro sistema solar, estos objetos, con sus nombres actuales, serían "especiales" porque los encontramos antes. Tener un sistema arbitrado por la UAI generaría menos complicaciones y rodeos.

La idea de nombrar a los exoplanetas más amigablemente, no deja de tener un atractivo: atraería al público general. Pero, en el caso de las estrellas que hospedan planetas y que se encuentran en una constelación del Hemisferio Sur, ¿no sería mucho más apropiado utilizar la mitología de las civilizaciones precolombinas, por ejemplo? Mayas, Incas, Aztecas, -habría que agregar las que habitaron en Australia, Sudáfrica, etc- poseían sus deidades y estudiaron los movimientos celestes con gran precisión. El "Nuevo Mundo" también merece un "Nuevo Cielo", no creen? Y para ser verdaderamente nuevo, deberíamos incluir otras mitologías como la Japonesa, Africana y China.
Sin embargo, tal como apunta el autor, esto también genera problemas ya que una palabra puede resultar ofensiva en un idioma y no en otros. El ejemplo que da es "Uranus" para los angloparlantes.

Pero esto nos devuelve al comienzo, al también llamado "Principio de Mediocridad", la idea de que no somos especiales. El universo sería un abanico representativo de la humanidad (mucho mejor que hasta ahora, más inclusivo). Pero, al mismo tiempo, eso estaría indicando que sí creemos ser especiales.
Claro, dirá usted, no hay otra forma. Ya sea que usemos nombres latinos/griegos, aztecas, africanos, anglosajones o asiáticos; o incluso números (que actualmente surgen de catálogos creados por personas, como el mencionado catálogo HD), estamos haciendo referencia a nuestra cultura "terráquea". Es inevitable.

¿Y si usamos un generador de números aleatorios, mucho menos romántico y literario, mucho menos "humano", menos antrópico? Estaríamos ante un universo de "exoplanetas mediocres". Como nosotros.

Fuentes y links relacionados


Sobre las imágenes


  • WASP-17b. Ilustración: ESA/C. Carreau

  • Gliese 581. Crédito: ESO.

  • Las constelaciones clásicas basadas en "Los Fenómenos" de Arato según Johann Buhle (siglo XVIII)




Etiquetas:
-

Un sitio para reportar objetos en el cielo

TEL: 59 seg.

El proyecto UAP se propone relevar las observaciones de Fenómenos Aeroespaciales No Indentificados, tanto de astrónomos amateurs como de profesionales.
UAP 2009


A pesar de que la mayoría de las observaciones pueden ser atribuídas a una mala identificación de objetos naturales o creados por el hombre, una pequeña cantidad residual de casos parecen quedar sin explicación y el debate sobre la hipótesis extraterrestre resurge entre el público.
De allí surge la idea de legitimar el tema, en el marco del Año Internacional de Astronomía. Para reportar un "objeto raro", un OVNI, hay que llenar un formulario que por ahora se proporciona en formato .DOC y .PDF, en inglés y en francés.
El formulario consta de 4 páginas para indicar: Información personal, descripción de lo observado, dibujo de la observación, variables de entorno y condiciones climáticas, duración y dirección de lo observado, características físicas, etc.

UAP 2009 Reporting Scheme, es una iniciativa de un astrónomo amateur, Philippe Ailleris.

"Estos fenómenos son principalmente vistos en el cielo nocturno, un dominio que los astrónomos han considerado como propio, y es importante recolectar testimonios de miembros de la población que son observadores entrenados. Queremos abordar este controvertido campo de avistamientos UAP desde un punto de vista profesional, racional y sin ideas preconcebidas. Ciertamente, cuando hay observaciones inexplicadas, existe la posibilidad de que los científicos puedan aprender algo nuevo al investigarlo", comentó el autor del proyecto.

UAP 2009


Fuentes y links relacionados


Sobre las imágenes


  • Logo de UAP 2009




Etiquetas:
-

22/10/09 - DJ:

Cúmulo de galaxias rompe récord de distancia

TEL: 1 min. 20 seg.

Chandra confirmó la existencia de un cúmulo de galaxias a 10.200 millones de años luz de distancia.
JKCS041


La imagen es una composición de rayos-X del Observatorio Chandra, datos ópticos del VLT e infrarrojos de DDS (Digitized Sky Survey). El objeto, conocido como JKCS041, lo vemos tal como era cuando el universo tenía sólo un cuarto de su edad actual.

El objeto fue originalmente detectado en 2006 con observaciones infrarrojas desde el Telescopio Infrarrojo del Reino Unido (UKIRT). La distancia fue luego determinada con observaciones del mismo instrumento, más el telescopio CFHT y Spitzer. Sin embargo, los científicos no estaban seguros de si era un verdadero cúmulo o uno captado mientras se estaba formando. Pero la forma y extensión de las emisiones de rayos-X obtenidas por Chandra, brindaron la evidencia para saber que sí lo es.

JKCS041 está en el límite de distancia esperado para un cúmulo de galaxias. "No pensamos que la gravedad pueda funcionar lo suficientemente rápido como para formar cúmulos mucho antes", señaló Stefano Andreon del Instituto de Astrofísica de Milán (INAF).

JKCS041Imagen del cúmulo JKCS041. Crédito: CFHT, Terapix, WIRDS


El récord anterior para un cúmulo de galaxias era de 9.200 millones de años para el objeto XMMXCS J2215.9-1738 descubierto por el satélite XMM-Newton en 2006.

Entre las preguntas que los científicos esperan responder con estudios más profundos de JKCS041 es si hay signos de estar todavía en formación; si la temperatura y el brillo de rayos-X de un objeto tan distante están relacionados a su masa de la misma forma que en los objetos más cercanos, y si contiene elementos pesados (como el hierro) al igual que en los objetos más jóvenes.

En la primera imagen, de Chandra, los rayos-X están coloreados en azul, mientras las galaxias individuales en el cúmulo están en blanco. El objeto se encuentra a 10,2 mil millones de años luz de distancia (z=1.9), mide 190 millones de años luz de diámetro, y está localizado en la constelación Cetus, la ballena.

Fe de erratas
Originalmente habíamos utilizado la expresión "cúmulo galáctico" en esta nota, pero como nos apuntó Jaime García, esos términos se asocian con los cúmulos estelares abiertos y no con los cúmulos de galaxias.


Fuentes y links relacionados


Sobre las imágenes


  • Cúmulo JKCS041. Crédito: X-ray: NASA/CXC/INAF/S.Andreon et al Optical: DSS; ESO/VLT




Etiquetas:
-

Puerta 18: Un puente al arte y la tecnología

TEL: 2 min. 21 seg.

Puerta 18 es un espacio extraescolar y gratuito, en Buenos Aires, que promueve la utilización de tecnología en la expresión de talentos y habilidades.
Puerta 18


Este espacio extraescolar y gratuito de creación artística y tecnológica para chicos de 13 a 18 años es financiado por la Fundación IRSA, con donaciones de licencias de Microsoft y el aporte de los profesionales de UTN.

En Puerta 18 trabajan con:

• Programas profesionales de diseño para crear animaciones 2 y 3D, páginas Web, Cd interactivos, mundos virtuales, videojuegos y efectos especiales entre otros

• Una sala de grabación y producción musical y programas profesionales de audio

• Una estación completa de video para filmar, editar y post producir videos y cortos

• Kits de Robótica que utilizan sensores de sonido, luz y tacto

• Fotografía profesional analógica y digital

• Programas y recursos para realizar Diseño de indumentaria y accesorios

• Profesores especialistas que ayudan con las materias más difíciles usando software avanzado

• Proyectos de arquitectura y 3D

En este espacio hay lugar para todas las ideas!

Puerta 18

http://www.youtube.com/watch?v=9i8wG0AnjXg


El Lugar
Se desarrolla en la calle Zelaya N° 3118 de la Ciudad Autónoma de Buenos Aires.

Objetivos del Programa

• Descubrir, estimular y potenciar las habilidades, vocaciones y el talento de los participantes

• Propiciar espacios de encuentro, refexión y acción

• Disminuir la deserción escolar fortaleciendo su trayecto académico

• Mejorar sus oportunidades y herramientas de empleabilidad

Cursos y Talleres
Dentro del Programa se desarrollan cursos y talleres de diversas disciplinas de base tecnológica dictados por docentes de la Universidad Tecnológica Nacional (UTN). Para el comienzo del proyecto se proponen diversos cursos diferentes, pudiendo los mismos ser ampliados o reducidos por la dirección del Programa, en caso de considerarlo apropiado, como por ejemplo:

Diseño de páginas web
Arte urbano
Diseño de personajes
Animación 2D y 3D
FX Efectos especiales
Diseño de video juegos

Dentro del Programa se desarrolla también el proyecto denominado "Computer Clubhouse", el cual fue creado por el Museo de Ciencias de Boston en colaboración con el Instituto Tecnológico de Massachusetts (MIT). Este proyecto promueve la metodología de exploración y aprendizaje abierto basado en proyectos. Los participantes no sólo son usuarios de tecnología sino que se convierten en diseñadores y creadores, usando equipos adecuados y software profesional, a fin de crear su propio trabajo artístico, animaciones, simuladores, presentaciones multimedia, mundos virtuales, creaciones musicales, Web sites y robots entre otros. En este marco se trabaja en el uso de las herramientas tecnológicas para la promoción del arte, el juego y la ciencia.

Escuelas
Las escuelas medias podrán realizar una visita al Programa con el objetivo de dar a conocer a sus alumnos las actividades que se ofrecen. Para ello, las autoridades de las escuelas interesadas, deben enviar un correo electrónico a info@puerta18.org.ar o comunicarse al teléfono 4863-0037 , a fn de coordinar día y horario de la visita.

Puerta 18, 2.0
IUPI (Improvisando Unas Pocas Ideas) es un blog sobre actualidad y diversos temas de interés general creado y escrito íntegramente por los chicos sobre la plataforma blogger, surgido por iniciativa de Ana Laura Rossaro, de Educación 2.0.
http://iupiblog.blogspot.com/

¿Una imagen vale más que mil palabras? Entonces veamos los videos de Puerta 18 en Youtube: http://www.youtube.com/user/puertadieciocho

Fuentes y links relacionados


Sobre las imágenes


  • Logo de Puerta 18




Etiquetas:
-

21/10/09 - DJ:

Las ajustadas miradas al Cinturón de Gould

TEL: 2 min. 4 seg.

El Cinturón de Gould es un vasto anillo de activas guarderías estelares, jóvenes estrellas y nubes moleculares que rodea al Sistema Solar.
Nubes moleculares en Cinturón de Gould


El anillo recibe su nombre en honor a Benjamin Gould, quien lo identificó en 1879 en Uranometría Argentina. Se trata de un fragmentado anillo de unos 3.000 años luz de diámetro. Contiene brillantes estrellas jóvenes tipo O y B y se aloja dentro del brazo local de la Vía Láctea. Nuestro Sol parece estar casi en el centro del Cinturón.

La imagen inferior muestra aproximadamente dónde está el Cinturón de Gould en la Vía Láctea. El Sistema Solar hay que imaginarlo como un invisible puntito cerca del centro del anillo blanco que denota al Cinturón.

Ubicación del Cinturón de Gould


¿De dónde surgió el Cinturón de Gould? No se sabe, ciertamente. Pero una hipótesis es que una antigua supernova envió radiación y material como una onda de agua generada por una roca en un estanque. Esto habría causado un anillo de actividad en el medio interestelar circundante. Este modelo funciona bastante bien, dado que la burbuja local -una región de baja densidad en la cual se aloja el Sol y otras pocas estrellas- cabe razonablemente bien dentro del Cinturón de Gould. Quizás ambas estructuras, la burbuja y el cinturón, provienen de una remota explosión estelar.

También es posible que una interacción mucho mayor haya tenido lugar. Un reciente artículo (de Kenji Bekki, referenciado abajo) sugiere que el cinturón se originó hace 30 millones de años cuando un agrupamiento de materia oscura gigante colisionó con una enorme nube molecular en el brazo espiral de nuestra galaxia.

Distribución del Cinturón de GouldImagen que muestra la distribución del Cinturón de Gould en el cielo. El área marcada en naranja ilustra el Cinturón mostrado contra el disco de la Vía Láctea, que contiene al Sistema Solar.


¿Y si es una ilusión? Es posible que no exista ningún Cinturón de Gould y sólo creamos percibir esta forma anillada en el diseño de nuestra región local. Después de todo, cuando se trata de estructuras detalladas en la galaxia no podemos ver mucho más allá que nuestro propio brazo espiral. Quizás sean formas meramente coincidentales desde nuestro punto de vista, como apunta Robert Simpson, quien forma parte de dos sondeos de esta región.

Las ajustadas miradas: Sondeos
La primera imagen de esta nota, de Jason Kirk, muestra las nubes de formación estelar en el Cinturón de Gould. El Cinturón mismo está marcado como un anillo azul y la burbuja local es mostrada como una región sombreada. El tamaño de las regiones de formación de estrellas es proporcional a su masa, asumiendo densidad uniforme.
La imagen fue creada para el Sondeo del Cinturón de Gould de Spitzer. Este sondeo espera descubrir nuevas regiones de formación estelar en las nubes moleculares del Cinturón al usar el Telescopio Espacial Spitzer en colaboración con los observatorios Herschel y JCMT. Las primeras observaciones comenzaron en septiembre. La primera región ya completada es IC5146, de la que existe esta imagen en la galería del sondeo:

IC5146


Otros sondeos
El de Spitzer no es el único estudio de esta región. Otros sondeos son:
JCMT Gould Belt Legacy Survey

APEX Gould Belt Legacy Survey

Spitzer c2d Legacy Survey

Herschel Gould Belt Key Program


Fuentes y links relacionados


Sobre las imágenes


  • Cinturón de Gould. Crédito: http://galaxymap.org/

  • Distribución del Cinturón de Gould en el cielo.
    Crédito: 2MASS/J. Carpenter, T. H. Jarrett, & R. Hurt

  • Nubes moleculares en el Cinturón de Gould. Crédito: Jason Kirk

  • IC5146. Crédito: Sondeo del Cinturón de Gould de Spitzer




Etiquetas:
-