Blog de noticias de astronomía - Desde Buenos Aires, Argentina
¡Que no cunda el pánico!
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.

3/3/23 - DJ:

El reCAPTCHA astronómico

T.E.L: 2 min.

Inteligencia artificial en astronomía y clasificaciones humanas.



La Inteligencia Artificial (IA) está entre nosotros y llegó para quedarse. Uno de los mayores usos de las IA es para clasificar imágenes. Los astrónomos, en la era del diluvio de datos, tienen una cantidad muy grande de información que procesar. Sin embargo, para entrenar una red neuronal se usa a personas que clasifican imágenes, incluso sin saberlo. Un ejemplo es el servicio de Google ReCAPTCHA. CAPTCHA es una sigla en inglés que significa " Test Público Completamente Automatizado de Turing para Diferenciar a los Seres Humanos de las Computadoras". Seguramente Ud. alguna vez se encontró que para acceder a un sitio web se le pidió que confirme que es una persona con este tipo de artilugio en el cual debe señalar objetos de la misma índole.

Los cosmólogos que estudian lentes gravitacionales han debido usar nuevos métodos para analizar los cuantiosos datos obtenidos. Sin embargo, los métodos computacionales generan muchos falsos positivos. Es por eso que se pide a personas que verifiquen el resultado computacional. Pero esto introduce los sesgos humanos: ¿cuán buenas somos las personas para identificar lentes gravitacionales en comparación con una máquina entrenada? Esto fue lo que estudiaron Karina Rojas, de la Universidad de Portsmouth y sus colegas.



EL EXPERIMENTO
Uno de los objetivos del trabajo era determinar si el conocimiento previo en los objetos de estudio era relevante a la hora de clasificar. Es por eso que invitaron a expertos en la materia. Usaron el sitio de ciencia ciudadana Zoouniverse. Los usuarios debían elegir la mejor descripción para el objeto mostrado:
Algún lente (>90%), Probable lente (50-90%), etc. No se incluyó ningún tutorial, como suele ocurrir en los proyectos de ciencia ciudadana. Las imágenes mostradas provienen del Sondeo Dark Energy Survey que usa el telescopio Blanco de 4m en el Observatorio de Cerro Tololo en Chile.

Las imágenes de cada potencial lente se ofrecía por triplicado en diferente longitud de onda. La muestra contenía lentes simulados, datos repetidos, imágenes sin lentes. En total 1489 imágenes. Cada candidato debía clasificar 1000 imágenes. 



CONCLUSIONES
Con un total de 66835 clasificaciones, los resultados se pueden resumir así:
-La mayoría de los lentes son identificados positivamente cuando tienen un Radio de Einstein mayor a 1,2" y la magnitud es menor a 23.
-Las personas lograron identificar los no-lentes en gran proporción.
-No hallaron correlación entre los resultados de personas con los de una red neuronal, lo que sugiere que máquinas y personas buscan diferentes características.
-El resultado en grupos es mejor que el individual.


Vivimos en una sociedad digital en la que las personas debemos demostrar que no somos robots, como el test Voight-Kampff en BladeRunner, pero a la inversa. Sin dudas, las máquinas pueden ser mejores que las personas para ciertas tareas, aunque seamos nosotros quienes las creamos. A nadie se le ocurre dudar del resultado de una calculadora. ¿Por qué habríamos de dudar del resultado de una IA? Porque no es lo mismo. Las IA comparan estadísticamente a partir de lo que conocen. Recordemos el caso en que un servicio de Google confundió personas con animales.

Por ahora, computadoras y personas podemos aportar lo nuestro y convivir pacíficamente, así como lo hacemos con las calculadoras. Hasta que las IA empiecen a soñar con ovejas eléctricas.☉


Fuentes y enlaces relacionados
The impact of human expert visual inspection on the discovery of strong gravitational lenses
Karina Rojas et al (2023)

How Good are Humans at Visually Identifying Gravitational Lenses?
by Lucas Brown 

Google pide perdón por confundir a una pareja negra con gorilas

Sobre las imágenes
L Brown-K.Rojas

No hay comentarios.:

Publicar un comentario