Blog de noticias de astronomía - Desde Buenos Aires, Argentina
¡Que no cunda el pánico!
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.

14/10/17 - DJ:

Cuando la ciencia es peor que la seudociencia

T.E.L: 6 min.

La "inteligencia artificial" basada en fisiognomía es pura basura oscurantista con aspecto de ciencia. No es una herramienta, es un arma en contra de la población.



Dos aclaraciones preliminares:
1-Ciertamente este blog es un espacio para analizar los discursos sociales sobre la astronomía y ciencias relacionadas, lo que incluye noticias de descubrimientos y debates sobre teorías. Es, por tanto, un blog temático. Pero creo, a veces, que es necesario salir de esa restricción autoimpuesta cuando se amerita, por ejemplo, cuando algo que es seudocientífico se intenta hacer pasar como ciencia. Este es el caso.

2-En muchas ocasiones señalé que la astrología es una seudociencia hecha por gente que no es científica. Pero la cosa es peor aún cuando lo mismo lo hacen científicos. Con lo cual se demuestra en esta nota que no hago una defensa a ultranza de la ciencia. En nombre de la ciencia se han hecho barbaridades, como las que señalaré a continuación.

En un artículo en NYTimes [1] se explica y cuestiona lo que Michal Kosinski y Yilun Wang han publicado recientemente. Kosinski es profesor en Standford en la escuela de graduados de negocios y tiene un doctorado en psicología de Cambridge. En su propia página web se presenta como "científico de datos".

La "investigación" hecha por este dúo de sátrapas ha sido publicada en sendos diarios como The Economist y The Guardian y se puede leer una versión en español en ABC [2].

Pero quiero que el lector piense en la cuestión fundamental, subyacente, en este tipo de estudios y que no se queden con lo "superficial". Me explicaré: estos dos idiotas dicen haber entrenado una red neuronal para pronosticar, a través del análisis de fotos, la tendencia sexual de las personas. Se ha llamado a eso un "gaydar", es decir, un "radar gay". Que se use en este caso para eso es superficial, no porque ese tema sea poco importante, sino porque es sólo una de las múltiples maneras de usar lo mismo para lograr resultados NO REALES. Y, por tanto, es la cuestión de base la que debe importarnos. Lo señalo porque si uno no es gay, podría no importarle el tema. Pero ocurre que se puede usar lo mismo para detectar terroristas, hinchas de Boca, introvertidos, votantes de tal partido o cualquier otra estúpida idea de persecución a las personas, sean minorías o mayorías.

Seamos claros: Si esto se hiciera bien y los resultados fueran adecuados a la realidad, igualmente habría un problema enorme con la privacidad de las personas: cualquiera que haya estudiado sistemas y opere una base de datos sabe que hay datos "sensibles" que no deberían registrarse y publicarse, como el partido al que una persona vota. Las personas tienen derecho a explicitar sus gustos, así como tenemos derecho a no hacerlo.
Y esto es así no sólo porque valoramos nuestra privacidad, porque entendemos que a pesar de vivir en un mundo globalizado e hipercontectado, necesitamos un espacio propio, íntimo. Pero además, se considera "sensible" a todo dato que pueda ser usado para discriminar a la población.

De modo que si estos algoritmos arrojaran resultados reales, igualmente sería cuestionable su aplicación. Pero es todavía peor si, además, los resultados son incorrectos.

Si usted lee los borradores (drafts-preprints) del trabajo de este dúo mecánico me dirá rápidamente que -según ellos- los resultados que se obtienen son muy cercanos a la realidad, en algún caso, 91% de acierto.

Incluso si eso fuera cierto, ¿que significa 91% de acierto? ¿Qué significa en particular el 9% restante? Implica que habrá falsos positivos: Traduzco a continuación un párrafo del NYTIMES: "Digamos que el 5% de la población es gay, es decir 50 entre 1000 personas. Un escaneo facial que tenga un 91% de precisión identificaría falsamente a 9% de heterosexuales como gays; en el ejemplo serían 85 personas. El software también equivocaría 9% de personas gay como heterosexuales. El resultado: de 130 personas que el escaneo facial identifica como gay, 85 serían heterosexuales".

Antes de continuar, recapitulemos:
Se usan escaneos faciales y algoritmos para detectar a través de fotos de la cara el comportamiento de las personas. En este caso particular la conducta sexual, pero ya ha habido otros "casos de uso" de detección de terroristas, no por los antecedentes, sino por "portación de rostro". Cualquiera que busca en la web sobre "fisiognomía" verá que es una seudociencia, de corte genético, que supone que las personas somos como somos por cuestiones exclusivamente genéticas, de nacimiento.
No hay asesinos de nacimiento, ni gays, ni hinchas de Boca ni votantes de este o aquella, ni introvertidos. Sí, es cierto que existen los genes y que tienen influencia, por ejemplo, en el color de los ojos o el cabello. Pero si una persona fuera hincha de River "de nacimiento" y luego cambiara y se hiciera hincha de Atlanta, ¿cambiaría el rostro de la persona? Claramente, no.

Por tanto, los argumentos en contra de estas aplicaciones algorítmicas son su sustento anticientífico, sea que se la usen para una cosa o para otra.
El segundo argumento es que, incluso si los resultados fueran realistas, habría un margen de error suficiente para preocuparnos: si usted fuera mal-identificado y por eso le niegan un puesto de trabajo o lo metieran preso tendríamos un sesgo no meramente teórico, sino práctico, concreto, en contra de la población en general. Por eso, si estos algoritmos fueran realmente buenos habría que crear algunos para detectar chamuyeros, sea en el ámbito científico, como en el ámbito político. Y esto último lo señalo porque estas "herramientas" son usadas como "armas" por la clase política.

Hay quienes estarán a favor de usar estos algoritmos para combatir el delito local o el terrorismo. ¡Cuidado! ¿Quién le dice que USTED no tiene "cara de"?

El tercer argumento es un poco más difícil de entender: ¿qué hacen realmente estos algoritmos, qué detectan?
En el artículo en NYTIMES se da el siguiente ejemplo: se usaron algoritmos para detectar, por fotografías, tanques rusos de tanques estadounidenses. Pero luego se dieron cuenta de que los tanques de USA fueron fotografiados de día, mientras los rusos en días nublados. Por tanto, lo que diferenciaba a unos de otros (en las fotos) era una diferencia de luz y era ESO lo que detectaban los algoritmos, no la procedencia, sino un cambio de iluminación.

En el caso del "gaydar" podría ser la calidad de las imágenes (en la suposición de que los gays suelan usar imágenes de mejor calidad) o, más probablemente la gestualidad. En el caso de fotos de cuerpo entero podría ser la pose o el vestuario.
Muchas veces cuando vemos a alguien decidimos en forma íntima si esa persona "parece" gay, por ejemplo, por la ropa que usa, la forma de hablar o la manera de caminar y gestualizar. En realidad, estaríamos detectando un amaneramiento, no necesariamente una conducta sexual.

Que una persona vista con ropa de gimnasia y gorra, ¿implica necesariamente que sea hincha de Boca? NO, ¿por qué habríamos de establecer esa relación si la realidad muestra otra cosa? ¿Acaso todos los hinchas de Boca tienen un rostro como el de Di Zeo? ESO es un prejuicio.

La mentada "inteligencia artificial" no surge de la nada, es programación hecha con los prejuicios de sus programadores (o autores intelectuales). [3]

La inteligencia artificial, según reportamos aquí en otra ocasión, se está usando para análisis de imágenes astronómicas, por ejemplo para evaluar lentes gravitacionales o caracterizar galaxias. Pero si el resultado de esa aplicación fuera incorrecto, es decir, se cataloga a un grupo de galaxias como espirales cuando son elípticas, el resultado sería cuestionable, pero en definitiva no hay consecuencia SOCIAL, las galaxias no se van a ofender, las estrellas no tienen nada que ver con las personas, son materia inerte, sin células, sin vida, sin vida social.

En un video, Kosinski indica que es muy fácil para las personas reconocer el género de cualquier otra en milisegundos sólo con ver su rostro, con lo cual intenta validar por generalización la misma acción para cualquier otra cosa. Entonces estipula que debe haber "algo" en el rostro de la persona que indique su preferencia política. Cuando una persona cambia su preferencia política, ¿cambia el rostro? No, ¿por qué habría de ocurrir? El ámbito de la política está repleto de ejemplos, pero además cada uno de nosotros hemos votado muy distinto a lo largo de la vida.

Esta bazofia debe ser repudiada por la comunidad en general y por el ámbito científico en particular. ¿Recuerda lo que decía Bertolt Brecht? [4].

La discriminación es anticientífica dado que implica llegar a conclusiones falsas de la realidad y actuar en consecuencia. Esto, sin embargo, puede ser hecho por científicos, puede ser avalado por sus pares (explícita o implícitamente) y es finalmente usado por la dirigencia política en contra de los ciudadanos. Estamos a un paso de vivir en "Un mundo feliz".


Fuentes y enlaces relacionados
[1] Why Stanford Researchers Tried to Create a ‘Gaydar’ Machine, por HEATHER MURPHY (9-10-2017)
https://www.nytimes.com/2017/10/09/science/stanford-sexual-orientation-study.html

[2] ¿Eres gay o heterosexual? Una máquina puede adivinarlo con una foto (25-9-2017)
http://www.abc.es/ciencia/abci-eres-o-heterosexual-maquina-puede-adivinarlo-foto-201709112227_noticia.html

The economist: Advances in AI are used to spot signs of sexuality
https://www.economist.com/news/science-and-technology/21728614-machines-read-faces-are-coming-advances-ai-are-used-spot-signs

The Guardian: New AI can guess whether you're gay or straight from a photograph
https://www.theguardian.com/technology/2017/sep/07/new-artificial-intelligence-can-tell-whether-youre-gay-or-straight-from-a-photograph

Deep neural networks are more accurate than humans at detecting sexual orientation from facial images
Michal Kosinski Yilun Wang
https://osf.io/zn79k/

[3] El País: Si está en la cocina, es una mujer: cómo los algoritmos refuerzan los prejuicios
https://elpais.com/elpais/2017/09/19/ciencia/1505818015_847097.html

[4] Bertolt Brecht: "Y por mi vinieron...", por Martin Niemöller, pastor protestante
http://www.homohominisacrares.net/php/articulos.php?num_revista=16&cod_articulo=137

Sobre las imágenes
Captura del Video: Keynote "The End of Privacy", Dr. Michal Kosinski
https://www.youtube.com/watch?v=NesTWiKfpD0

No hay comentarios.:

Publicar un comentario