Entrevista exclusiva de LA NACION con Guillermo Martínez, escritor y doctor en lógica matemática
Vía La Nación
Las computadoras no pueden desarrollar todo el complejo mundo matemático, dejan afuera muchos resultados. "Ni siquiera desarrollan una parte tan elemental de la ciencia como lo es la teoría de los números naturales. Siempre queda algo fuera del poder de cálculo de la computadora. Aunque lo que demuestran es correcto no alcanza, faltan enunciados", revela Guillermo Martínez, escritor y doctor en lógica matemática. El estuvo a cargo de la charla introductoria del evento Snoop Update 06 ( www.update06.com.ar ) que se realizó el 18 del actual en el Paseo La Plaza.
Observa después que actualmente se está desarrollando una nueva generación de computadoras: las cuánticas. "El gran problema tecnológico de la computación actual tiene que ver con lo que se llama la complejidad algorítmica, es decir, la cantidad de tiempo que debe invertir una computadora para resolver un problema. Esa limitación se aprovecha para hacer codificaciones y encriptamientos en los que el proceso de decodificación sea, computacionalmente, trabajoso", explica. Efectivamente, los especialistas en seguridad utilizan la encriptación y codificación para obstaculizar la intromisión de delincuentes informáticos.
Según Martínez, se utilizan tipos de encriptamiento cuya dificultad en computación sea del orden exponencial. "Justamente los cálculos exponenciales marcan una línea divisoria entre lo que se puede llegar a realizar en la práctica cotidiana y lo que queda fuera del alcance actual de las computadoras. Si un problema tiene una complejidad del orden 2 a la n, rápidamente liquida toda la memoria posible de una computadora clásica. Pero la computación cuántica trataría de resolver esa cuestión", explica.
La última idea que Martínez destaca como otra de las principales cuestiones que quedan fuera del alcance de la computación actual es el azar. "Actualmente se están intentando desarrollar dispositivos y métodos de algoritmos para tratar de capturar la noción de azar. Se está buscando cómo hacer para generar números que sean aleatorios. Cómo fabricar algo que sea azaroso", dice el escritor.
Ocurre que, contrariamente a lo que se cree, a medida que aumenta la sucesión van apareciendo rachas cada vez más largas. Es decir, si se arroja una moneda al aire, a medida que aumenta la cantidad de veces que se tira la moneda, también se incrementa la longitud de seguidillas de la misma cara. "En la computación todos los procedimientos que uno supone son al azar, en realidad no lo son. Son procesos seudoaleatorios", detalla Martínez. Otra limitación actual de las computadoras es que no hay manera de generar números al azar.
En resumen, la computación es una rama de la matemática aplicada que tiene que hacer sus simplificaciones para poder funcionar. "Las computadoras proceden según un programa. Cualquiera que conozca a fondo el programa puede predecir la corrida que va a hacer. Necesitaría tener dentro del software una ruleta para poder incorporar la idea de azar -dice el matemático-. La matemática, en su desarrollo teórico, es mucho más compleja que la computación."
Cintia Perazo
Blog de noticias de astronomía - Desde Buenos Aires, Argentina
¡Que no cunda el pánico!
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.
"¿No es suficiente ver que un jardín es hermoso sin tener que creer que también hay hadas en el fondo?" - Douglas Adams, La guía del autoestopista galáctico.
30/10/06 - DJ:
"La matemática es mucho más compleja que la computación actual"
Tags:
Ciencia
Lic. en Comunicación (UNSAM), analista de sistemas y aficionado a la astronomía. Nací en 1973. Me enseñaron a creer. Aprendí a no hacerlo.
Suscribirse a:
Comentarios de la entrada (Atom)
No hay comentarios.:
Publicar un comentario