La capacidad de procesamiento de las computadoras aumenta día tras día y surgen nuevos «monstruos», aunque muchas veces simples máquinas permanecen ociosas y gastando, cuando podían ser mejor aprovechadas
Es un inmenso salón refrigerado donde las temperaturas obligan a entrar con abrigo y tan monótono que apenas puede imaginarse uno que allí radica uno de los «cerebros» más grandes del mundo.
Se trata del MareNostrum, un superordenador instalado en el Barcelona Supercomputing Center, dentro de la Universidad Politécnica de Cataluña, el cual ocupa el primer puesto en Europa y el quinto en el mundo en lo que a potencia de procesamiento se refiere.
Tras su monotonía blanca y gris este inmenso procesador es capaz de hacer cálculos matemáticos que de otra manera serían casi imposibles de lograr dada la complejidad y el tiempo que se necesitaría.
También puede simular enfermedades, fenómenos climáticos e incluso escenarios de guerra, aunque esa no es la función básica del MareNostrum, si bien otros gemelos suyos en el mundo, igualmente superdotadas computadoras, son dedicados a ello.
El MareNostrum, con 10 240 procesadores, 20 terabytes de memoria y 280 terabytes de disco duro, es capaz de hacer más de 40 millones de operaciones matemáticas por segundo y el próximo mes completará el mayor catálogo de proteínas del mundo.
Sin embargo, aun cuando el nombre de «monstruo» informático le viene bien, no es el más potente del mundo. Hace pocas semanas la compañía china Shuguang anunció la creación del primer superordenador en el país capaz de procesar más de un petaflops (más de mil billones de operaciones por segundo).
Así, el país asiático se ubica en el segundo lugar en la lista de supercomputadoras. Todavía sigue dominando el CRAY XT5 Jaguar, con una velocidad máxima de 1,75 petaflops, instalado en el Oak Ridge National Laboratory y propiedad del Departamento de Energía de Estados Unidos.
Dos tendencias dominan el mundo de las supercomputadoras, la de construir equipos cada vez más potentes, y la de utilizar las capacidades inutilizadas en muchas de las máquinas simples conectadas en red, creando así un inmenso supercomputador repartido en miles de pedacitos y en los más disímiles puntos del planeta.
La computación distribuida o informática en malla, como también se le conoce a esta segunda variante, se basa en poner a funcionar como un todo a una colección de equipos separados físicamente y conectados entre sí por una red de comunicaciones distribuida.
De esta forma, cuando el usuario tiene encendida una máquina conectada a red, y la capacidad de procesamiento está subutilizada, ya sea porque está en modo de refrescador o porque se estaría utilizando para programas que requieren pocas capacidades, como la navegación por Internet o escribir un texto, los recursos sobrantes del sistema son aprovechados para realizar otras operaciones, muchas veces sin que el mismo usuario apenas lo note.
Este sistema es también similar, aunque con diferentes fines y características técnicas, a las redes donde el usuario accede de forma remota a programas que se cargan desde un servidor central, el cual es el más potente, mientras las terminales no tienen porqué serlo en igual medida.
Existen múltiples variantes de computación distribuida, desde los SSI, un sistema donde todas las computadoras vinculadas dependen de un sistema operativo común; los Clúster de computadoras, donde todos los nodos se encuentran en el mismo lugar, conectados por una red local; o los Grid, con el que las computadoras pueden tener sistemas diferentes, disímiles características e incluso estar ubicadas físicamente en diferentes partes del mundo.
Bajo la sombrilla tecnológica de la computación distribuida funcionan hoy múltiples proyectos, como el SETI@Home (acrónimo del inglés Search for ExtraTerrestrial Intelligence o Búsqueda de Inteligencia Extraterrestre en español).
Este enlaza a máquinas de todo el mundo para aprovechar sus capacidades subutilizadas en el procesamiento de millones de datos, resultantes de las exploraciones espaciales radioelectrónicas en busca de vida más allá de nuestro planeta.
De esta forma miles de personas de las más disímiles culturas colaboran en un proyecto de interés mundial y sin necesidad de crear supercostosos ordenadores, prestando de forma desinteresada sus procesadores modernos y potentes, con buena cantidad de memoria y que pasan mucho tiempo encendidos sin hacer nada, a la realización de un estudio científico de inmensas proporciones.
Ambas opciones, sean los superordenadores o la computación distribuida, son igualmente válidos de acuerdo con el fin que se propongan, aunque la segunda variante es más económica y solidaria, e incluso sugerente para proyectos de bajo presupuesto.
Sobre eso en Cuba existen experiencias válidas en el uso de la computación distribuida, fundamentalmente en el sector biotecnológico, donde muchos descubrimientos se han podido lograr gracias a la utilización de capacidades en computadoras que estaban subutilizadas.