en Computadores

Supercomputadoras de ayer y de hoy

cray 1El hecho de que haya aparecido la nueva lista de las 500 computadoras más potentes del mundo, y de que quevedin haya empezado a usar su flamante cuenta en el Marenostrum instalado en el BSC, entre otras cosas, me ha hecho volver a reflexionar sobre el HPC (High Performance Computing o Computación de Altas Prestaciones).

Las supercomputadoras son el buque insignia de la computación científica, y aún así siempre se quedan cortas, siempre faltan recursos. Si hubiera una computadora con potencia de cálculo y capacidad de almacenamiento infinitas, la saturaríamos infinitas veces. Siempre se quiere más, siempre hay un parámetro nuevo que testear, simpre hay una ecuación en derivadas parciales más que resolver.

Ser un estudiante de doctorado de física de altas energías en un pasado no muy remoto, hubiera implicado el tener que trabajar en una de estas mainframes , pero en el presente, con la aparición del sistema operativo de código abierto GNU/Linux y con el incomparable ratio poder de computación/precio que ofrecen los sistemas x86 modernos en configuraciones cluster beowulf, estas máquinas están tendiendo a desaparecer de los centros de cálculo

Si nos fijamos atentamente en los primeros puestos de la lista top500 veremos que en las 10 primeras máquinas de la lista, sólo los puestos 1, 3 y 8 están ocupados por mainframes . El resto son clusters construídos con commodity hardware. Y por supuesto, el sistema operativo estrella es, cómo no, GNU/Linux. No es del todo extraño, hipocresías a parte con respecto a precio de licencias (la mayor parte de estas máquinas corren versiones de RHEL o SLES cuyas licencias no son precisamente baratas. No vereís muchas máquinas del top500 ejecutando Debian) que Micro$oft haya perdido la carrera en este tipo de computación. La mayor parte del software científico existente estaba creado para máquinas UNIX, con lo que portarlo a GNU/Linux ha sido una tarea más o menos sencilla.

Evidentemente, no todo es la panacea, y hay ciertas aplicaciones específicas que siguen requiriendo máquinas de procesamiento vectorial , con una arquitectura de hardware muy particular como es el caso de la máquina que encabeza la lista.

El verdadero artífice de esta revolución ha sido un personaje llamado Donald Becker, responsable del desarrollo de una gran parte de los controladores de las tarjetas ethernet para Linux así como de mejoras en general del subsitema de red del susodicho kernel. Con ello, ha conseguido que en la actualidad, en casi cada laboratorio del mundo en que se necesiten llevar a cabo simulaciones, exista al menos un cluster ofreciendo una capacidad de cálculo que antes sólo era posible alcanzar poniendo de acuerdo a varios departamentos de una misma universidad.

Otros de los grandes problemas de estas supercomputadoras son la disipación de calor, el consumo de energía y el acondicionamiento de una sala donde situarlas. Tradicionalmente, las mainframes , venían con su propio sistema de refrigeración integrado, como si se tratara de una nevera. Hoy en día, puesto que la supercomputadora está formada básicamente por PCs que se refrigeran expulsando el aire caliente a la habitación en la que se encuentran, se necesitan unos sistemas de refrigeración industriales.

Sirva de ejemplo el Computer Center del CERN. Cuando arranque el acelerador LHC, las granjas de computadoras consumirán un total de 2,5 MW de energía, y la mayor parte de esa energía, se transformará en calor que deberá ser extraído de las salas, para lo que se necesitará enfriar ¡más de 500.000 m3/h de aire!. La imagen que sigue, da una idea del montaje necesario para llevar a cabo esta tarea.

 
Además, las salas en las que se alojan estos monstruos de la computación, deben de estar lo más limpias posibles, puesto que como muy bien sabéis, a los PCs les encanta "tragar" polvo, lo que hace que disminuya su tiempo de vida.
 
Está claro que los clusters han revolucionado el mundo de la computación científica. De todos modos, se echa en falta ver alguna computadora "diferente" en un mundo dominado por los procesadores Intel/AMD, donde parece que cualquier máquina que no sea compatible x86 está condenada al ostracismo.
Algún día podré contar que este artículo fue escrito en un PowerBook que NO llevaba un procesador intel, cuando nadie recuerde esa época extraña en existían otras máquinas con una CPU diferente
 

Escribe un comentario

Comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

  1. Parece claro que el camino hacia la supercomputación es la utilización de internet como gran máquina distribuida interconectada. El reto a seguir sería pues mejorar los protocolos de red para acelerar los procesos.

    Programas P2P que permitan el uso de el PC que lo alberga como elemento distribuido son conceptos que cobran relevancia en este mundillo.

  2. Muy buen artículo.

    Y yo que quería convencerte de que montaras un cluster basado en Xbox (PIII-733, 64Mb RAM).

    Por cierto, el enlace que has puesto de Intel apunta a la web de AMD (¿coincidencia o preferencia del autor?)