Cómputo de alto desempeño: el nuevo paradigma de la ciencia

Empezó taller en el CICESE, coorganizado con la Red Mexicana de Supercómputo
martes, 27 de septiembre de 2016 · 16:30

Ensenada, B. C. - El cómputo de alto desempeño (HPC, por sus siglas en inglés) apoya, con descubrimientos fundamentales, el avance de la ciencia y la comprensión del universo, representando así el nuevo gran paradigma de la ciencia; pero es también un gran negocio, pues por cada dólar que se invierte en su desarrollo regresan 515. Sin embargo, tiene cuellos de botella y barreras, como un tremendo consumo de energía y la necesidad de democratizar su acceso, de manera que pueda utilizarse desde cosas básicas hasta gran escala, dependiendo de las necesidades de los usuarios.

Lo anterior quedó de manifiesto en la apertura del taller "HPC+BigData Technologies Workshop” que hoy empezó en el CICESE, y que fue definido como una herramienta en temas de impacto académico, pero también social y regional, y con el que se busca capacitar y orientar a los usuarios del polo científico del noroeste (integrado en Ensenada por la UNAM, UABC y el CICESE) para que desarrollen mejores soluciones a sus problemas utilizando recursos de supercómputo.

Además, considerando "el rezago gigantesco en materia de telecomunicaciones y computación” que tiene México, la diputada Eloísa Talavera Hernández, integrante de la Comisión de Ciencia y Tecnología de la LXIII legislatura anunció la próxima realización de una consulta pública a través de un foro nacional denominado "Hacia una era del supercómputo: áreas de oportunidad y negocio”.

Lo que se busca, dijo, es un espacio para analizar todos los pros y contras para desarrollar esta disciplina; crear las bases para que coordinadamente pueda construirse una estrategia sólida respecto a HPC y sus tecnologías, "que promueva el desarrollo del supercómputo en todas sus vertientes, para lograr ser competitivos en todas las áreas que la nación nos demanda”.

En última instancia, aseguró la legisladora federal, "nuestro interés es poder contribuir a la creación de una estrategia que sea capaz de aglutinar esfuerzos empresariales y académicos, que contribuirán de manera sustantiva a incrementar el producto interno bruto del país y que apoyen al desarrollo científico”.

En la ceremonia inaugural del taller, el director general del CICESE, Dr. Guido Marinone Moschetto, dijo que estamos en una época de grandes cambios y nuevos desafíos. "Y vemos que el supercómputo propicia muy fuertemente estos cambios y posibilita la generación de conocimiento en prácticamente todas las áreas”.

En el CICESE (y esto aplica a la mayoría de las instituciones, universidades y centros de investigación nacionales, señaló), somos usuarios y consumidores de grandes recursos de cómputo. Las disciplinas académicas que cultiva el centro, junto con los megaproyectos que lideramos (en geotermia y temas oceanográficos), demandan naturalmente estos recursos, y dada la magnitud de información que hemos acumulado en más de 40 años, nos mete en problemas por el gran volumen de datos y el uso de supercómputo.

"Espero que en estos cuatro días (que dura el taller) nos darán nuevas formas de uso de las tecnologías de supercómputo para convertirlas en ese motor de desarrollo que necesitamos”, indicó.

El taller "HPC+BigData Technologies Workshop” es organizado de manera conjunta por el CICESE y la Red Mexicana de Supercómputo (RedMexSu), y tiene como objetivo dar a conocer a los asistentes las últimas innovaciones tecnológicas que han surgido en ciertas áreas del supercómputo y el manejo de grandes volúmenes de datos.

El Dr. Raúl Rivera Rodríguez, director de Telemática del CICESE y miembro del Comité Técnico Académico de esta red temática del CONACYT, agradeció a los patrocinadores del evento (Intel, Supermicro, LUFAC, Mellanox, y APC Schneider Electric) su participación, pues gracias a ella pudo ofrecerse de manera gratuita, logrando así una asistencia de más de 120 estudiantes y académicos.

En el CICESE, agregó, hemos buscado fortalecer la infraestructura de los centros CONACYT y apoyar la investigación de nuestros miembros académicos en este polo científico del noroeste, integrado por la UNAM, la UABC y el CICESE. Hemos querido impulsar redes de alta velocidad y supercómputo en conjunto con la RedMexSu, y estamos organizando este taller para dejar un valor agregado a los miembros de esta comunidad, porque queremos que estos talleres sirvan como herramienta en temas de impacto académico, pero también en temas sociales y regionales, como puede ser el cambio climático.

"Creemos en el fortalecimiento de nuestros estudiantes y de nuestros académicos, y buscamos orientarlos para que puedan hacer un mejor uso de nuestros recursos de supercómputo, de manera que desarrollen mejores soluciones a sus problemas.”

Por su parte, Gabriel Olvera, quien es miembro del equipo de desarrollo del Guadalajara Desingn Center de la compañía Intel, en la conferencia de apertura del taller informó que el HPC está presente actualmente en casi todos los sectores, incluyendo secuenciación y genómica (ciencias de la vida); el financiero y cuestiones de riesgo; en energía, sismicidad y reservas; estudios del clima; en visualización científica y acabado (rendering) profesional; simulación; análisis de grandes volúmenes de datos (big data); aprendizaje automático (machine learning), así como en aspectos de seguridad y defensa nacional.

Por sectores, los que más están invirtiendo en HPC es biociencias, que destina anualmente 1,131 millones de dólares; ingeniería asistida por computadora, con 1,170 millones; ingeniería química (159 millones); economía y finanzas (647 millones), entre otros.

Entre las barreras que deben flanquearse destacó los cuellos de botella en procesos de cómputo; el tremendo consumo de energía; el que los campos del HPC están convergiendo y se requiere usar para diversos propósitos, y la democratización del acceso al HPC; es decir, hacerlo accesible desde las cosas básicas que pueden requerir los estudiantes, hasta computación a gran escala.

El programa general de actividades del taller incluye, para los cuatro días de la reunión, un total de ocho conferencias y cuatro talleres, de manera que los asistentes podrán asimilar y compartir experiencias con especialistas en el área de análisis y compilación de modelos numéricos, cómputo de GPU y manejo de datos científicos.

...

Comentarios