Crea la UAM herramienta para la aplicación masiva del algoritmo Monte Carlo

Cultura

Un grupo de investigación de la Universidad Autónoma Metropolitana (UAM), encabezado por el doctor Eduardo Basurto Uribe, adscrito al Departamento de Ciencias Básicas de la Unidad Azcapotzalco, desarrolló una herramienta que permite la implementación masiva del algoritmo Monte Carlo, de intercambio de réplica en unidades de procesamiento de gráficos.

Aun cuando se trata de ciencia básica abre posibilidades futuras de aplicación a nanoescala en temas de biología, por ejemplo, para ver cómo se empaquetan o fluyen componentes de la sangre –glóbulos rojos y blancos, entre otros– o cómo se constituye un coágulo; en la industria serviría al empaquetamiento de fibra óptica en un solo cable, lo que parecería sencillo, pero no, si se piensa en los miles de kilómetros en que se emplea, especificó el docente.

El trabajo Algoritmo Monte Carlo de intercambio masivo de réplicas: una herramienta para acceder a la termodinámica de alta presión en sistemas duros –que mereció el Premio a la Investigación 2019 que otorga la UAM– se inscribe en el ámbito de la física estadística y la termodinámica, y representa un primer eslabón para su uso en el futuro en los campos de la biología y la industria, entre otros.

Este proyecto tuvo entre sus objetivos responder al reto de encontrar la mejor opción de empaquetamiento de discos o cuerpos bidimensionales en una cavidad circular, un tipo de problemas matemáticos que han existido desde los tiempos de Johannes Kepler –hacia el año 1611– cuando el autor de leyes sobre el movimiento de los planetas hizo una conjetura acerca del empaquetamiento de esferas que por su relevancia ha sido materia de numerosos estudios teóricos.

El científico alemán “observaba cómo la gente acomodaba las manzanas o las naranjas en forma de pirámide y decía que justamente ese era el medio óptimo en el caso de las esferas”, una hipótesis que hasta ahora no ha sido demostrada desde las matemáticas ni se ha descubierto cómo lograrlo, agregó el integrante del Área de investigación Física de Procesos Irreversibles.

Incluso para esferas duras tridimensionales, Kepler declaró su famosa idea de que la máxima fracción de embalaje alcanzable es cercana a 74 por ciento, correspondiente al empaquetamiento hexagonal compacto, pero dos siglos después Carl Gauss la demostró respecto de esferas que configuran un arreglo regular y, a finales del siglo pasado, Stephen Hales la confirmó recurriendo a un código muy grande con una cantidad también relevante de potencia informática, señala un estudio del doctor Basurto Uribe.

El grupo de científicos de la Casa abierta al tiempo abordó esto de un modo más sencillo, al probarlo “en dos dimensiones, es decir, con discos como si fueran monedas los cuales empaquetamos dentro de un círculo lo más compacto posible”, por lo que la investigación consiste en identificar cómo acomodarlos. Esto sucede con facilidad con tres, cinco o siete discos, y cuando se colocan más de 20 empiezan a acomodarse en forma diferente.

De repente, alguien anuncia que ya encontró otra vía de lograrlo y más tarde notifica lo mismo, aunque hasta ahora no hay prueba de cuál es el mecanismo óptimo, debido a que constituye un desafío matemático muy complicado y han surgido demostraciones en algunos números menores a 20, por lo que “nosotros proponemos una alternativa para obtener estructuras candidatas a alcanzar la máxima fracción de empaque”, un reto en el que confluyen la física estadística y la termodinámica.

El doctor Gerardo Odriozola Prego, miembro del grupo, ha laborado en la física estadística con equipos de supercómputo y en termodinámica con cómputo de alto desempeño, ambos parecidos, si bien en el segundo caso mediante tarjetas gráficas, componentes habituales de juegos y gráficas de televisiones de alta resolución que ahora “aprovechamos para hacer cálculos numéricos”, lo que significó tener el problema y dos herramientas, con lo cual “empezamos a construir una simbiosis del proyecto”.

Casi tres años desarrollando un software y haciendo cálculos con estas unidades de cómputo gráfico “nos permitieron conseguir con una sola computadora gráfica hasta dos mil 500 procesadores, lo que resulta relevante si se considera que un ordenador normal tiene sólo cinco u ocho cores y nuestra pretensión es que cada core o cada procesador realice un cálculo en particular”.

Con este instrumento y ya involucrados en materia de termodinámica de las partículas duras es que se tiene una cavidad circular con discos que empieza a vibrar y por su temperatura se agranda, encoge y los discos se mueven aleatoriamente, lo que hace que puedan impactarse, además de que si de repente se trabaran “haríamos que se reacomodaran”, lo que ejecuta un procesador, puntualizó.

Una vez que “tenemos alrededor de dos mil procesadores y contamos con muchas cajas similares a diferentes temperaturas, el mecanismo busca que cuando alguna caja se trabe y ya no se pueda compactar más, la caja de al lado –la vecina– se compacte más y se intercambien los sistemas”, así que cada caja es una réplica: la Réplica de Monte Carlo y hay muchas de éstas, desde baja hasta alta presión, que van cambiando poco a poco.

Odriozola Prego trabajaba con 64 cajas y ahora “lo hacemos con dos mil 500, con lo que podríamos tener más muestras y alguna de todas esas será la óptima, la que se compacte lo más posible”, lo cual abre “la oportunidad de hacer dos mil 500 cálculos al mismo tiempo y nos reta a pensar cómo organizar todas las estimaciones para llevar a cabo procesos eficientes”.

El algoritmo Monte Carlo de Intercambio de Réplicas es muy conocido en el medio, pero lo que “logramos con la opción que brindan las tarjetas gráficas es hacerlo masivo y es ahí donde está nuestro algoritmo propiamente dicho”, expuso el doctor Basurto Uribe.