Con la idea de ir potenciando el trabajo en Inteligencia Artificial, el Centro Nacional de Inteligencia Artificial (CENIA) de Chile ha forjado una alianza estratégica con el gigante de los semiconductores, Advanced Micro Devices (AMD), con el objetivo de elevar el ecosistema de Inteligencia Artificial (IA) del país a un nuevo nivel de capacidad computacional, integrando a los supercomputadores o HPC.
Este acuerdo no es solo una colaboración institucional ya que representa una inyección directa de poder de cómputo de alto rendimiento (HPC) y tecnología de vanguardia, crucial para el desarrollo de modelos de IA sofisticados y la investigación de frontera, algo que ha estado cosechando CENIA en este periodo.
El Hardware y el apoyo de AMD: La columna vertebral de la computación acelerada
La base de esta colaboración radica en la provisión e implementación de la arquitectura de hardware de AMD en las instalaciones de CENIA. Específicamente vemos la integración de Unidades de Procesamiento Gráfico (GPUs) AMD Instinct, diseñadas para cargas de trabajo de centros de datos y HPC integradas en las máquinas avanzadas.
Tal es el caso de la supercomputadora Leftraru 2, ubicada en el Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC) del Centro de Modelamiento Matemático (CMM) de la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile, que desde 2024 se ha posicionado como un pilar para el avance de la investigación y la innovación en el país.
Leftraru 2 combina potencia y versatilidad gracias a una base tecnológica creada para resolver tareas complejas con la mayor eficiencia posible. El sistema está compuesto por 27 servidores Lenovo ThinkSystem SR645 V3, cada uno con procesadores AMD EPYC 9754 de 128 núcleos y 768 GB de memoria RAM, lo que permite ejecutar miles de cálculos en paralelo y procesar simultáneamente grandes volúmenes de información científica, modelos climáticos, simulaciones de ingeniería o análisis de datos genómicos.

Es así que estos servidores suman 6.912 núcleos dedicados exclusivamente al procesamiento intensivo y al acceso rápido a la información.
Y es que a diferencia de las GPUs para juegos, estas unidades están optimizadas para la computación paralela masiva, un requisito fundamental en el entrenamiento de Redes Neuronales Profundas (DNNs).
Vemos que estas GPU cuentan con memoria de alto ancho de banda (HBM) y una arquitectura diseñada para acelerar operaciones clave de IA, como la multiplicación de matrices de punto flotante y entero de baja precisión, que son esenciales para el entrenamiento y la inferencia de modelos de aprendizaje automático.
El Software: Abriendo la caja de herramientas del código abierto
El hardware de alto rendimiento requiere un stack de software robusto y optimizado, en esta materia es donde entra en juego el ecosistema de código abierto de AMD, ROCm (Radeon Open Compute Platform).
ROCm proporciona una interfaz de programación que permite a los desarrolladores utilizar lenguajes estándar de la industria como HIP (Heterogeneous-Compute Interface for Portability), que facilita la migración de código escrito originalmente para otras arquitecturas de GPU.
Es así que la compatibilidad de ROCm con frameworks de IA dominantes como PyTorch y TensorFlow es vital, asegurando que los científicos de datos en CENIA puedan seguir utilizando sus herramientas de machine learning sin una curva de aprendizaje prohibitiva del software base.

“Nuestra misión es que el poder de cómputo que impulsa a los supercomputadores más avanzados del mundo también esté disponible en la región. Con los procesadores para servidores EPYC, y los aceleradores AMD Instinct, estamos poniendo en manos de investigadores, empresas y gobiernos la tecnología necesaria para resolver los desafíos más complejos de nuestro tiempo”, destacó Juan Moscoso, Gerente del segmento Commercial para la región SOLA de AMD.
Y es que la optimización a nivel de kernel que ofrece ROCm es crucial, ya que permite que las operaciones matemáticas subyacentes de los algoritmos de IA, como las convoluciones y las capas transformer, se ejecuten con máxima eficiencia en el hardware AMD, reduciendo el tiempo de computación y, por ende, el costo energético y operativo de la investigación.
Por su parte, Ginés Guerrero, Director Ejecutivo del NLHPC, subrayó que “la incorporación de las soluciones de AMD ha sido decisiva para expandir las capacidades científicas del país. Hoy cientos de investigadores pueden ejecutar modelos, procesar datos y acelerar descubrimientos con un nivel de eficiencia y rendimiento que antes simplemente no existía en Chile”.
Ciertamente al integrar hardware Instinct y el stack de software ROCm, Chile se posiciona para abordar desafíos de IA que hasta ahora solo eran accesibles para los centros de investigación más avanzados del mundo, transformando la teoría algorítmica en soluciones prácticas y eficientes.
Leer más
- IA para la inclusión financiera: el sur global toma la delantera
- Ley Fintech en marcha: cómo cambiará el mercado financiero y qué retos enfrenta el sector
- Pagos digitales en Chile: ¿Estamos listos para la próxima revolución?









