Inteligencia Artificial

AMD proyecta un mercado de aceleradores de IA de más de 500 mil millones para 2028 y refuerza su ecosistema abierto

Durante el evento Advancing AI, Lisa Su, CEO de AMD, destacó el crecimiento exponencial del mercado de inteligencia artificial, especialmente en la inferencia, y presentó los avances en hardware, software y alianzas estratégicas que posicionan a la compañía como líder en la próxima fase de la computación de IA.

Durante el evento Advancing AI, AMD dejó en claro que su ambición por liderar la nueva era de la inteligencia artificial va más allá del hardware. En una presentación contundente, la CEO de la compañía, Lisa Su, proyectó que el mercado total direccionable (TAM) para aceleradores de IA en centros de datos pasará de 45 mil millones de dólares en 2023 a más de 500 mil millones en 2028, impulsado por una tasa de crecimiento anual compuesta (CAGR) superior al 60%.

Aún más significativo es el crecimiento proyectado en el segmento de inferencia en IA, que superará el 80% de CAGR, convirtiéndose en el área con mayor expansión dentro de la IA.
“En 2025 hemos visto la aparición de agentes y estamos entrando en el próximo capítulo de la IA. Lo que realmente ha aumentado es la demanda de inferencia debido a los nuevos casos de uso. También hemos visto una explosión de nuevos modelos”, expresó Su durante su keynote.

Agentes de IA y la necesidad de GPUs potentes

En su discurso, Lisa Su subrayó el auge de una nueva generación de inteligencia artificial conocida como Agentic AI o el uso de agentes de IA, que hace referencia a inteligencia artificial capaz de actuar de forma autónoma para completar tareas.

Estos agentes de IA representan un nuevo tipo de uso que accede constantemente a datos, consulta aplicaciones, analiza, trabaja de forma autónoma y toma decisiones. «Necesita GPUs potentes para obtener datos e insights en tiempo real, y eso requiere muchas CPUs y GPUs trabajando juntas en un ecosistema abierto”, explicó la directiva.

Lisa Su, CEO de AMD.
Lisa Su, CEO de AMD.

Esta visión resalta la importancia de contar con un ecosistema colaborativo y abierto, tanto en hardware como en software, para sostener modelos que demandan procesamiento constante, toma de decisiones autónoma y baja latencia.

Hardware de próxima generación: MI350 y Helios

AMD presentó una batería de soluciones para escalar IA de forma eficiente. Destacan los aceleradores AMD Instinct MI350, que ofrecen un salto de rendimiento de 4x respecto a la generación anterior y una mejora de 35x en inferencia. En términos de eficiencia, el MI355X genera hasta un 40% más de tokens por dólar frente a soluciones de la competencia.

Además, AMD mostró su arquitectura de infraestructura escalable basada en estándares abiertos, compuesta por GPUs MI350, procesadores AMD EPYC de 5ª generación y tarjetas de red Pensando Pollara NICs, ya desplegadas en Oracle Cloud Infrastructure, con disponibilidad global estimada para la segunda mitad de 2025.

Mirando al futuro, se presentó Helios, el rack de próxima generación que utilizará las nuevas GPUs Instinct MI400, CPUs Zen 6 EPYC “Venice” y NICs Pensando Vulcano. Estas plataformas prometen hasta 10 veces más rendimiento en tareas de inferencia para modelos tipo Mixture of Experts.

“AMD está impulsando la innovación en IA a un ritmo sin precedentes, como lo demuestra el lanzamiento de nuestros aceleradores AMD Instinct MI350, los avances en nuestras soluciones escalables de rack de próxima generación ‘Helios’, y el creciente impulso de nuestro stack de software abierto ROCm”, dijo Lisa Su.

“Estamos entrando en la siguiente fase de la IA, impulsada por estándares abiertos, innovación compartida y el liderazgo creciente de AMD en un amplio ecosistema de socios de hardware y software que colaboran para definir el futuro de la IA”.

Software abierto y experiencia del desarrollador en el centro

La CEO enfatizó que la clave para escalar la IA está tanto en el hardware como en el software.

“Apoyamos un ecosistema abierto, y también fomentamos las asociaciones. El desarrollo abierto genera valor e innovación. La apertura es fundamental para acelerar, escalar e impactar la IA en los próximos años”.

Bajo esta premisa, AMD presentó ROCm 7, su stack de software open source que ofrece mejoras en frameworks estándar, compatibilidad con nuevo hardware, y herramientas para acelerar el desarrollo y la implementación de soluciones de IA.

“Tan poderoso como es el hardware, el software también es crucial. Nos enfocamos en ampliar la base, estableciendo como guía una mentalidad centrada en el desarrollador. Todo gira en torno a la experiencia del desarrollador. Ese es nuestro principio rector”, remarcó Su.

Vamsi Boppana, vicepresidente senior de Inteligencia Artificial en AMD.
Vamsi Boppana, vicepresidente senior de Inteligencia Artificial en AMD.

Eficiencia energética y accesibilidad global

AMD también destacó que los MI350 superaron su meta de eficiencia energética de 30x, alcanzando una mejora de 38x. Además, fijaron un nuevo objetivo para 2030: 20x más eficiencia energética a escala de rack, lo que permitiría entrenar modelos que hoy requieren más de 275 racks en solo uno, usando un 95% menos de electricidad.

Por otro lado, anunció la disponibilidad global del AMD Developer Cloud, una nube pensada para desarrolladores y la comunidad open source, con entornos gestionados para iniciar y escalar proyectos de IA de forma rápida y sin barreras. AMD también destacó su colaboración con referentes como Hugging Face, OpenAI y Grok, para cocrear soluciones abiertas y de alto impacto.

Leer mas

Autor

  • Desirée Jaimovich

    Es directora periodística de ITSitio, y tiene una columna de tecnología en el programa La Inmensa Minoría, por Radio Con Vos y colabora con La Nación. Anteriormente trabajó para Infobae, Clarín y CNN Radio. Es traductora pública de inglés y periodista especializada en tecnología e innovación. Obtuvo el Premio ESET al Periodismo en Seguridad Informática y el Premio UBA al Periodismo educativo y cultural. Fue becaria del programa International Visitor Leadership de la Embajada de EE.UU.

    Ver todas las entradas

[mdx-adserve-bstreet region="MED"]

Desirée Jaimovich

Es directora periodística de ITSitio, y tiene una columna de tecnología en el programa La Inmensa Minoría, por Radio Con Vos y colabora con La Nación. Anteriormente trabajó para Infobae, Clarín y CNN Radio. Es traductora pública de inglés y periodista especializada en tecnología e innovación. Obtuvo el Premio ESET al Periodismo en Seguridad Informática y el Premio UBA al Periodismo educativo y cultural. Fue becaria del programa International Visitor Leadership de la Embajada de EE.UU.

Publicaciones relacionadas

Botón volver arriba