La carrera por dominar la infraestructura de inteligencia artificial acaba de sumar un nuevo capítulo. Meta anunció el desarrollo de sus primeros chips de inteligencia artificial diseñados internamente, una estrategia con la que busca reducir su dependencia de fabricantes externos como Nvidia y AMD, al tiempo que fortalece la infraestructura que alimenta sus productos basados en IA.
El anuncio llega después de que la compañía revelara la adquisición de la red social de agentes de inteligencia artificial Moltbook, lo que confirma que la empresa liderada por Mark Zuckerberg está acelerando su estrategia para construir un ecosistema completo alrededor de la inteligencia artificial.
Los nuevos procesadores forman parte del proyecto Meta Training and Inference Accelerator (MTIA), una iniciativa que la empresa desarrolla desde 2023 y que busca optimizar el rendimiento de sus centros de datos, donde se ejecutan los sistemas que impulsan funciones como recomendaciones de contenido, publicidad personalizada y herramientas de IA generativa.
Cuatro chips diseñados para centros de datos de Meta
De acuerdo con Yee Jiun Song, vicepresidente de ingeniería de Meta, el proyecto no se limita a un único procesador. La compañía presentó cuatro chips distintos: MTIA 300, MTIA 400, MTIA 450 y MTIA 500, cada uno enfocado en diferentes tareas relacionadas con inteligencia artificial.
Song explicó que el diseño fue desarrollado completamente por el equipo interno de Meta, mientras que la fabricación estará a cargo de TSMC, el mayor fabricante de semiconductores del mundo, responsable también de producir chips para empresas como Apple, Nvidia, AMD y Qualcomm.
Según detalló la empresa en una publicación oficial, la arquitectura de estos chips fue diseñada específicamente para el tipo de cargas de trabajo que utiliza Meta en sus plataformas. “La arquitectura de este chip se centra fundamentalmente en proporcionar el equilibrio adecuado entre computación, ancho de banda de memoria y capacidad de memoria para servir modelos de clasificación y recomendación”, explicó la compañía.
El MTIA 300, el primero de esta familia, ya comenzó a implementarse en los centros de datos de la compañía hace algunas semanas. Su objetivo es entrenar modelos de inteligencia artificial relativamente pequeños, enfocados en tareas como clasificar contenido y mejorar los algoritmos de recomendación que utilizan plataformas como Facebook y Instagram.
En otras palabras, este tipo de chips no se enfocan en grandes modelos de lenguaje —como los que impulsan chatbots— sino en optimizar funciones cotidianas dentro de las redes sociales, como decidir qué publicaciones aparecen en el feed de los usuarios o qué anuncios se muestran.
Chips enfocados en inferencia y generación de contenido
Los otros tres procesadores de la familia MTIA tienen un enfoque diferente. De acuerdo con Song, los modelos MTIA 400, 450 y 500 están diseñados para tareas de inferencia avanzada, es decir, para ejecutar aplicaciones de IA generativa, como herramientas que permiten crear imágenes, videos o contenido a partir de indicaciones escritas.
Meta confirmó que las pruebas del MTIA 400 ya fueron completadas con éxito y que el chip está “en camino de implementarse en nuestros centros de datos”. Los modelos restantes aún se encuentran en desarrollo y se espera que entren en operación hacia 2027.
La fabricación de estos procesadores se realizará utilizando un proceso de 5 nanómetros, una tecnología de vanguardia que permite crear chips más eficientes y con mayor densidad de transistores, lo que se traduce en mayor rendimiento y menor consumo energético.
Aunque Meta anunció recientemente acuerdos con Nvidia y AMD para abastecer sus centros de datos con chips especializados en IA, la compañía también está buscando diversificar sus opciones tecnológicas.
Según explicó Song, el ritmo al que evolucionan las cargas de trabajo relacionadas con inteligencia artificial hace necesario contar con múltiples alternativas. “Las cargas de trabajo cambian tan rápidamente que queremos asegurarnos de tener opciones”, señaló el ejecutivo al referirse al desarrollo de los chips propios.
El crecimiento de la infraestructura de Meta explica en buena parte esta decisión. La compañía continúa expandiendo su red de centros de datos en Estados Unidos, con nuevas instalaciones planeadas en Luisiana, Ohio e Indiana, las cuales requerirán enormes cantidades de capacidad de procesamiento para ejecutar modelos de inteligencia artificial a gran escala.
ASIC en lugar de GPU: chips especializados
A diferencia de los chips que dominan el mercado actual de inteligencia artificial, los procesadores de Meta no son GPU tradicionales como las que fabrica Nvidia.
En su lugar, la compañía está desarrollando ASIC (Application-Specific Integrated Circuits), es decir, circuitos integrados diseñados para tareas muy específicas.
Este tipo de procesadores suelen ser más pequeños, eficientes y económicos, aunque también más limitados, ya que están optimizados para ejecutar un conjunto concreto de operaciones. En el caso de Meta, estas tareas están relacionadas principalmente con recomendaciones de contenido, publicidad y funciones de IA generativa dentro de sus plataformas.
A pesar de esta iniciativa, Meta no pretende competir directamente con Nvidia en el mercado de chips. La compañía dirigida por Jensen Huang mantiene actualmente más del 90% de participación en el mercado de chips de inteligencia artificial, gracias a una ventaja tecnológica acumulada durante más de 15 años.
Lee más:
- Meta compra Moltbook, la red social donde las inteligencias artificiales hablan entre sí
- Las mujeres en la tecnología: perspectivas que ayudan a construir un ecosistema digital más seguro
- ¿Cuánta agua cuesta una respuesta de ChatGPT?