NVIDIA anunció una nueva colaboración con OpenAI para poner a disposición de usuarios y desarrolladores la familia de modelos abiertos gpt-oss, que antes solo podía utilizarse en grandes centros de datos. Gracias a la potencia de las tarjetas gráficas GeForce RTX y RTX PRO, estos modelos de IA pueden ejecutarse con gran velocidad en PCs personales y estaciones de trabajo.
El lanzamiento marca el inicio de una generación de IA local más rápida y eficiente, con dos variantes adaptadas a distintas necesidades:
-
gpt-oss-20b: optimizado para PCs con tecnología NVIDIA RTX y al menos 16 GB de VRAM, capaz de procesar hasta 250 tokens por segundo en una GPU RTX 5090.
-
gpt-oss-120b: pensado para estaciones de trabajo profesionales aceleradas con GPUs RTX PRO, ofreciendo mayor capacidad de cómputo y rendimiento.
Ambos modelos fueron entrenados con GPUs NVIDIA H100 y destacan por ser los primeros en soportar precisión MXFP4 en NVIDIA RTX, una técnica que mejora la calidad y exactitud sin sacrificar rendimiento frente a métodos anteriores.
Características técnicas y ventajas clave
Los modelos gpt-oss admiten hasta 131.072 tokens de contexto, uno de los más largos disponibles para inferencia local, lo que les permite manejar conversaciones e instrucciones más extensas sin pérdida de coherencia.
Están basados en una arquitectura mixture-of-experts (MoE) e incluyen capacidades avanzadas de cadena de razonamiento (chain-of-thought), seguimiento de instrucciones y uso de herramientas.

Para quienes quieran comenzar a utilizarlos, NVIDIA destaca varias opciones:
-
Aplicación Ollama: interfaz sencilla para ejecutar modelos gpt-oss optimizados para GPUs RTX.
-
Llama.cpp: colaboración con la comunidad open source para optimizar el rendimiento en GPUs RTX, incorporando mejoras como CUDA Graphs para reducir la sobrecarga.
-
Microsoft AI Foundry Local: disponible en vista previa pública para desarrolladores en Windows, permite ejecutar modelos con un simple comando en la terminal.
Impulso a la comunidad y la innovación abierta
Desde NVIDIA señalan que OpenAI mostró al mundo lo que se podía construir sobre su tecnología de inteligencia artificial, y que ahora esta colaboración impulsa la innovación en el software de código abierto. Con los modelos gpt-oss, los desarrolladores de todo el mundo pueden construir sobre una base de última generación, reforzando el liderazgo tecnológico de Estados Unidos en IA y aprovechando la infraestructura de cómputo más grande del mundo.
Este avance no solo abre oportunidades para investigadores y profesionales, sino que también democratiza el acceso a herramientas de inteligencia artificial que antes requerían infraestructura costosa en la nube. Ahora, desarrolladores, entusiastas y empresas pueden integrar IA de alto nivel directamente en sus entornos locales, reduciendo latencia y aumentando la privacidad.
La ejecución local de modelos también puede significar un ahorro significativo en costos operativos, ya que elimina la necesidad de depender de servidores remotos para tareas de procesamiento intensivo.
Próximos pasos para los usuarios
Los interesados pueden consultar la guía completa publicada en el blog de RTX AI Garage, donde se detallan los requisitos, pasos de instalación y ejemplos prácticos para aprovechar todo el potencial de los modelos gpt-oss en entornos con GPUs RTX.
Con este movimiento, NVIDIA y OpenAI no solo refuerzan su colaboración, sino que colocan a la IA de última generación al alcance de millones de usuarios en todo el mundo, impulsando la próxima ola de aplicaciones inteligentes en campos tan diversos como desarrollo de software, investigación científica, creación de contenido y automatización empresarial.
LEER MÁS:
Top 10 de las mejores herramientas de Big Data en 2025: análisis avanzado, velocidad y escalabilidad
Google lanza “Guided Learning” en Gemini: IA educativa con aprendizaje guiado y recursos multimedia









