Inteligencia Artificial

NVIDIA revoluciona la creación con IA en tarjetas GeForce RTX: genera imágenes más rápido utilizando menos memoria

El rendimiento en Stable Diffusion se duplica con un 40% menos de VRAM; además, el nuevo kit de desarrollo de software TensorRT para RTX ya está disponible para desarrolladores

La IA generativa ha revolucionado la manera en que las personas crean, imaginan e interactúan con el contenido digital. A medida que los modelos de IA continúan aumentando en capacidad y complejidad, también crecen sus exigencias de VRAM (memoria de acceso aleatorio para vídeo). Por ejemplo, el modelo base Stable Diffusion 3.5 Large requiere más de 18 GB de VRAM, lo que limita los sistemas capaces de ejecutarlo correctamente.

Mediante la técnica de cuantificación, es posible reducir la precisión en capas no críticas del modelo, disminuyendo así los requisitos de memoria. Las GPUs de la serie NVIDIA GeForce RTX 40 y la generación NVIDIA RTX PRO Ada Lovelace ofrecen soporte para cuantificación FP8, mientras que la última generación de GPUs NVIDIA Blackwell añade compatibilidad con FP4.

NVIDIA, en colaboración con Stability AI, cuantificó el modelo Stable Diffusion 3.5 Large a FP8, logrando reducir su consumo de VRAM en un 40 %. Gracias a optimizaciones adicionales mediante el SDK NVIDIA TensorRT, los modelos SD3.5 Large y Medium duplican su rendimiento.

Además, TensorRT ha sido rediseñado para los PC con IA RTX, combinando su rendimiento líder con la creación de motores en el dispositivo mediante compilación JIT (Just In Time), y un tamaño de paquete ocho veces menor, facilitando una implementación fluida de IA en más de 100 millones de PCs. TensorRT para RTX ya está disponible como un SDK independiente para desarrolladores.

IA acelerada por RTX

NVIDIA y Stability AI están optimizando el rendimiento y reduciendo los requisitos de VRAM de Stable Diffusion 3.5, uno de los modelos de generación de imágenes por IA más populares del mundo. Gracias a la aceleración y cuantificación con NVIDIA TensorRT, ahora es posible generar y editar imágenes de forma más rápida y eficiente en GPUs NVIDIA RTX.

La versión de Stable Diffusion 3.5 cuantificada en FP8 (derecha) puede generar imágenes en la mitad del tiempo, manteniendo una calidad similar a la versión FP16 (izquierda).

NVIDIA revoluciona la creación con IA en tarjetas GeForce RTX: genera imágenes más rápido utilizando menos memoria
Stable Diffusion 3.5 cuantificado en FP8 (derecha) genera imágenes en la mitad de tiempo con una calidad similar a la de FP16 (izquierda). Indicación: Un sereno lago de montaña al amanecer, aguas cristalinas que reflejan picos nevados, frondosos pinos a lo largo de la orilla, suave niebla matinal, fotorrealista, colores vibrantes, alta resolución.

Ejemplo de indicación: Un sereno lago de montaña al amanecer, aguas cristalinas que reflejan picos nevados, frondosos pinos a lo largo de la orilla, suave niebla matinal, fotorrealista, colores vibrantes, alta resolución.

Para superar las limitaciones de VRAM del modelo SD3.5 Large, se aplicó cuantificación FP8 con TensorRT, reduciendo los requisitos de VRAM en un 40 %, hasta 11 GB. Esto permite que cinco modelos de la serie GeForce RTX 50 puedan ejecutar el modelo desde la memoria, frente a solo uno anteriormente.

Los modelos SD3.5 Large y Medium también se han optimizado con TensorRT, un backend de IA diseñado para maximizar el rendimiento de los Tensor Cores. TensorRT ajusta el peso y los gráficos del modelo (las instrucciones para su ejecución) específicamente para GPUs RTX.

Rendimiento de FP8 TensorRT

La cuantificación con FP8 TensorRT mejora el rendimiento de SD3.5 Large en 2,3 veces en comparación con BF16 PyTorch, mientras reduce el uso de memoria en un 40 %. Para el modelo SD3.5 Medium, BF16 TensorRT logra una mejora de 1,7 veces.

En resumen, FP8 TensorRT ofrece:

  • 2,3× más rendimiento en SD3.5 Large respecto a BF16 PyTorch.

  • 40 % menos uso de memoria.

  • 1,7× más rendimiento en SD3.5 Medium frente a BF16 PyTorch.

Los modelos optimizados ya están disponibles en la página de Hugging Face de Stability AI.

Además, NVIDIA y Stability AI trabajan conjuntamente para lanzar SD3.5 como microservicio NVIDIA NIM, facilitando su acceso e implementación por parte de creadores y desarrolladores. Se prevé su lanzamiento en julio.

Lanzamiento del SDK TensorRT para RTX

Anunciado en Microsoft Build y disponible en versión preliminar dentro del nuevo marco Windows ML, TensorRT para RTX ya se puede descargar como SDK independiente.

Anteriormente, los desarrolladores debían pre-generar motores TensorRT para cada clase de GPU, un proceso eficaz pero laborioso. Con la nueva versión, ahora pueden crear un motor genérico optimizado para el dispositivo en segundos, gracias al enfoque JIT (Just In Time), que puede ejecutarse durante la instalación o al usar la función por primera vez.

Este SDK, ahora ocho veces más pequeño, se integra fácilmente y puede ser invocado a través de Windows ML, el nuevo backend de inferencia de IA de Microsoft en Windows. Los desarrolladores pueden descargarlo desde la página oficial de NVIDIA o probarlo con la versión preliminar de Windows ML.

NVIDIA en GTC París

En NVIDIA GTC París, celebrado durante VivaTech, el mayor evento de tecnología y startups de Europa, el fundador y CEO de NVIDIA, Jensen Huang, ofreció una conferencia destacando los últimos avances en infraestructura de IA en la nube, IA agencial e IA física. El evento concluyó el jueves 12 de junio, con demostraciones en vivo y sesiones lideradas por expertos del sector.

Cada semana, el blog RTX AI Garage presenta innovaciones y contenidos de IA impulsados por la comunidad, orientados a quienes desean aprender más sobre los microservicios NVIDIA NIM, planos de IA, agentes inteligentes, flujos creativos, humanos digitales, aplicaciones de productividad y más, en PCs y estaciones de trabajo con IA RTX.

Leer más

Oracle abre inscripciones para ONE, su programa gratuito de formación en tecnología e inteligencia artificial

YouTube flexibiliza sus normas y permite videos con desinformación si tienen interés público

Las mejores herramientas de inteligencia artificial para generación de videos en 2025

Autor

  • Maxi Fanelli

    Periodista especializado en tecnologías y responsable de contenidos comerciales en ITSitio y en la Comunidad de Gaming. Editor de Overcluster. Anteriormente, trabajé en medios de IT; y como colaborador en Clarín, TN Tecno, Crónica TV y PC Users. Lic. Comunicación Social y Periodismo en la UNLP.

    Ver todas las entradas

[mdx-adserve-bstreet region="MED"]

Maxi Fanelli

Periodista especializado en tecnologías y responsable de contenidos comerciales en ITSitio y en la Comunidad de Gaming. Editor de Overcluster. Anteriormente, trabajé en medios de IT; y como colaborador en Clarín, TN Tecno, Crónica TV y PC Users. Lic. Comunicación Social y Periodismo en la UNLP.

Publicaciones relacionadas

Botón volver arriba