Alibaba desafía a OpenAI y Google con Qwen 3.5

La compañía china presentó una familia de modelos abiertos de entre 0.8B y 9B parámetros que pueden ejecutarse en portátiles y smartphones, con capacidades de razonamiento y multimodalidad que, según sus benchmarks, compiten con sistemas mucho más grandes de OpenAI y Google. La apuesta marca un giro estratégico hacia la IA eficiente, privada y sin dependencia de la nube.
Los nuevos modelos Qwen 3.5 de Alibaba apuestan por la eficiencia: IA multimodal y de razonamiento capaz de ejecutarse en portátiles y smartphones sin depender de la nube.
Los nuevos modelos Qwen 3.5 de Alibaba apuestan por la eficiencia: IA multimodal y de razonamiento capaz de ejecutarse en portátiles y smartphones sin depender de la nube.
Compartir nota:

Mientras gigantes como OpenAI, Anthropic o Google concentran sus esfuerzos en modelos fundacionales cada vez más grandes y potentes, Alibaba ha decidido tomar otro camino. Y lo ha hecho con una propuesta que puede cambiar el tablero: modelos de inteligencia artificial pequeños, abiertos y optimizados para ejecutarse en dispositivos locales como portátiles y móviles.

La compañía china acaba de presentar su nueva familia Qwen 3.5 Small Models, una serie de modelos de lenguaje de tamaño reducido pero con aspiraciones ambiciosas. En un contexto en el que los modelos más avanzados superan ampliamente los cientos de miles de millones de parámetros, Alibaba apuesta por algo radicalmente distinto: eficiencia, accesibilidad y ejecución en local.

El encanto de los modelos diminutos

La nueva familia está compuesta por cuatro variantes: Qwen3.5-0.8B (800 millones de parámetros), 2B, 4B y 9B. Para ponerlo en perspectiva, los modelos más recientes de las grandes tecnológicas —como los de OpenAI o Google— rondarían los 500.000 millones de parámetros o incluso más, según estimaciones del sector.

La diferencia de escala es abismal. Sin embargo, en vez de ver esto como una desventaja, Alibaba lo convierte en su principal argumento: estos modelos están diseñados para funcionar en hardware modesto, con bajo consumo energético y sin necesidad de conexión constante a la nube.

Los dos modelos más pequeños, 0.8B y 2B, están orientados al prototipado y a dispositivos con recursos muy limitados. Esto los convierte en candidatos ideales para desarrolladores que quieran integrar IA en soluciones edge, dispositivos IoT o aplicaciones móviles con requisitos estrictos de batería.

Multimodalidad y eficiencia en menos de 3 GB

Uno de los lanzamientos más llamativos es Qwen3.5-4B, un modelo multimodal capaz de trabajar con texto e imágenes. Soporta una ventana de contexto de hasta 262.144 tokens, una cifra sorprendente para un modelo de este tamaño.

En su versión cuantizada a 4 bits, el modelo ocupa menos de 3 GB. Esto significa que puede ejecutarse directamente en un smartphone moderno o en un portátil convencional sin necesidad de GPUs de alta gama. La posibilidad de integrar un modelo multimodal en un entorno local, incluso dentro de un navegador, abre la puerta a nuevos escenarios de uso donde la privacidad y la autonomía son clave.

Pero el verdadero protagonista de la familia es el modelo más grande: Qwen3.5-9B.

Un modelo pequeño que compite con gigantes

El Qwen3.5-9B está enfocado en tareas de razonamiento avanzado. Según los benchmarks publicados por Alibaba, este modelo no solo compite con alternativas mucho más grandes, sino que en algunos casos las supera.

En particular, la compañía asegura que el modelo 9B logra mejores resultados que gpt-oss-120B de OpenAI, un modelo abierto que es aproximadamente 13,5 veces más grande. En pruebas como GPQA (orientadas al razonamiento complejo), el desempeño del modelo de Alibaba resulta especialmente competitivo.

En el test MMMU-Pro de razonamiento visual, Qwen3.5-9B también habría superado a Gemini 2.5 Flash Lite, reforzando la idea de que el tamaño ya no es el único indicador de rendimiento.

Además, todos los modelos de la familia Qwen 3.5 son de pesos abiertos y están disponibles en plataformas como Hugging Face y ModelScope, lo que facilita su adopción por parte de desarrolladores e investigadores.

Una nueva arquitectura para superar el “muro de memoria”

Parte del salto en eficiencia se debe a cambios en la arquitectura. Alibaba ha implementado lo que denomina una Arquitectura Híbrida Eficiente, combinando Gated Delta Networks —un nuevo enfoque en los mecanismos de atención— con el ya conocido Mixture-of-Experts (MoE).

Este diseño busca resolver uno de los grandes desafíos de los modelos pequeños: el llamado “muro de memoria”. En modelos tradicionales, la limitación de memoria suele restringir la capacidad de escalar contexto y rendimiento. Con este enfoque híbrido, Alibaba optimiza el uso de recursos sin disparar el consumo.

El resultado es un equilibrio entre capacidad de razonamiento, eficiencia computacional y bajo requerimiento de hardware.

IA en tu portátil, en tu móvil y sin depender de la nube

El impacto potencial de estos modelos va más allá de los benchmarks. Su verdadera revolución es práctica: permiten ejecutar inteligencia artificial avanzada directamente en el dispositivo del usuario.

Esto implica varias ventajas claras:

  • Uso sin conexión a Internet.
  • Mayor privacidad: las conversaciones no salen del dispositivo.
  • Menor latencia.
  • Reducción de costos asociados al uso de APIs en la nube.

En un momento en que el debate sobre la privacidad y el control de datos es cada vez más relevante, la posibilidad de que “todo quede en casa” puede convertirse en un factor decisivo para empresas y usuarios avanzados.

¿Quién más apuesta por lo pequeño?

Entre las grandes tecnológicas occidentales, solo Google parece seguir una estrategia similar con modelos compactos como Gemma 3 270M. Microsoft cuenta con su serie Phi, incluyendo Phi-4, pero la tendencia dominante sigue siendo el crecimiento en tamaño.

OpenAI mostró cierto interés con sus modelos abiertos de 20B y 120B, pero desde entonces no ha habido grandes novedades en el terreno de los modelos ultracompactos. Mientras tanto, startups como Liquid experimentan con variantes ligeras, aunque ninguna con la agresividad estratégica que ahora exhibe Alibaba.

Con Qwen 3.5, el gigante chino no solo propone una alternativa técnica, sino también filosófica: demostrar que la inteligencia artificial avanzada no necesita necesariamente infraestructuras colosales. Si los resultados se sostienen fuera de los benchmarks internos, podríamos estar ante el inicio de una nueva etapa en la carrera por la IA: la era de los modelos de bolsillo.

Leer más

Compartir nota:

Publicaciones Relacionadas

Scroll to Top