Componentes

¿Las GPUs reemplazarán a las CPUs?

El CEO de Nvidia, Jen Hsun Huang, dijo en la última edición de la GPU Technology Conference (GTC) que los procesadores gráficos están en vías de reemplazar a los microprocesadores de propósito general, o CPUs. Huang señaló que la capacidad de cómputo de las GPUs de Nvidia ha aumentado tremendamente en los últimos años, lo que las convierte en la solución ideal para un creciente número de aplicaciones que requieren procesamiento paralelo, tales como inteligencia artificial y cómputo de nube.

El directivo reveló que cinco sitios chinos de tráfico masivo -Alibaba, Baidu, Tencent, JD.com y iFLYTEK- adoptaron arquitecturas de GPU Nvidia Volta para utilizarlas como soporte para servicios de nube, mientras que compañías tales como Huawei, Inspur y Lenovo están trabajando conjuntamente con Nvidia en el desarrollo del acelerador de GPU masivo Tesla 100 HGX-1.

El HGX-1 puede superar a los servidores tradicionales basados en CPUs en términos de eficiencia operacional, al correr aplicaciones de reconocimiento de imágenes y voz. Huang señaló que el costo de dichos servidores es de la quinta parte del costo de un servidor tradicional basado en CPUs.

EsquemadelaceleradordeGPUdeh+¡per-escalaHGX-1propuestocomoest+índarparainteligenciaartificialenlanube

LA ARQUITECTURA HGX

Impulsada por GPUs Nvidia Tesla interconectadas mediante NVLink, la arquitectura de referencia HGX estandariza el diseño de centros de datos con la finalidad de acelerar el uso de inteligencia artificial en la nube, para brindar servicios tales como conducción autónoma de vehículos, atención médica personalizada y reconocimiento de voz.

La arquitectura HGX presenta un diseño modular que se integra naturalmente a los centros de datos existentes en todo el mundo, ofreciendo a las instalaciones de híper-escala un camino simple hacia la inteligencia artificial. Se basa en el poder de seis GPUs Tesla interconectadas con el cubo híbrido NVLink para ofrecer una performance extrema y una amplia capacidad de configuración. HGX está diseñada para los procesadores gráficos Nvidia Tesla P100 y V100.

Dise+¦odereferenciadelservidoropen-sourceProjectOlympuspropuestoporMicrosoft

 

El Proyecto Olympus, de Microsoft, es uno de los casos de éxito con que Nvidia demuestra la capacidad de HGX. Olympus es un nuevo modelo para desarrollo de hardware open source destinado a centros de datos de nube. “Project Olympus atrajo lo último en innovación en silicio para atender al crecimiento explosivo de servicios de nube y para brindar el poder de cómputo necesario para las cargas de trabajo emergentes, tales como análisis de big data, aprendizaje de máquina e inteligencia artificial”, explicó Kushagra Vaid, gerente general de infraestructura de hardware Azure en Microsoft. “Este es el primer server OCP (Open Compute Project) diseñado para ofrecer una amplia gama de opciones de microprocesadores totalmente compatibles con la especificación Universal Motherboard, capaz de adaptarse a virtualmente cualquier clase de carga de trabajo de cómputo de nube”.

Otro caso de éxito de HGX lo representa Big Basin, el servidor de GPU de Facebook. “Con Big Basin podemos entrenar modelos de aprendizaje de máquina un 30 por ciento más grandes que con su predecesor, Big Sur”, explica Kevin Lee, gerente de Facebook a cargo de la supervisión de los centros de datos. “Construido en colaboración con nuestro socio QCT (Quanta Cloud Technology), el sistema Big Basin presenta ocho aceleradores Nvidia Tesla P100. Estas GPUs están conectadas por medio de Nvidia NVLink para formar un entramado híbrido de ocho GPUs. Esta instalación, combinada con el SDK de Deep Learning de Nvidia, utiliza a esta nueva arquitectura y se interconecta para mejorar el entrenamiento en aprendizaje profundo a lo largo de todas las GPUs”.

Según señala Lee, en comparación con Big Sur, Big Basin le aportará a la empresa un gran beneficio en términos de performance por watt, con un incremento en rendimiento por GPU de 7 teraflops a 10,6 teraflops. Con Big Basin, Facebook planea impulsar servicios basados en inteligencia artificial, tales como traducciones de texto y voz, clasificación de fotos y clasificación de video en tiempo real. “Estamos comprometidos con los avances en el campo de IA y sus disciplinas, y creemos que una integración más estrecha entre el software y el hardware ayudará a superar los desafíos”, completa Lee. “Para acelerar nuestro progreso a medida que entrenamos redes neuronales más grandes y profundas, es que hemos creado a Big Basin, nuestro servidor de GPU de próxima generación, cuyo diseño es open-source a través del Open Compute Project”.

EL FIN DE LA LEY DE MOORE

Uno de los mensajes que Jen Hsun Huang emitió en la última edición de la GTC fue que la Ley de Moore -la cual establece que la densidad de transistores en los microprocesadores mantiene un crecimiento exponencial, duplicándose cada dos años- ha dejado de ser relevante, debido a que las GPUs están avanzando a un ritmo mucho más veloz que las CPUs.

Usualmente, cuando se habla del fin de la Ley de Moore, se mencionan los obstáculos técnicos que impiden el aumento en la densidad de transistores de los chips. Huang concuerda con ello, pero agrega la variable performance, diciendo que mientras que los transistores han crecido a un ritmo del 50 por ciento anualmente, los aumentos de performance en las CPUs sólo han aumentado 10 por ciento.

La otra razón por la que Huang declara el fin de la Ley de Moore es que no puede seguir el paso de los avances en diseño de GPUs. El CEO de Nvidia mencionó el crecimiento en capacidad de cómputo de las GPUs a través de los años, destacando cómo éstas están mejor posicionadas para los avances en inteligencia artificial, además de que los diseñadores difícilmente pueden implementar arquitecturas avanzadas de ejecución de instrucciones en paralelo sobre las CPUs.

Intel lógicamente discrepa con las aseveraciones del CEO de Nvidia. Hace cosa de un año, el CEO de Intel, Brian Krzanich, desestimó los reportes que auguran el fin de la Ley de Moore. “En mis 34 años en la industria de semiconductores, he escuchado advertencias sobre la muerte de la Ley de Moore no menos de cuatro veces”, declaró Krzanich. “A medida que avanzamos desde la tecnología de 14 nanómetros a 10 nanómetros, y planeamos para 7, 5, o menos nanómetros, nuestros planes demuestran que la Ley de Moore sigue estando vigente. El liderazgo de Intel respaldado por la Ley de Moore sigue intacto, y verán una inversión continua en capacidad y R&D para asegurarlo”.

Recientemente, Intel mencionó la Ley de Moore al demostrar por primera vez una oblea de chips Cannon Lake de 10 nanómetros en el evento Technology and Manufacturing Day en Pekín. “Los procesos de fabricación de Intel avanzan de acuerdo a la Ley de Moore, brindando cada vez más funcionalidad y performance, eficiencia energética y menores costos por transistor en cada generación”, indicó Stacy Smith, presidente del grupo Manufacturing, Operation and Sales de Intel. “Estamos complacidos de compartir en China por primera vez estos hitos importantes en nuestra hoja de ruta que demuestran los beneficios de seguir transitando la curva de la Ley de Moore”.

La novela de la tarde que tiene a Intel y a Nvidia como eternos rivales sigue en pleno apogeo. En esta oportunidad, el CEO de Nvidia no está necesariamente diciendo que las GPUs impulsarán a las PCs de escritorio, quitando a las CPUs del campo de juego, pero sí afirma que las GPUs jugarán un rol principal en supercomputadoras y en aplicaciones especializadas, tales como inteligencia artificial, aprendizaje de máquina y computación de nube.

Autor

  • Gustavo Dumortier

    Analista en Computación y periodista especializado en informática. Trabajó en diversas publicaciones de tecnología y negocios y es autor de libros sobre algoritmos y programación. Actualmente es socio de la consultora argentina MasterSoft, en la que se desempeña como analista funcional.

[mdx-adserve-bstreet region="MED"]

Gustavo Dumortier

Analista en Computación y periodista especializado en informática. Trabajó en diversas publicaciones de tecnología y negocios y es autor de libros sobre algoritmos y programación. Actualmente es socio de la consultora argentina MasterSoft, en la que se desempeña como analista funcional.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba