Inteligencia Artificial

El negocio de los chips que aprenden

El CEO de Nvida asegura que el futuro de la inteligencia artificial (IA) está en manos de las GPUs, por su capacidad para manejar el procesamiento masivamente paralelo que requiere la IA con un nivel de consumo energético económicamente viable. Los sistemas de IA basados en GPUs vienen demostrando, desde hace algún tiempo, su idoneidad para ejecutar los algoritmos de “deep learning” (aprendizaje profundo) utilizados para la conducción de vehículos autónomos, para el reconocimiento de rostros, para la traducción simultánea de lenguaje natural y para muchas otras aplicaciones.

Mientras tanto, otras empresas se lanzaron al mercado de chips para IA, con la intención de adueñarse de una parte del negocio que lidera Nvidia y, a la vez, demostrar que las GPUs no son necesariamente la mejor alternativa para hacer el trabajo que requieren las aplicaciones “inteligentes”. En este grupo está Intel, con su proyecto “Loihi”, y varias nuevas compañías con propuestas igualmente novedosas.

EL CHIP LOIHI

Intel plantea un camino para avanzar en el terreno de la inteligencia artificial y sus aplicaciones prácticas que se distancia del mero uso de GPUs masivas. El primer paso en ese camino parece ser el chip apodado Loihi (nombre de un volcán submarino cercano a Hawai), capaz de aprender por sí mismo imitando el funcionamiento de la mente humana. Según Intel, Loihi es un chip extremadamente eficiente en cuanto al uso energético que utiliza información existente para aprender y realizar inferencias. Se vuelve más inteligente con el tiempo y no necesita que se lo entrene. “Realiza una aproximación novedosa al cómputo a través de spiking asincrónico”, indica el comunicado de Intel.

Michael Mayberry, vicepresidente corporativo y director de Intel LabsLoihi aprende a operar en base a diversos modos de retroalimentación que recibe de su entorno. Se basa en el concepto de computación neuromórfica, el cual se deriva del conocimiento que los científicos tienen acerca de cómo funciona el cerebro. “Las redes neuronales del cerebro retransmiten información con pulsos o ‘spikes’, modulan las fortalezas sinápticas o el peso de las interconexiones en base a los tiempos de esos spikes y almacenan los cambios localmente en las interconexiones”, explica Michael Mayberry, vicepresidente corporativo y director de Intel Labs. “Los comportamientos inteligentes emergen desde las interacciones cooperativas y competitivas entre múltiples regiones dentro de las redes neuronales del cerebro y su entorno”.

Dentro de Loihi se encuentran circuitos digitales que imitan la mecánica básica del cerebro. Según Intel, esto hace que el aprendizaje de máquina sea más veloz y eficiente, requiriendo menos poder de cómputo. Al combinar esto con su capacidad para aprender, Intel indica que Loihi allana el camino para que las máquinas sean autónomas y se adapten en tiempo real, en lugar de esperar actualizaciones desde la nube.

La empresa no divulgó los detalles técnicos del diseño de Loihi, pero dijo que el chip se fabricará bajo un proceso de 14 nanómetros. También señaló que presenta un entramado asincrónico y neuromórfico de múltiples núcleos, cada uno de los cuales cuenta con un motor de aprendizaje que puede programarse. El chip cuenta con un total de 130.000 neuronas y 130 millones de sinapsis.

Loihi no es un chip construido para máquinas de gaming, si bien, dependiendo de la dirección en que vaya Intel, podría tener algún impacto en dicho mercado. Dependiendo del juego, AI podría tener un rol importante. Algunos de los conceptos incorporados en Loihi podrían trasladarse a chips destinados al mercado de consumidores.

“A medida que las cargas de trabajo de inteligencia artificial se vuelvan más diversas y complejas, pondrán a prueba los límites de las arquitecturas dominantes de hoy en día y precipitarán nuevas aproximaciones disruptivas”, agrega Mayberry. “De cara al futuro, Intel considera que la computación neuromórfica ofrece una forma de brindar performance de escala hexa en una creación inspirada en la forma en que opera la mente”.

Los planes de Intel prevén compartir los prototipos de Loihi con universidades y centros de de investigación líderes en el campo de la inteligencia artificial durante la primera mitad de 2018, con miras a generar avances en el rubro IA.

OTRAS INICIATIVAS

Intel y Nvidia no son las únicas compañías con ideas novedosas acerca de cómo deben ser los cerebros de los sistemas de inteligencia artificial. También hay compañías recién nacidas, dispuestas a dar batalla a los gigantes incumbentes. Una de ellas es Cerebras Systems. Esta empresa, situada en Los Altos, California, está construyendo un chip del cual poco se sabe hasta el momento, pero que ya le ha permitido amasar una sustancial fortuna en fondos para financiar su fabricación masiva. En tres rondas de financiamiento, Cerebras consiguió reunir U$S 112 millones, a pesar de que aún no ha lanzado un solo producto al mercado.

Cerebras tiene apenas un año de vida, pero llama la atención por la alcurnia de algunos de sus fundadores: Andrew Feldman, por ejemplo, quien anteriormente fundó la empresa fabricante de servidores de bajo consumo SeaMicro y luego formó parte de AMD, o Gary Lauterbach, quien trabajó como diseñador de chips en Sun Microsystems en los 90 (la época de gloria de la empresa). Basándose en la página web de reclutamiento de Cerebras, la compañía está actualmente enfocada en contratar ingenieros de software.

Andrew Feldman, cofundador de Cerebras, cuando todav+¡a trabajaba en AMD.Los responsables de la flamante compañía creen que pueden construir chips que superen a las GPUs en aplicaciones de deep learning. En una entrevista con la revista Forbes, el CEO de Cerebras, Andrew Feldman, opinó que las GPUs están diseñadas para generar gráficos. “No creo que la GPU sea muy buena para el aprendizaje de máquina”, señaló el CEO. “Puede que sea mejor que los chips de Intel, pero la GPU representa 25 años de optimización para un problema diferente”.

UNA NUEVA FIEBRE DEL ORO

Al igual que Cerebras, otras compañías recién nacidas están siguiendo el razonamiento de Feldman al trabajar en el diseño de chips de próxima generación que cuenten con una gran cantidad de núcleos de procesamiento orientados a las matemáticas de baja precisión. La empresa Wave Computing recientemente reveló los detalles de su arquitectura, exhibiendo un chip llamado Wave Dataflow Processing Unit, el cual cuenta con 16.000 núcleos. La inglesa Graphcore, por su parte, asegura que su chip denominado Intelligence Processing Unit tendrá más de 1.000 núcleos.

Corporate Photographer LondonAl igual que Cerebras, estas otras compañías también han recibido generosas sumas en dinero de inversión. Tanto Wave Computing como Graphcore han reunido U$S 60 millones cada una, merced a la posibilidad de adueñarse de una parte del mercado de hardware para inteligencia artificial, en el que Nvidia picó en punta. “Después de anunciar nuestra compañía, nos inundamos con personas interesadas en nuestro chip”, dijo el CEO y cofundador de Graphcore, Nigel Toon. “Tuvimos la posibilidad de hablar con jugadores clave en el campo de IA”.

A pesar del entusiasmo de los inversionistas, el camino hacia las innovaciones en IA está sembrado de desafíos. Por un lado, el hardware aún no está listo. Puede llevar años desarrollar un chip, y por ahora gran parte de los productos están en fase de desarrollo o de pruebas piloto tempranas. Por consiguiente, es difícil descubrir cuáles de estas recién nacidas empresas podrán cumplir sus promesas.

Tampoco está claro cuál será el tamaño real de la oportunidad que se abre para estas nuevas compañías. El mercado de chips para centros de datos masivos es el primer gran objetivo. Dicho mercado está concentrado en un puñado de compañías gigantes estadounidenses, tales como Amazon, Apple, Facebook, Google y Microsoft, y chinas, como Baidu, Alibaba y Tencent. Estos gigantes poseen recursos suficientes para decidir el destino del mercado, y algunas de ellas han optado por autoabastecerse. Google creó su propio chip para IA, llamado Tensor Processing Unit, mientras que Microsoft optó por usar una clase de chip denominada FPGAs (field-programmable gate arrays).

Un último desafío para las nuevas empresas lo plantea la dificultad para mantenerse independiente en la industria de los semiconductores, debido a la fuerte consolidación impulsada por la búsqueda de un “santo grial” por parte de los gigantes establecidos. Potenciales compradores, como Qualcomm, tienen un ojo puesto en Cerebras y en las otras flamantes empresas de hardware para IA, pero aún no han tomado decisiones debido a la incertidumbre, y a la dificultad que supone invadir el terreno dominado por Nvidia. “Estamos tratando de descubrir cuál es la oportunidad real del mercado”, opinó Quinn Li, líder de Qualcomm Ventures, quien agregó que aún no está claro siquiera el tamaño del mercado.

De lo que no caben dudas es que la demanda por procesamiento “inteligente” sólo puede incrementarse con el tiempo, a medida que más y más productos adoptan estrategias basadas en IA y en aprendizaje de máquina.

Autor

  • Gustavo Dumortier

    Analista en Computación y periodista especializado en informática. Trabajó en diversas publicaciones de tecnología y negocios y es autor de libros sobre algoritmos y programación. Actualmente es socio de la consultora argentina MasterSoft, en la que se desempeña como analista funcional.

[mdx-adserve-bstreet region="MED"]

Gustavo Dumortier

Analista en Computación y periodista especializado en informática. Trabajó en diversas publicaciones de tecnología y negocios y es autor de libros sobre algoritmos y programación. Actualmente es socio de la consultora argentina MasterSoft, en la que se desempeña como analista funcional.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba