Nvidia: el gigante de los chips que ganó con la "fiebre de la inteligencia artificial"

El ganador más visible del auge de la IA, logró su dominio al convertirse en una "ventanilla única" para el desarrollo de esa tecnología, desde chips hasta software y otros servicios.

Compartir esta noticia
nvidia-1 (15093186).jpg
El CEO y cofundador de Nvidia, Jensen Huang, ha sido uno de los abanderados del desarrollo de la inteligencia artificial

Naveen Rao, un neurocientífico convertido en empresario tecnológico, una vez trató de competir con Nvidia, el principal fabricante mundial de chips diseñados para inteligencia artificial (IA).

En una startup que compró más tarde el gigante de los semiconductores Intel, Rao trabajó en chips destinados a reemplazar las unidades de procesamiento de gráficos (GPU) de Nvidia, que son componentes adaptados para tareas de IA como el aprendizaje automático. Pero mientras Intel se movía lentamente, Nvidia actualizó rápidamente sus productos con nuevas funciones de IA que contrarrestaron lo que estaba desarrollando, dijo Rao.

Tras dejar Intel y liderar una startup de software, MosaicML, Rao usó los chips de Nvidia y los evaluó frente a los de sus rivales. Descubrió que Nvidia se había diferenciado más allá de los chips al crear una gran comunidad de programadores de IA que usan la tecnología de la compañía.

«Todo el mundo se basa en Nvidia primero», resumió Rao.

Durante más de 10 años, Nvidia ha construido una ventaja casi inexpugnable en la producción de chips que pueden realizar tareas complejas de IA como reconocimiento de imagen, facial y de voz, así como generar texto para chatbots como ChatGPT. La empresa logró ese dominio al reconocer temprano la tendencia de la IA, adaptar sus chips a esas tareas y desarrollar piezas clave de software que ayudan en el desarrollo de la tecnología.

Desde entonces, Jensen Huang, cofundador y CEO de Nvidia, ha seguido subiendo el listón. Para mantener su liderazgo, la empresa también ha ofrecido a los clientes acceso a computadoras especializadas, servicios informáticos y otras herramientas de su comercio emergente. Eso ha convertido a Nvidia en una «ventanilla única» para el desarrollo de IA.

Si bien Google, Amazon, Meta, IBM y otros han producido chips de IA, Nvidia abarca más del 70 % de las ventas del sector y ocupa una posición aún mayor en el entrenamiento de modelos de IA Generativa, según la firma de investigación Omdia.

Nvidia-H100-SXM

En mayo, el estatus de la empresa como el ganador más visible de la revolución de la IA quedó claro cuando proyectó un aumento del 64% en los ingresos trimestrales, mucho más de lo que esperaba Wall Street. Nvidia ya superó el US$ 1.000 millones en valor de mercado y es el fabricante de chips más valioso del mundo, ahora se espera que brinde más señales sobre el auge de la demanda de IA.

«Los clientes esperarán 18 meses para comprar un sistema Nvidia en lugar de comprar un chip listo para usar ya sea de una startup o de otro competidor», explicó Daniel Newman, analista de Futurum Group.

Una Larga carrera

Huang habló de AI durante años antes de convertirse en una de las caras más conocidas del movimiento. Ha declarado que la informática está pasando por su mayor cambio desde que IBM definió cómo funcionan la mayoría de los sistemas y el software hace 60 años. Ahora, afirmó, las GPU y otros chips de propósito especial están reemplazando a los microprocesadores estándar, y los chatbots de IA están reemplazando la codificación de software complejo.

«Es una reinvención de cómo se hace la informática», ha definido el CEO. «Y construimos todo desde cero, desde el procesador hasta el final».

Huang ayudó a iniciar Nvidia en 1993 para fabricar chips que renderizaran imágenes en videojuegos. Mientras que los microprocesadores estándar sobresalen en la realización de cálculos complejos de forma secuencial, las GPU de la empresa realizan muchas tareas sencillas a la vez.

En 2006, Huang fue más allá. Anunció la plataforma llamada CUDA, que ayudó a programar las GPU para nuevas tareas, transformándolas de chips de un solo propósito a unos de uso más general que podrían realizar trabajos en áreas como la física y las simulaciones químicas.

Un gran avance se produjo en 2012, cuando los investigadores utilizaron GPU para lograr una precisión similar a la humana en tareas como reconocer un gato en una imagen, un precursor de desarrollos recientes como la generación de imágenes a partir de indicaciones de texto.

NVIDIA-H100-HERO2 (15093188).jpg
Nvidia Hero 2.

Es una reinvención de cómo se hace la informática. Y construimos todo desde cero, desde el procesador hasta el final

Nvidia replicó girando «todos los aspectos de nuestra empresa para avanzar en este nuevo campo», dijo Jensen recientemente.

El esfuerzo, que la empresa valora en más de US$ 30.000 millones durante una década, hizo de Nvidia más que un proveedor de componentes. Además de colaborar con científicos y startups líderes, creó un equipo que participa en actividades de IA, como la creación y capacitación de modelos lingüísticos.

La advertencia anticipada sobre lo que necesitan los profesionales de la IA llevó a Nvidia a desarrollar muchas capas de software clave más allá de CUDA.

En septiembre pasado, Nvidia lanzó nuevos chips llamados H100, que mejoró para manejar las llamadas operaciones de transformador. Dichos cálculos resultaron ser la base de servicios como ChatGPT.

Para ampliar aún más su influencia, Nvidia también se ha asociado con empresas de Big Tech e invirtió en startups de IA de alto perfil que utilizan sus chips. Una fue Inflection AI, que en junio anunció US$ 1.300 millones en fondos de Nvidia y otros, para ayudar a financiar la compra de 22.000 chips H100.

Nvidia también ha destinado últimamente efectivo y H100 escasos a nuevos servicios en la nube como CoreWeave, que permiten a las empresas alquilar tiempo en las computadoras en lugar de comprar las suyas propias. CoreWeave, que operará el hardware de Inflection y posee más de 45.000 chips Nvidia, recaudó US$ 2.300 millones este mes para ayudar a comprar más.

Los ejecutivos y analistas de la industria dijeron que cada H100 cuesta entre US$ 15.000 y más de US$ 40.000, según el empaque y otros factores, es decir, unas dos o tres veces más que el chip predecesor A100.

Un rival difícil de desbancar

Algunos rivales de Nvidia dijeron que era difícil competir con una empresa que vendía computadoras, software, servicios en la nube y modelos de IA entrenados, además de procesadores.

«A diferencia de cualquier otra empresa de chips, han estado dispuestos a competir abiertamente con sus clientes», comentó Andrew Feldman, CEO de Cerebras, una startup que desarrolla chips de IA.

Pero pocos clientes se quejan, al menos públicamente. Incluso Google, que comenzó a crear chips hace más de 10 años, confía en las GPU de Nvidia para parte de su trabajo. La demanda de los chips de Google es «tremenda», destacó Amin Vahdat, vicepresidente de infraestructura informática de Google. Pero, agregó, «trabajamos muy de cerca con Nvidia».

El precio «es un lugar donde Nvidia ha dejado mucho espacio para que otros compitan», opinó David Brown, vicepresidente de la unidad de nube de Amazon, argumentando que sus propios chips de IA son una ganga en comparación con los chips de Nvidia que también usa.

Huang apuntó que el mayor rendimiento de sus chips ahorró dinero a los clientes. «Si puede reducir el tiempo de capacitación a la mitad en un centro de datos de US$ 5.000 millones, el ahorro es mayor que el costo de todos los chips», indicó. «Somos la solución de menor costo en el mundo».

¿Encontraste un error?

Reportar

Te puede interesar