Durante mucho tiempo, Nvidia fue un actor secundario en el escenario del avance tecnológico. Sin embargo, a mediados de 2023, sorprendió al mercado con unos impresionantes beneficios trimestrales de 7.190 millones de dólares. ¿El secreto? La reciente migración de la infraestructura de la nube desde las antiguas CPU hacia las GPU (unidades de procesamiento gráfico). Esta transición llegó en un momento crucial, ya que resultó esencial para respaldar el auge de la GenAI, que depende en gran medida de chips especializados para sus soluciones de IA.

 

Competencia por el dominio de la IA

Nvidia ya ostenta el título como principal fabricante mundial de unidades de procesamiento gráfico de gama alta, con una destacada cuota de mercado del 92%. Esto la posiciona como el proveedor de chips de IA más confiable para gigantes tecnológicos como Google, Microsoft, Meta y Amazon.

Sin embargo, el dominio de Nvidia en el mercado podría enfrentar desafíos antes de lo previsto. Las grandes empresas tecnológicas, principales clientes de Nvidia, están invirtiendo fuertemente en el desarrollo de sus propios chips de IA. Esto busca reducir su dependencia de Nvidia y establecer su propio camino en la carrera por el dominio de la IA.

En noviembre de 2023, Microsoft presentó su propio chip de IA, el Maia 100, diseñado para competir con las unidades de procesamiento gráfico de IA de Nvidia. En el mismo mes, Amazon lanzó el chip Trainium2, destinado al entrenamiento de modelos de inteligencia artificial en sus servicios web. Esta iniciativa siguió a una inversión de 4.000 millones de dólares por parte de Amazon para acelerar los desarrollos de Anthropic, que supuestamente utiliza chips de IA diseñados por Amazon en sus soluciones de IA.

Se ha revelado que Meta planea lanzar un chip personalizado este año, destinado a respaldar el lanzamiento de sus productos de inteligencia artificial y el procesamiento de sus cargas de trabajo de IA. Se espera que este movimiento ahorre a Meta miles de millones en costos asociados con la adquisición de chips de IA. Por otro lado, Google presentó la quinta generación de sus unidades de procesamiento tensorial (TPU), circuitos integrados de aplicación específica (ASIC) diseñados a medida para el entrenamiento y la inferencia de IA. Como el acelerador de IA más potente de Google hasta la fecha, la TPU representa una amenaza para el trono que ostenta Nvidia en cuanto a tecnología de IA.

A pesar de estos avances de las grandes empresas tecnológicas, el dominio y la penetración de Nvidia en el mercado siguen siendo indiscutibles. El gigante de los chips continúa liderando la innovación y ofreciendo tecnologías de IA de vanguardia, como lo demuestra su última innovación, la plataforma Blackwell B200.

 

Los últimos avances en tecnología de IA de Nvidia: Blackwell B200

Nvidia actualiza su arquitectura de GPU cada dos años, y los chips y modelos de IA se lanzan basándose en esta arquitectura. En la conferencia anual de desarrolladores de Nvidia en San José, el CEO de la compañía, Jensen Huang, presentó la arquitectura actualizada de Nvidia, que reemplazará a la arquitectura Hopper de 2022: la plataforma Blackwell B200.

Esta plataforma lleva el nombre de David Harold Blackwell, el primer académico afroamericano incluido en la Academia Nacional de Ciencias. Blackwell fue un matemático especializado en estadística y teoría de juegos. Se espera que el Blackwell B200 acelere la computación mediante tecnologías como un motor RAS, NVLink de quinta generación, motor de transformación de segunda generación, motor de descompresión y capacidades de IA segura.

Con 208.000 millones de transistores, Nvidia afirma que el Blackwell B200 reducirá los costos operativos y el consumo de energía de la inferencia de IA hasta 25 veces en comparación con su predecesor, el H100. Esta innovación tendrá un impacto significativo en la ejecución de proyectos de inteligencia artificial, como la ejecución de ChatGPT, así como en proyectos de juego, como la ejecución de casinos en línea.

El primer chip de IA basado en la infraestructura Blackwell B200 se denominará GB200 y estará disponible para los consumidores a finales de año. El GB200 es un "superchip" desarrollado mediante la combinación de dos chips B200 y una CPU Grace, lo que ofrece un rendimiento 30 veces superior en comparación con su predecesor, el H100.Según Jensen Huang, CEO de Nvidia, se necesitan GPU más grandes. Durante su discurso de apertura en la conferencia anual de desarrolladores de la compañía, compartió: "La plataforma Blackwell permitirá entrenar modelos de IA de billones de parámetros, lo que hará que los modelos generativos de IA actuales parezcan rudimentarios en comparación".

El año pasado, el valor de Nvidia alcanzó un máximo histórico de más de un billón de dólares. Hoy en día, es la tercera empresa más valiosa después de Microsoft y Apple, habiendo superado recientemente a Amazon y Alphabet. Según los informes, los ingresos del centro de datos de la compañía ascendieron a 18.400 millones de dólares en el último trimestre de 2024, lo que supone un aumento del 409% con respecto al cuarto trimestre de 2023.

Nvidia actualmente lidera la carrera por el liderazgo de la IA y sigue siendo imbatible en el desarrollo y soporte de tecnología de IA. Sin embargo, el panorama del mercado está en constante evolución, con Google, Microsoft, Meta y Amazon compitiendo por una parte del mercado de la IA mediante el desarrollo de sus propios chips.

Cumple los criterios de The Trust Project

Saber más

Síguenos en Google Noticias para mantenerte siempre informado

Sigue el canal de Diario De Morelos en WhatsApp