Eleve sus capacidades de IA con los chips de vanguardia de AWS y la asociación con Nvidia

Eleve sus capacidades de IA con los chips de vanguardia de AWS y la asociación con Nvidia

Amazona Web Services (AWS) ha presentado sus últimas ofertas en el ámbito de la inteligencia artificial (IA) con la introducción de nuevos chips diseñados para el desarrollo y la ejecución de aplicaciones de IA. Además, AWS está configurado para proporcionar acceso a los chips de vanguardia de Nvidia, ampliando aún más su gama de servicios.

En un movimiento estratégico para posicionarse como un proveedor competitivo de la nube, AWS no limita sus ofertas a productos internos. Al igual que su diverso mercado minorista en línea, AWS contará con productos de primer nivel de proveedores de renombre, incluidas las codiciadas unidades de procesamiento gráfico (GPU) del fabricante líder de chips de IA Nvidia.

La demanda de GPU Nvidia ha aumentado, particularmente desde el lanzamiento del chatbot ChatGPT de OpenAI, que llamó la atención por su notable capacidad para resumir información y generar texto similar al humano. Este aumento de la demanda provocó una escasez de chips Nvidia , ya que las empresas se apresuraron a incorporar tecnologías similares de IA generativa en sus productos.

Para hacer frente a esta demanda y competir con su principal rival de computación en la nube, Microsoft, AWS ha adoptado una estrategia dual de desarrollar sus propios chips y, al mismo tiempo, ofrecer a los clientes acceso a los últimos chips de Nvidia. Microsoft había presentado previamente su chip de IA inaugural, el Maia 100, y anunció planes para incorporar GPU Nvidia H200 en la nube de Azure.

Estos anuncios se realizaron en la conferencia Reinvent en Las Vegas, donde AWS reveló su intención de proporcionar acceso a las últimas GPU H200 AI de Nvidia. Además, AWS presentó su nuevo chip de IA Trainium2 y el versátil procesador Graviton4.

La GPU Nvidia mejorada, H200, supera a su predecesora, la H100, que OpenAI utilizó para entrenar su modelo de lenguaje avanzado, GPT-4. La alta demanda de estos chips ha llevado a las principales empresas, startups y agencias gubernamentales a buscar proveedores de nube como AWS para el alquiler de chips.

Nvidia afirma que el H200 ofrecerá una salida casi dos veces más rápida que el H100.

Los chips Trainium2 de AWS están diseñados específicamente para entrenar modelos de IA, incluidos los utilizados por chatbots de IA como ChatGPT de OpenAI. Startups como Databricks y Anthropic, respaldada por Amazon, planean aprovechar el rendimiento mejorado de los chips Trainium2, que prometen un rendimiento cuatro veces mejor que el modelo original.

Los procesadores Graviton4, basados en la arquitectura Arm, ofrecen eficiencia energética en comparación con los chips Intel o AMD . AWS afirma que Graviton4 proporciona un rendimiento un 30 % mejor que los chips Graviton3 existentes, lo que ofrece una mejor producción a un precio competitivo. Más de 50 000 clientes de AWS ya utilizan chips Graviton.

Como parte de su colaboración ampliada con Nvidia, AWS anunció la operación de más de 16 000 superchips Nvidia GH200 Grace Hopper. Estos superchips integran GPU de Nvidia y procesadores de uso general basados en Arm, lo que proporciona tanto al grupo de investigación y desarrollo de Nvidia como a los clientes de AWS capacidades de infraestructura mejoradas.

Desde su creación en 2006, AWS ha lanzado más de 200 productos en la nube. Aunque no todos han logrado un éxito generalizado, AWS continúa invirtiendo en los programas Graviton y Trainium, lo que indica un reconocimiento de la demanda continua.

Si bien no se revelaron las fechas de lanzamiento de las instancias de máquina virtual con chips Nvidia H200 y las instancias que dependen del silicio Trainium2, los clientes pueden comenzar a probar las instancias de máquina virtual Graviton4 con disponibilidad comercial prevista en los próximos meses.

Related Posts