Eleve seus recursos de IA com os chips de ponta da AWS e a parceria com a Nvidia

Eleve seus recursos de IA com os chips de ponta da AWS e a parceria com a Nvidia

Amazona A Web Services (AWS) revelou suas mais recentes ofertas no campo da inteligência artificial (IA) com a introdução de novos chips projetados para o desenvolvimento e execução de aplicativos de IA. Além disso, a AWS está pronta para fornecer acesso aos chips de ponta da Nvidia, expandindo ainda mais sua gama de serviços.

Em um movimento estratégico para se posicionar como um provedor de nuvem competitivo, a AWS não está limitando suas ofertas a produtos internos. Semelhante ao seu diversificado mercado de varejo on-line, a AWS contará com produtos de primeira linha de fornecedores renomados, incluindo unidades de processamento gráfico (GPUs) procuradas da fabricante líder de chips de IA Nvidia.

A demanda por GPUs da Nvidia aumentou, particularmente desde o lançamento do chatbot ChatGPT da OpenAI, que chamou a atenção por sua notável capacidade de resumir informações e gerar texto semelhante ao humano. Esse aumento na demanda levou a uma escassez de chips da Nvidia , à medida que as empresas correram para incorporar tecnologias de IA generativas semelhantes em seus produtos.

Para atender a essa demanda e competir com a grande rival de computação em nuvem Microsoft, a AWS adotou uma estratégia dupla de desenvolver seus próprios chips e, ao mesmo tempo, oferecer aos clientes acesso aos chips mais recentes da Nvidia. A Microsoft já havia revelado seu chip de IA inaugural, o Maia 100, e anunciou planos para incorporar GPUs Nvidia H200 na nuvem Azure.

Esses anúncios foram feitos na conferência Reinvent em Las Vegas, onde a AWS revelou sua intenção de fornecer acesso às mais recentes GPUs de IA H200 da Nvidia. Além disso, a AWS apresentou seu novo chip Trainium2 AI e o versátil processador Graviton4.

A GPU atualizada da Nvidia, H200, supera sua antecessora, a H100, que a OpenAI utilizou para treinar seu modelo de linguagem avançada, GPT-4. A alta demanda por esses chips levou grandes empresas, startups e agências governamentais a buscarem provedores de nuvem como a AWS para aluguel de chips.

A Nvidia afirma que o H200 entregará uma saída quase duas vezes mais rápida que o H100.

Os chips Trainium2 da AWS são projetados especificamente para treinar modelos de IA, incluindo aqueles usados por chatbots de IA como o ChatGPT da OpenAI. Startups como Databricks e Anthropic, apoiadas pela Amazon, planejam aproveitar o desempenho aprimorado dos chips Trainium2, que prometem desempenho quatro vezes melhor do que o modelo original.

Os processadores Graviton4, baseados na arquitetura Arm, oferecem eficiência energética em comparação com os chips Intel ou AMD . A AWS afirma que o Graviton4 oferece um desempenho 30% melhor do que os chips Graviton3 existentes, oferecendo uma produção aprimorada a um preço competitivo. Mais de 50.000 clientes da AWS já utilizam chips Graviton.

Como parte de sua colaboração expandida com a Nvidia, a AWS anunciou a operação de mais de 16.000 superchips Nvidia GH200 Grace Hopper. Esses superchips integram GPUs Nvidia e processadores de uso geral baseados em Arm, fornecendo ao grupo de pesquisa e desenvolvimento da Nvidia e aos clientes da AWS recursos aprimorados de infraestrutura.

Desde sua criação em 2006, a AWS lançou mais de 200 produtos de nuvem. Embora nem todos tenham alcançado sucesso generalizado, a AWS continua investindo nos programas Graviton e Trainium, indicando um reconhecimento da demanda contínua.

Embora as datas de lançamento para instâncias de máquina virtual com chips Nvidia H200 e instâncias que dependem do silício Trainium2 não tenham sido divulgadas, os clientes podem começar a testar instâncias de máquina virtual Graviton4 com disponibilidade comercial esperada nos próximos meses.

Related Posts