Améliorez vos capacités d’IA grâce aux puces de pointe d’AWS et au partenariat Nvidia

Améliorez vos capacités d’IA grâce aux puces de pointe d’AWS et au partenariat Nvidia

Amazone Web Services (AWS) a dévoilé ses dernières offres dans le domaine de l’intelligence artificielle (IA) avec l’introduction de nouvelles puces conçues pour le développement et l’exécution d’applications d’IA. En outre, AWS est sur le point de fournir un accès aux puces de pointe de Nvidia, élargissant ainsi sa gamme de services.

Dans le cadre d’une démarche stratégique visant à se positionner en tant que fournisseur de cloud compétitif, AWS ne limite pas ses offres à des produits internes. À l’instar de son marché de vente au détail en ligne diversifié, AWS proposera des produits de premier ordre de fournisseurs renommés, y compris des unités de traitement graphique (GPU) recherchées du principal fabricant de puces d’IA Nvidia.

La demande de GPU Nvidia a explosé, en particulier depuis le lancement du chatbot ChatGPT d’OpenAI, qui a attiré l’attention pour sa remarquable capacité à résumer des informations et à générer du texte de type humain. Cette augmentation de la demande a entraîné une pénurie de puces Nvidia , les entreprises se précipitant pour intégrer des technologies d’IA générative similaires dans leurs produits.

Pour répondre à cette demande et concurrencer son principal rival en matière de cloud computing, Microsoft, AWS a adopté une double stratégie consistant à développer ses propres puces tout en offrant aux clients l’accès aux dernières puces de Nvidia. Microsoft avait précédemment dévoilé sa puce d’IA inaugurale, la Maia 100, et annoncé son intention d’intégrer les GPU Nvidia H200 dans le cloud Azure.

Ces annonces ont été faites lors de la conférence Reinvent à Las Vegas, où AWS a révélé son intention de fournir un accès aux derniers GPU H200 AI de Nvidia. En outre, AWS a présenté sa nouvelle puce Trainium2 AI et le processeur polyvalent Graviton4.

Le GPU Nvidia mis à niveau, le H200, surpasse son prédécesseur, le H100, qu’OpenAI a utilisé pour entraîner son modèle de langage avancé, GPT-4. La forte demande pour ces puces a incité les grandes entreprises, les startups et les agences gouvernementales à rechercher des fournisseurs de cloud comme AWS pour la location de puces.

Nvidia affirme que le H200 fournira une sortie presque deux fois plus rapide que le H100.

Les puces Trainium2 d’AWS sont spécialement conçues pour entraîner des modèles d’IA, y compris ceux utilisés par les chatbots d’IA comme ChatGPT d’OpenAI. Des startups telles que Databricks et Anthropic, soutenue par Amazon, prévoient de tirer parti des performances améliorées des puces Trainium2, qui promettent des performances quatre fois supérieures à celles du modèle original.

Les processeurs Graviton4, basés sur l’architecture Arm, offrent une efficacité énergétique par rapport aux puces Intel ou AMD . AWS affirme que Graviton4 offre des performances 30 % supérieures à celles des puces Graviton3 existantes, offrant un rendement amélioré à un prix compétitif. Plus de 50 000 clients AWS utilisent déjà les puces Graviton.

Dans le cadre de sa collaboration élargie avec Nvidia, AWS a annoncé l’exploitation de plus de 16 000 superpuces Nvidia GH200 Grace Hopper. Ces superpuces intègrent des GPU Nvidia et des processeurs à usage général basés sur Arm, offrant à la fois au groupe de recherche et développement de Nvidia et aux clients AWS des capacités d’infrastructure améliorées.

Depuis sa création en 2006, AWS a lancé plus de 200 produits cloud. Bien que tous n’aient pas connu un succès généralisé, AWS continue d’investir dans les programmes Graviton et Trainium, ce qui témoigne d’une reconnaissance de la demande continue.

Bien que les dates de sortie des instances de machines virtuelles avec des puces Nvidia H200 et des instances reposant sur le silicium Trainium2 n’aient pas été divulguées, les clients peuvent commencer à tester les instances de machines virtuelles Graviton4 avec une disponibilité commerciale attendue dans les mois à venir.

Related Posts