利用 AWS 的尖端芯片和 Nvidia 合作伙伴关系提升您的 AI 能力

利用 AWS 的尖端芯片和 Nvidia 合作伙伴关系提升您的 AI 能力

亚马逊河 Web Services (AWS) 推出了其在人工智能 (AI) 领域的最新产品,推出了专为开发和执行 AI 应用程序而设计的新芯片。 此外,AWS将提供对英伟达尖端芯片的访问,进一步扩大其服务范围。

在将自己定位为具有竞争力的云提供商的战略举措中,AWS并没有将其产品限制在内部产品上。 与其多样化的在线零售市场类似,AWS将展示来自知名供应商的顶级产品,包括来自领先的AI芯片制造商Nvidia的广受欢迎的图形处理单元(GPU)。

对 Nvidia GPU 的需求激增,尤其是自 OpenAI 的 ChatGPT 聊天机器人推出以来,该聊天机器人因其总结信息和生成类似人类文本的卓越能力而受到关注。 这种需求激增导致 英伟达 芯片短缺,因为企业急于将类似的生成式人工智能技术整合到他们的产品中。

为了满足这一需求并与主要的云计算竞争对手Microsoft竞争,AWS采取了双重策略,即开发自己的芯片,同时为客户提供Nvidia的最新芯片。 Microsoft此前推出了其首款 AI 芯片 Maia 100,并宣布计划将 Nvidia H200 GPU 整合到 Azure 云中。

这些公告是在拉斯维加斯举行的 Reinvent 会议上宣布的,AWS 在会上透露了提供对 Nvidia 最新 H200 AI GPU 的访问的意图。 此外,AWS还推出了新的Trainium2 AI芯片和多功能的Graviton4处理器。

升级后的 Nvidia GPU H200 超越了其前身 H100,OpenAI 利用 H100 来训练其先进的语言模型 GPT-4。 对这些芯片的高需求促使大公司、初创公司和政府机构寻求像 AWS 这样的云提供商来租用芯片。

英伟达声称,H200 的输出速度几乎是 H100 的两倍。

AWS 的 Trainium2 芯片专为训练 AI 模型而设计,包括 OpenAI 的 ChatGPT 等 AI 聊天机器人使用的模型。 Databricks 和亚马逊支持的 Anthropic 等初创公司计划利用 Trainium2 芯片的增强性能,该芯片有望比原始模型的性能好四倍。

Graviton4 处理器基于 Arm 架构,与 Intel 或 AMD 芯片相比具有更高的能效。 AWS 声称 Graviton4 的性能比现有的 Graviton3 芯片高 30%,以具有竞争力的价格提供更高的输出。 超过 50,000 家 AWS 客户已经在使用 Graviton 芯片。

作为与 Nvidia 扩大合作的一部分,AWS 宣布运营超过 16,000 个 Nvidia GH200 Grace Hopper 超级芯片。 这些超级芯片集成了 Nvidia GPU 和基于 Arm 的通用处理器,为 Nvidia 的研发团队和 AWS 客户提供增强的基础设施功能。

自 2006 年成立以来,AWS 已推出 200 多款云产品。 尽管并非所有项目都取得了广泛的成功,但 AWS 仍在继续投资 Graviton 和 Trainium 计划,这表明了对持续需求的认可。

虽然采用 Nvidia H200 芯片的虚拟机实例和依赖 Trainium2 芯片的实例的发布日期尚未披露,但客户可以开始测试 Graviton4 虚拟机实例,预计在未来几个月内投入商业使用。

Related Posts

( UAE )