Nâng cao khả năng AI của bạn với chip tiên tiến của AWS và quan hệ đối tác Nvidia

Nâng cao khả năng AI của bạn với chip tiên tiến của AWS và quan hệ đối tác Nvidia

Amazon Dịch vụ web (AWS) đã tiết lộ các dịch vụ mới nhất của mình trong lĩnh vực trí tuệ nhân tạo (AI) với việc giới thiệu các chip mới được thiết kế để phát triển và thực thi các ứng dụng AI. Ngoài ra, AWS được thiết lập để cung cấp quyền truy cập vào các chip tiên tiến của Nvidia, mở rộng hơn nữa mảng dịch vụ của mình.

Trong một động thái chiến lược để định vị mình là nhà cung cấp đám mây cạnh tranh, AWS không giới hạn các dịch vụ của mình đối với các sản phẩm nội bộ. Tương tự như thị trường bán lẻ trực tuyến đa dạng, AWS sẽ giới thiệu các sản phẩm hàng đầu từ các nhà cung cấp nổi tiếng, bao gồm các bộ xử lý đồ họa (GPU) được tìm kiếm từ nhà sản xuất chip AI hàng đầu Nvidia.

Nhu cầu về GPU Nvidia đã tăng mạnh, đặc biệt là kể từ khi ra mắt chatbot ChatGPT của OpenAI, thu hút sự chú ý vì khả năng tóm tắt thông tin và tạo văn bản giống con người đáng chú ý. Sự gia tăng nhu cầu này dẫn đến tình trạng thiếu chip Nvidia khi các doanh nghiệp vội vã kết hợp các công nghệ AI tương tự vào sản phẩm của họ.

Để giải quyết nhu cầu này và cạnh tranh với đối thủ điện toán đám mây lớn Microsoft, AWS đã áp dụng chiến lược kép là phát triển chip của riêng mình đồng thời cung cấp cho khách hàng quyền truy cập vào các chip mới nhất của Nvidia. Microsoft trước đó đã tiết lộ chip AI đầu tiên của mình, Maia 100 và công bố kế hoạch kết hợp GPU Nvidia H200 vào đám mây Azure.

Những thông báo này được đưa ra tại hội nghị Reinvent ở Las Vegas, nơi AWS tiết lộ ý định cung cấp quyền truy cập vào GPU AI H200 mới nhất của Nvidia. Ngoài ra, AWS còn giới thiệu chip AI Trainium2 mới và bộ xử lý Graviton4 đa năng.

GPU Nvidia nâng cấp, H200, vượt qua người tiền nhiệm của nó, H100, mà OpenAI sử dụng để đào tạo mô hình ngôn ngữ tiên tiến của nó, GPT-4. Nhu cầu cao đối với những con chip này đã thúc đẩy các công ty lớn, công ty khởi nghiệp và cơ quan chính phủ tìm kiếm các nhà cung cấp đám mây như AWS để cho thuê chip.

Nvidia tuyên bố rằng H200 sẽ cung cấp sản lượng nhanh gần gấp đôi so với H100.

Chip Trainium2 của AWS được thiết kế đặc biệt để đào tạo các mô hình AI, bao gồm cả những mô hình được sử dụng bởi các chatbot AI như ChatGPT của OpenAI. Các công ty khởi nghiệp như Databricks và Anthropic do Amazon hậu thuẫn có kế hoạch tận dụng hiệu suất nâng cao của chip Trainium2, hứa hẹn hiệu suất tốt hơn bốn lần so với mô hình ban đầu.

Bộ xử lý Graviton4, dựa trên kiến trúc Arm, cung cấp hiệu quả năng lượng so với chip Intel hoặc AMD . AWS khẳng định rằng Graviton4 cung cấp hiệu năng tốt hơn 30% so với các chip Graviton3 hiện có, mang lại sản lượng được cải thiện với mức giá cạnh tranh. Hơn 50.000 khách hàng AWS đã sử dụng chip Graviton.

Là một phần của sự hợp tác mở rộng với Nvidia, AWS đã công bố hoạt động của hơn 16.000 siêu chip Nvidia GH200 Grace Hopper. Các siêu chip này tích hợp GPU Nvidia và bộ xử lý đa năng dựa trên Arm, cung cấp cho cả nhóm nghiên cứu và phát triển của Nvidia và khách hàng AWS khả năng cơ sở hạ tầng nâng cao.

Kể từ khi thành lập vào năm 2006, AWS đã ra mắt hơn 200 sản phẩm đám mây. Mặc dù không phải tất cả đều đạt được thành công rộng rãi, AWS vẫn tiếp tục đầu tư vào các chương trình Graviton và Trainium, cho thấy sự công nhận nhu cầu đang diễn ra.

Mặc dù ngày phát hành cho các phiên bản máy ảo có chip Nvidia H200 và các phiên bản dựa trên silicon Trainium2 không được tiết lộ, khách hàng có thể bắt đầu thử nghiệm các phiên bản máy ảo Graviton4 với tính khả dụng thương mại dự kiến trong những tháng tới.

Related Posts

( UAE )