Tingkatkan Kemampuan AI Anda dengan Chip Mutakhir AWS dan Kemitraan Nvidia

Tingkatkan Kemampuan AI Anda dengan Chip Mutakhir AWS dan Kemitraan Nvidia

Amazon Web Services (AWS) telah meluncurkan penawaran terbarunya di bidang kecerdasan buatan (AI) dengan memperkenalkan chip baru yang dirancang untuk pengembangan dan eksekusi aplikasi AI. Selain itu, AWS diatur untuk menyediakan akses ke chip mutakhir Nvidia, yang selanjutnya memperluas rangkaian layanannya.

Dalam langkah strategis untuk memposisikan dirinya sebagai penyedia cloud yang kompetitif, AWS tidak membatasi penawarannya pada produk internal. Mirip dengan pasar ritel online yang beragam, AWS akan menampilkan produk tingkat atas dari vendor terkenal, termasuk unit pemrosesan grafis (GPU) yang dicari dari produsen chip AI terkemuka Nvidia.

Permintaan GPU Nvidia telah melonjak, terutama sejak peluncuran chatbot ChatGPT OpenAI, yang menarik perhatian karena kemampuannya yang luar biasa untuk meringkas informasi dan menghasilkan teks seperti manusia. Lonjakan permintaan ini menyebabkan kekurangan chip Nvidia karena bisnis bergegas untuk memasukkan teknologi AI generatif serupa ke dalam produk mereka.

Untuk mengatasi permintaan ini dan bersaing dengan saingan komputasi awan utama Microsoft, AWS telah mengadopsi strategi ganda untuk mengembangkan chipnya sendiri sambil juga menawarkan pelanggan akses ke chip terbaru Nvidia. Microsoft sebelumnya telah meluncurkan chip AI perdananya, Maia 100, dan mengumumkan rencana untuk menggabungkan GPU Nvidia H200 ke cloud Azure.

Pengumuman ini dibuat pada konferensi Reinvent di Las Vegas, di mana AWS mengungkapkan niatnya untuk menyediakan akses ke GPU AI H200 terbaru Nvidia. Selain itu, AWS memperkenalkan chip AI Trainium2 baru dan prosesor Graviton4 serbaguna.

GPU Nvidia yang ditingkatkan, H200, melampaui pendahulunya, H100, yang digunakan OpenAI untuk melatih model bahasa canggihnya, GPT-4. Tingginya permintaan chip ini telah mendorong perusahaan besar, startup, dan lembaga pemerintah untuk mencari penyedia cloud seperti AWS untuk penyewaan chip.

Nvidia mengklaim bahwa H200 akan memberikan output hampir dua kali lebih cepat dari H100.

Chip Trainium2 AWS dirancang khusus untuk melatih model AI, termasuk yang digunakan oleh chatbot AI seperti ChatGPT OpenAI. Startup seperti Databricks dan Anthropic yang didukung Amazon berencana untuk memanfaatkan peningkatan kinerja chip Trainium2, yang menjanjikan kinerja empat kali lebih baik daripada model aslinya.

Prosesor Graviton4, berdasarkan arsitektur Arm, menawarkan efisiensi energi dibandingkan dengan chip Intel atau AMD . AWS menegaskan bahwa Graviton4 memberikan kinerja 30% lebih baik daripada chip Graviton3 yang ada, memberikan output yang ditingkatkan dengan harga yang kompetitif. Lebih dari 50.000 pelanggan AWS sudah menggunakan chip Graviton.

Sebagai bagian dari kolaborasi yang diperluas dengan Nvidia, AWS mengumumkan pengoperasian lebih dari 16.000 Nvidia GH200 Grace Hopper Superchips. Superchip ini mengintegrasikan GPU Nvidia dan prosesor tujuan umum berbasis Arm, menyediakan grup penelitian dan pengembangan Nvidia dan pelanggan AWS dengan kemampuan infrastruktur yang ditingkatkan.

Sejak didirikan pada tahun 2006, AWS telah meluncurkan lebih dari 200 produk cloud. Meskipun tidak semua telah mencapai kesuksesan yang meluas, AWS terus berinvestasi dalam program Graviton dan Trainium, yang menunjukkan pengakuan atas permintaan yang sedang berlangsung.

Sementara tanggal rilis untuk instance mesin virtual dengan chip Nvidia H200 dan instance yang mengandalkan silikon Trainium2 tidak diungkapkan, pelanggan dapat mulai menguji instance mesin virtual Graviton4 dengan ketersediaan komersial yang diharapkan dalam beberapa bulan mendatang.

Related Posts

( UAE )