Tingkatkan Keupayaan AI Anda dengan Cip Canggih AWS dan Perkongsian Nvidia

Tingkatkan Keupayaan AI Anda dengan Cip Canggih AWS dan Perkongsian Nvidia

Amazon Web Services (AWS) telah melancarkan penawaran terbarunya dalam bidang kecerdasan buatan (AI) dengan pengenalan cip baharu yang direka untuk pembangunan dan pelaksanaan aplikasi AI. Di samping itu, AWS bersedia untuk menyediakan akses kepada cip canggih Nvidia, mengembangkan lagi pelbagai perkhidmatannya.

Dalam langkah strategik untuk meletakkan dirinya sebagai penyedia awan yang kompetitif, AWS tidak mengehadkan penawarannya kepada produk dalaman. Sama seperti pasaran runcit dalam talian yang pelbagai, AWS akan menampilkan produk peringkat tinggi daripada vendor terkenal, termasuk unit pemprosesan grafik (GPU) yang dicari daripada pengeluar cip AI terkemuka Nvidia.

Permintaan untuk GPU Nvidia telah melonjak, terutamanya sejak pelancaran chatbot ChatGPT OpenAI, yang mendapat perhatian kerana keupayaannya yang luar biasa untuk meringkaskan maklumat dan menghasilkan teks seperti manusia. Lonjakan permintaan ini menyebabkan kekurangan cip Nvidia apabila perniagaan bergegas menggabungkan teknologi AI generatif yang serupa ke dalam produk mereka.

Untuk menangani permintaan ini dan bersaing dengan saingan pengkomputeran awan utama Microsoft, AWS telah menggunakan dua strategi untuk membangunkan cipnya sendiri di samping menawarkan pelanggan akses kepada cip terbaru Nvidia. Microsoft sebelum ini telah melancarkan cip AI sulungnya, Maia 100, dan mengumumkan rancangan untuk menggabungkan GPU Nvidia H200 ke dalam awan Azure.

Pengumuman ini dibuat pada persidangan Reinvent di Las Vegas, di mana AWS mendedahkan hasratnya untuk menyediakan akses kepada GPU H200 AI terbaru Nvidia. Di samping itu, AWS memperkenalkan cip Trainium2 AI baharu dan pemproses Graviton4 serba boleh.

GPU Nvidia yang dinaik taraf, H200, melepasi pendahulunya, H100, yang digunakan OpenAI untuk melatih model bahasa canggihnya, GPT-4. Permintaan yang tinggi untuk cip ini telah mendorong syarikat-syarikat besar, syarikat permulaan, dan agensi kerajaan untuk mencari penyedia awan seperti AWS untuk penyewaan cip.

Nvidia mendakwa bahawa H200 akan menyampaikan output hampir dua kali lebih cepat daripada H100.

Cip Trainium2 AWS direka khusus untuk melatih model AI, termasuk yang digunakan oleh chatbots AI seperti ChatGPT OpenAI. Pemula seperti Databricks dan rancangan Anthropic yang disokong Amazon untuk memanfaatkan prestasi cip Trainium2 yang dipertingkatkan, yang menjanjikan prestasi empat kali lebih baik daripada model asal.

Pemproses Graviton4, berdasarkan seni bina Lengan, menawarkan kecekapan tenaga berbanding cip Intel atau AMD . AWS menegaskan bahawa Graviton4 memberikan prestasi 30% lebih baik daripada cip Graviton3 sedia ada, memberikan output yang lebih baik pada harga yang kompetitif. Lebih 50,000 pelanggan AWS sudah menggunakan cip Graviton.

Sebagai sebahagian daripada kerjasama yang diperluaskan dengan Nvidia, AWS mengumumkan operasi lebih 16,000 Nvidia GH200 Grace Hopper Superchips. Superchips ini mengintegrasikan GPU Nvidia dan pemproses tujuan umum berasaskan Lengan, menyediakan kedua-dua kumpulan penyelidikan dan pembangunan Nvidia dan pelanggan AWS dengan keupayaan infrastruktur yang dipertingkatkan.

Sejak penubuhannya pada tahun 2006, AWS telah melancarkan lebih daripada 200 produk awan. Walaupun tidak semua telah mencapai kejayaan yang meluas, AWS terus melabur dalam program Graviton dan Trainium, menunjukkan pengiktirafan permintaan yang berterusan.

Walaupun tarikh keluaran untuk kejadian mesin maya dengan cip Nvidia H200 dan contoh yang bergantung pada silikon Trainium2 tidak didedahkan, pelanggan boleh mula menguji kejadian mesin maya Graviton4 dengan ketersediaan komersial dijangka pada bulan-bulan akan datang.

Related Posts

( UAE )