AWS dan NVIDIA memperkuat kolaborasi mereka dengan integrasi NVLink Fusion, GPU terbaru di cloud, dan dukungan penuh terhadap model dan...

AWS dan NVIDIA perluas kemitraan untuk infrastruktur AI generatif skala besar. (Sumber gambar: Blog Nvidia)
Amazon Web Services (AWS) dan NVIDIA mengumumkan perluasan kemitraan strategis mereka di ajang AWS re:Invent 2025, menghadirkan teknologi dan layanan AI generatif yang lebih kuat dan skalabel. Kolaborasi ini dirancang untuk menjawab lonjakan permintaan komputasi AI di seluruh dunia, memungkinkan perusahaan dari berbagai sektor untuk membangun, menjalankan, dan mengelola model AI besar dengan efisiensi dan fleksibilitas tinggi.
Langkah ini menekankan integrasi hardware dan software canggih, yang memungkinkan akses ke kemampuan AI generatif kelas dunia melalui cloud tanpa memerlukan pembangunan infrastruktur lokal yang kompleks. Dukungan dari NVIDIA mencakup akselerasi GPU, optimasi inference, serta integrasi model AI open-source yang dapat langsung digunakan oleh developer dan perusahaan.
AWS mendukung integrasi NVLink Fusion, platform interkoneksi berskala rak milik NVIDIA, untuk deployment sistem AI generasi baru, termasuk chip Trainium 4 dan CPU Graviton. Integrasi ini meningkatkan skalabilitas, efisiensi energi, dan kinerja, sehingga perusahaan dapat menjalankan beban kerja AI besar dengan lebih cepat dan hemat biaya.
Selain itu, AWS menghadirkan akses ke GPU terbaru dari keluarga Blackwell dan server GPU profesional seperti RTX PRO 6000 Blackwell Server Edition. Kombinasi ini memungkinkan simulasi kompleks, rendering, dan pemrosesan AI secara real-time dengan performa tinggi, baik untuk riset maupun produksi.
Model-model AI open-source dari NVIDIA kini terintegrasi ke platform Amazon Bedrock, memudahkan perusahaan membangun aplikasi AI generatif tanpa harus mengelola infrastruktur yang kompleks. Model ringan dapat dijalankan di cloud maupun perangkat edge, sehingga memperluas fleksibilitas penggunaan AI.
Selain itu, AWS mengaktifkan akselerasi GPU untuk layanan serverless seperti Amazon OpenSearch Service. Hal ini memungkinkan pemrosesan data tidak terstruktur, indexing vektor, dan clustering data dengan kecepatan jauh lebih tinggi dibanding metode CPU tradisional. Layanan AI untuk robotik, simulasi, dan digital twin juga tersedia melalui NVIDIA Cosmos sebagai microservice di AWS, mendukung pengembangan agentic AI dan aplikasi fisik yang terintegrasi dengan cloud.
Kolaborasi ini memungkinkan perusahaan dari startup hingga enterprise besar untuk mengakses infrastruktur AI superkomputer tanpa harus membangun datacenter sendiri. Pengembangan model AI besar, seperti LLM atau sistem multimodal, dapat dilakukan lebih cepat dan hemat biaya. Developer juga mendapatkan fleksibilitas untuk menjalankan beban kerja di cloud dengan GPU terbaru atau memanfaatkan layanan serverless dengan optimasi GPU. Selain itu, perusahaan yang membutuhkan kontrol data tetap dapat menggunakan opsi cloud yang sesuai dengan regulasi lokal atau kebutuhan keamanan.
Dengan kombinasi hardware canggih, software AI terbuka, dan infrastruktur cloud skala global, kemitraan AWS dan NVIDIA menghadirkan era baru bagi pengembangan dan penerapan AI generatif skala besar.