Seperti diberitakan TechInAsia, 'Akamai menambahkan ribuan GPU Nvidia untuk platform inferensi AI' merupakan langkah strategis terbaru yang signifikan. Perusahaan tersebut menegaskan penambahan ribuan unit GPU Nvidia khusus untuk mendukung platform inferensi kecerdasan buatan secara menyeluruh dan luas. Langkah ini menjadi fokus utama dalam pengembangan kapasitas pemrosesan data mereka saat ini untuk jangka panjang yang berkelanjutan. Keputusan strategis tersebut langsung diumumkan melalui saluran berita teknologi terpercaya kepada publik luas dan investor.
Konfigurasi perangkat keras yang diterapkan melibatkan kombinasi spesifik antara unit pemrosesan grafis dan unit pemrosesan data canggih terkini. Akamai memilih Nvidia BlueField-3 DPUs untuk bekerja berdampingan dengan RTX PRO 6000 GPUs dalam sistem server mereka yang baru. Integrasi kedua komponen ini dirancang khusus untuk menangani beban kerja kecerdasan buatan yang kompleks dan sangat berat. Penggunaan teknologi ganda ini menunjukkan standar tinggi dalam arsitektur server yang dibangun oleh tim teknis internal.
Fokus utama dari pengadaan perangkat keras ini terletak pada optimalisasi AI workloads di seluruh jaringan distribusi konten yang ada. Platform inferensi yang dikembangkan memerlukan dukungan daya komputasi yang sangat besar dan stabil tanpa henti sedikitpun. Ribuan unit yang ditambahkan akan menjadi tulang punggung operasional layanan baru tersebut di berbagai wilayah operasional. Ketersediaan infrastruktur ini memungkinkan pemrosesan tugas kecerdasan buatan berjalan lebih efisien dan cepat bagi pengguna.
Baca juga: Pelacak TechInAsia Soroti Pendanaan Teknologi India
Kombinasi Teknologi Nvidia dalam Sistem Akamai
Pemilihan Nvidia BlueField-3 DPUs alongside RTX PRO 6000 GPUs bukan tanpa alasan teknis yang mendasar dan kuat. Sinergi antara DPU dan GPU menciptakan lingkungan komputasi yang terintegrasi penuh untuk kebutuhan klien korporat besar. Setiap unit bekerja secara simultan untuk memastikan aliran data tidak mengalami hambatan signifikan selama operasi berjalan. Arsitektur ini menjadi kunci utama dalam menjaga kinerja platform inferensi tetap optimal di bawah tekanan tinggi.
Skalabilitas untuk Beban Kerja Kecerdasan Buatan
Penambahan ribuan GPU menandakan kesiapan Akamai menghadapi lonjakan permintaan layanan kecerdasan buatan dari pasar internasional. Kapasitas yang tersedia kini jauh lebih besar dibandingkan konfigurasi infrastruktur sebelumnya yang pernah deployed oleh perusahaan. Skalabilitas ini penting untuk menjaga kestabilan layanan saat volume pekerjaan meningkat drastis mendadak tanpa peringatan. Investasi perangkat keras ini langsung menyasar peningkatan kemampuan pemrosesan data real-time untuk pengguna akhir.
Dampak langsung dari langkah ini terlihat pada peningkatan kapasitas layanan platform inferensi AI secara signifikan dan nyata segera. Klien kini memiliki akses ke sumber daya komputasi yang lebih besar untuk menjalankan model mereka sendiri dengan lancar. Infrastruktur yang diperkuat dengan teknologi Nvidia ini siap mendukung berbagai aplikasi kecerdasan buatan modern yang berkembang. Akamai memastikan ketersediaan layanan tetap terjaga melalui penambahan perangkat keras masif ini secara berkelanjutan dan terukur.
Baca juga: AWS dan Cerebras Klaim Inferensi AI 10 Kali Lebih Cepat
