Ainesia
Startup & Bisnis AI

Dnotitia Kumpulkan $61,2 Juta: Apa Artinya untuk Infrastruktur AI Global?

Startup Korea Selatan Dnotitia raup $61,2 juta untuk database vektor Seahorse dan chip VDPU. Bagaimana teknologi ini mengubah logistik data AI — dan mengapa Indonesia belum siap menyusul?

(1 jam yang lalu)
4 menit baca
Tech Expo Booth: Dnotitia Kumpulkan $61,2 Juta: Apa Artinya untuk Infrastruktur AI Global?
Ilustrasi Dnotitia Kumpulkan $61,2 Juta: Apa Artinya untuk Infrastrukt.

Bagaimana sebuah startup kecil di Seoul bisa menarik investasi hampir Rp900 miliar hanya dalam satu putaran pendanaan, padahal belum menjual produk ke pasar konsumen massal?

Jawabannya terletak pada dua komponen kritis yang selama ini jadi titik lemah infrastruktur AI global: penyimpanan data vektor berkecepatan tinggi dan pemrosesan data non-relasional tanpa beban CPU. Dnotitia, startup Korea Selatan yang berdiri sejak 2021, baru saja menyelesaikan putaran Seri A senilai $61,2 juta — angka yang melampaui rata-rata pendanaan Seri A untuk startup infrastruktur AI di Asia Tenggara (sekitar $28 juta menurut laporan TechInAsia tahun lalu). Dana ini dipimpin oleh Sequoia Capital China dan termasuk partisipasi dari SK Hynix, raksasa semikonduktor lokal.

Baca juga: Siapa Pemain Utama Biotech China yang Mengguncang Rantai Nilai Global?

Apa itu Seahorse dan VDPU?

Seahorse tidak hanya database vektor biasa. Ia dirancang khusus untuk menangani *query* serentak dari ribuan model bahasa kecil (small LLM) yang berjalan paralel — skenario umum di pusat data enterprise dan platform SaaS berbasis AI. Berbeda dengan Pinecone atau Weaviate yang mengandalkan layer abstraksi tinggi, Seahorse memanfaatkan arsitektur *memory-mapped indexing* berbasis RDMA (Remote Direct Memory Access), sehingga latensi pencarian turun hingga 43% dibanding solusi open-source terbaik saat ini. Sementara VDPU (Vector Data Processing Unit) adalah chip khusus ASIC yang dikembangkan Dnotitia sendiri, bukan GPU generik. Chip ini tidak menjalankan inferensi model, tapi juga mengoptimalkan tiga operasi inti: normalisasi vektor, kuantisasi adaptif 4-bit, dan nearest-neighbor search — semua dalam satu pipeline tanpa perlu transfer data ke RAM utama.

TechInAsia melaporkan bahwa Dnotitia telah menguji VDPU bersama tiga bank besar di Korea Selatan dan satu operator telekomunikasi nasional, dengan hasil pengurangan konsumsi daya 67% per query dibandingkan sistem berbasis NVIDIA A100. Ini bukan soal kecepatan semata, tapi efisiensi energi — faktor penentu biaya operasional jangka panjang di pusat data.

Baca juga: Mercedes Pakai Chip Nvidia untuk Mobil Otonom di Korea Selatan

Mengapa Ini Penting

Tren ini menunjukkan pergeseran strategis dalam rantai pasok AI: dari fokus pada model ke fokus pada *data pipeline*. Selama ini, startup dan perusahaan Indonesia banyak mengandalkan layanan cloud global (AWS, GCP, Azure) untuk vector database dan inference. Mereka membayar premium untuk bandwidth, latency, dan lisensi software — tanpa kendali atas optimasi hardware. Dnotitia membuktikan bahwa nilai tambah terbesar tidak lagi ada di lapisan aplikasi, tapi di lapisan *data infrastructure stack* yang spesifik dan terintegrasi. Kompetitor seperti Vespa (Yahoo), Milvus (Zilliz), dan bahkan Google Vertex AI Vector Search masih beroperasi di level software atau hybrid cloud. Dnotitia justru membangun *full-stack vertical*: chip → firmware → database → SDK — dengan satu tujuan: memotong overhead antar-lapisan.

Di Indonesia, ekosistem AI masih sangat terfragmentasi. Startup seperti Kata.ai atau Binar Academy menggunakan Pinecone atau ChromaDB, sementara pemerintah mengandalkan layanan cloud asing untuk proyek seperti Sistem Informasi Geografis Nasional berbasis AI. Belum ada startup lokal yang berani mengembangkan chip khusus atau database vektor berbasis hardware — bukan karena kurang ide, tapi karena keterbatasan akses ke fabrikasi semikonduktor, regulasi impor komponen, dan minimnya insentif riset infrastruktur dasar. Padahal, menurut data Kemenperin 2023, konsumsi listrik pusat data di Indonesia tumbuh 22% per tahun — dan 58% di antaranya berasal dari operasi penyimpanan dan pencarian data non-struktural.

Yang lebih mencolok: Dnotitia tidak menargetkan pasar konsumen. Pelanggan awal mereka adalah B2B enterprise dengan *on-premise* deployment — model bisnis yang justru cocok untuk instansi pemerintah dan BUMN di Indonesia yang mengutamakan kedaulatan data. Namun, regulasi seperti Peraturan Menteri Kominfo No. 5/2020 tentang Penyelenggara Sistem Elektronik masih memprioritaskan audit keamanan daripada interoperabilitas teknis, sehingga adopsi solusi seperti Seahorse tetap terhambat oleh proses sertifikasi yang panjang dan tidak berbasis standar teknis terbuka.

Dilansir TechInAsia, Dnotitia berencana membuka kantor representasi di Singapura pada Q3 2024 — bukan untuk ekspansi langsung ke Indonesia, melainkan sebagai *gateway* bagi pelanggan regional yang ingin menghindari ketergantungan pada vendor AS. Ini membuka celah: apakah Indonesia akan menjadi pasar sekunder, atau justru tertinggal dalam race infrastruktur AI generasi berikutnya?

Fakta tambahan yang mengejutkan: VDPU Dnotitia tidak menggunakan arsitektur RISC-V atau ARM seperti kebanyakan chip AI startup lain. Ia dibangun di atas instruksi kustom bernama *VISA* (Vector Instruction Set Architecture), yang dirancang agar kompatibel dengan compiler LLVM versi 16 — artinya, developer bisa menulis kode C++ biasa dan mengompilasinya langsung ke VDPU tanpa harus belajar bahasa assembly khusus. Ini mengurangi *learning curve* hingga 70% dibandingkan chip AI lain di kelasnya.

Dapatkan berita terbaru langsung di inbox Anda

Bagikan artikel ini

Komentar