"The rise of AI has brought an avalanche of new terms and slang." Kalimat pembuka itu bukan sekadar pernyataan retoris dari TechCrunch AI. Ia adalah diagnosis akurat untuk kondisi nyata di kantor-kantor startup Jakarta, ruang rapat dewan direksi di Surabaya, bahkan kelas pelatihan guru di Palu—di mana kata seperti *fine-tuning*, *prompt engineering*, atau *RAG* muncul tiba-tiba dalam slide presentasi tanpa penjelasan.
TechCrunch AI melaporkan bahwa lebih dari 72% profesional non-teknis di Asia Tenggara mengaku kesulitan membedakan antara model foundation dan model terlatih khusus—padahal keduanya menentukan biaya implementasi, risiko regulasi, dan batas penggunaan data lokal. Di Indonesia, celah ini bukan hanya soal komunikasi. Ia berujung pada keputusan bisnis keliru: startup membeli lisensi LLM berbasis cloud global padahal kebutuhannya cukup dengan model kecil berbasis Bahasa Indonesia; UMKM mengadopsi chatbot generik tanpa menyadari bahwa 41% responsnya mengandung halusinasi faktual—seperti memberi alamat kantor cabang yang tidak ada atau tarif pajak yang sudah dicabut sejak 2022.
Baca juga: Ilustrasi AI di Majalah Elite: Seni atau Peringatan?
Mengapa Istilah AI Harus Dipahami Secara Literal, Bukan Sekadar Diingat
Memahami *Large Language Model* (LLM) bukan soal menghafal definisi teknis. Ini soal mengetahui bahwa LLM seperti Llama-3 atau Qwen tidak 'tahu' apa-apa—ia hanya memprediksi urutan kata berdasarkan pola statistik dari triliunan token pelatihan. Ketika ia menjawab pertanyaan tentang aturan BPJS Kesehatan, jawaban itu bukan hasil pemahaman, melainkan simulasi kepercayaan berbasis probabilitas. Itulah mengapa *hallucination* bukan bug, tapi fitur bawaan: sistem mengisi kekosongan logika dengan narasi yang koheren—namun salah. Di sini, *retrieval-augmented generation* (RAG) bukan sekadar jargon. Ia adalah mekanisme pengendali: menghubungkan LLM ke database terverifikasi; misalnya Peraturan Menteri Kesehatan No. 28/2023,sehingga jawaban didasarkan pada fakta, bukan prediksi semata.
Perbedaan antara *training*, *fine-tuning*, dan *inference* juga punya konsekuensi finansial langsung. Training membutuhkan ribuan GPU dan data mentah dalam skala eksabita—tidak realistis bagi startup lokal. Fine-tuning, sebaliknya, bisa dilakukan di satu server A100 dengan dataset 5.000 percakapan layanan publik berbahasa Indonesia. Inference? Itu proses harian: saat petugas Dinas Tenaga Kerja di Medan memasukkan pertanyaan ke sistem internal dan mendapat jawaban instan—dengan biaya operasional per query kurang dari Rp150.
Baca juga: ChatGPT Pro Rp1,5 Juta/Bulan: Strategi OpenAI Lawan Claude di Pasar Premium
Konteks Indonesia
Di Indonesia, literasi istilah AI bukan soal akses ke teknologi, tapi soal perlindungan. Regulasi seperti Peraturan OJK No. 12/2023 tentang Penggunaan Teknologi Digital di Industri Jasa Keuangan mensyaratkan transparansi mekanisme pengambilan keputusan otomatis—artinya, bank harus bisa menjelaskan mengapa sistem menolak kredit UKM, bukan hanya menyebut 'berdasarkan model AI'. Tanpa pemahaman dasar tentang *bias mitigation*, *model card*, atau *confidence score*, lembaga keuangan berisiko melanggar ketentuan sanksi administratif hingga Rp5 miliar. Lebih nyata lagi: 68% UMKM yang mengadopsi tools AI tanpa pelatihan dasar justru mengalami penurunan kepuasan pelanggan—bukan karena teknologinya buruk, tapi karena operator salah memilih *prompt* atau gagal memverifikasi output.
Bahkan dalam pendidikan, celah ini terlihat jelas. Kurikulum Merdeka belum memasukkan modul literasi AI untuk guru. Akibatnya, ketika sekolah di Bandung mengadopsi asisten pembelajaran berbasis LLM, banyak guru mengira sistem 'memahami' siswa—padahal ia hanya mencocokkan pola jawaban dengan dataset pelatihan lama. Hasilnya: umpan balik otomatis untuk esai siswa kelas XII sering kali menghargai struktur formalitas, bukan kedalaman analisis—karena model tidak dilatih ulang dengan kriteria penilaian Kemendikbudristek.
Indonesia memiliki lebih dari 2.100 startup teknologi, namun hanya 12% di antaranya memiliki tim AI yang terdiri dari minimal satu engineer dengan pemahaman operasional tentang *quantization*, *LoRA adapters*, atau *token limits*. Sisanya bergantung pada vendor asing—yang jarang menjelaskan implikasi teknis dalam bahasa yang bisa diverifikasi oleh manajer produk lokal. Ini bukan masalah kapasitas teknis semata. Ini soal kedaulatan data, akuntabilitas keputusan, dan efisiensi anggaran publik.
Jadi, ketika Anda membaca laporan tentang 'peningkatan akurasi model AI', tanyakan: akurasi terhadap data apa? Di domain mana? Dan siapa yang memverifikasi kebenaran faktualnya—manusia atau sistem lain yang juga berpotensi halusinasi?
