Ainesia
Startup & Bisnis AI

Amodei Temui Gedung Putih Saat Mythos Jadi Sorotan Global

CEO Anthropic Dario Amodei bertemu pejabat Gedung Putih saat model AI Mythos dikaji risiko oleh AS, Kanada, Inggris, dan sektor perbankan. Apa artinya bagi regulasi AI global — dan Indonesia?

(1 hari yang lalu)
4 menit baca
Smartphone with Anthropic logo: Amodei Temui Gedung Putih Saat Mythos Jadi Sorotan Global
Ilustrasi Amodei Temui Gedung Putih Saat Mythos Jadi Sorotan Global.

"Kami tidak membangun sistem yang bisa menggantikan manusia dalam pengambilan keputusan kritis — kami membangun alat yang memperkuat akuntabilitas, transparansi, dan kontrol manusia." Kalimat itu, diucapkan Dario Amodei dalam wawancara terbatas awal 2024, menjadi latar belakang penting dari pertemuan tertutupnya dengan pejabat Gedung Putih pekan lalu. Pertemuan ini bukan sekadar agenda diplomasi teknologi biasa: ia terjadi tepat ketika tiga negara anggota Five Eyes — Amerika Serikat, Kanada, dan Inggris ; bersama regulator perbankan utama Eropa dan Asia mulai mengkaji ulang risiko sistem Anthropic Mythos secara paralel.

Mengapa Mythos Memicu Kajian Bersama?

Mythos bukan model bahasa generik seperti Llama atau Gemini. Ia dirancang khusus untuk tugas berbasis *reasoning* tingkat tinggi dalam domain keuangan, hukum, dan kebijakan publik — termasuk simulasi dampak kebijakan fiskal, analisis klaim asuransi kompleks, dan verifikasi otomatis dokumen regulasi lintas yurisdiksi. Menurut laporan TechInAsia, versi beta Mythos telah diuji oleh tiga bank multinasional di Singapura dan London, dengan satu lembaga melaporkan penurunan 37% waktu proses due diligence kredit korporasi. Namun justru keunggulan itu memicu kekhawatiran: semakin presisi Mythos dalam meniru logika manusia, semakin sulit mendeteksi bias implisit dalam pelatihannya — terutama pada data keuangan historis yang sarat ketimpangan struktural.

Baca juga: Peta Pemain E-commerce China: Siapa yang Mengendalikan 1,4 Miliar Konsumen?

Yang membuat kajian ini tak biasa adalah koordinasinya. Biasanya, evaluasi risiko model AI dilakukan secara nasional atau sektoral. Kali ini, Bank of England, Office of the Superintendent of Financial Institutions (OSFI) Kanada, dan Federal Reserve AS membentuk kelompok kerja teknis bersama — sebuah langkah tanpa preseden sejak panduan AI OECD 2022. Fokus utamanya: apakah Mythos bisa memperkuat *systemic risk* jika digunakan serentak oleh banyak institusi dalam simulasi skenario makroekonomi yang saling terkait.

Konteks Indonesia

Bagi Indonesia, pertemuan Amodei-Gedung Putih bukan soal jarak geografis, tapi soal momentum regulasi. Otoritas Jasa Keuangan (OJK) baru saja menerbitkan panduan sementara pemanfaatan AI di industri keuangan pada April 2024 — namun panduan itu belum menyebut spesifikasi teknis model seperti Mythos, apalagi mekanisme audit *cross-jurisdictional*. Padahal, tiga bank BUMN dan dua fintech besar sedang menjajaki uji coba model reasoning berbasis *constitutional AI*, mirip arsitektur Mythos. Tanpa kerangka pengujian bersama seperti yang dikembangkan Five Eyes, risiko fragmentasi standar akan meningkat: satu bank mengandalkan Mythos untuk penilaian kredit UMKM, sementara OJK menilainya tidak memenuhi prinsip *explainability* Pasal 12 POJK No. 12/2023.

Baca juga: Startup Israel Raih $38,7 Miliar: Apa yang Bisa Dipelajari Indonesia?

Lebih krusial lagi, Indonesia belum memiliki mekanisme *third-party red teaming* bersertifikasi untuk model AI tingkat tinggi. Di AS, NIST sudah menguji Mythos dengan tim independen dari MITRE dan Stanford; di Inggris, Bank of England mensyaratkan audit oleh entitas terdaftar di Financial Conduct Authority. Sementara di Indonesia, audit AI masih bergantung pada internal tim TI bank atau konsultan umum — tanpa standar teknis spesifik untuk model *reasoning*-berat. Ini bukan soal keterlambatan, tapi soal prioritas: apakah kita ingin mengatur AI sebagai *tool*, atau sebagai *actor* dalam rantai keputusan keuangan nasional?

Dilansir TechInAsia, Anthropic sendiri menolak menyebut Mythos sebagai 'model keuangan', melainkan 'sistem pendukung keputusan berbasis aturan konstitusional'. Pembedaan terminologis ini penting: ia memengaruhi klasifikasi regulasi. Jika dikategorikan sebagai *decision-support system*, Mythos bisa lolos dari ketentuan ketat seperti *automated credit scoring* di POJK. Tapi jika digunakan untuk menentukan *credit limit* otomatis berdasarkan simulasi risiko makro, batas antara 'dukungan' dan 'pengambilan keputusan' menjadi kabur — dan di sinilah celah regulasi Indonesia paling rentan.

Industri startup AI lokal juga terdampak. Perusahaan seperti Akseleran AI dan Qoala Labs sedang mengembangkan model serupa untuk underwriting asuransi mikro dan pemantauan kredit desa. Mereka tidak punya akses ke infrastruktur verifikasi seperti yang dimiliki Anthropic. Jika regulasi global semakin menuntut transparansi arsitektur *reasoning*, startup Indonesia berisiko terpinggirkan bukan karena kualitas teknis, tapi karena ketiadaan ekosistem audit yang diakui internasional.

Pertemuan Amodei di Washington bukan tentang persetujuan, tapi tentang definisi: siapa yang menentukan batas antara bantuan teknis dan otonomi sistem? Dan ketika batas itu kabur, siapa yang bertanggung jawab — insinyur, regulator, atau direktur risiko bank? Jawaban atas pertanyaan itu sedang ditulis di ruang rapat Gedung Putih, di kantor OJK Jakarta, dan di server pusat data startup Bandung — secara bersamaan, tanpa koordinasi.

Bagaimana Indonesia seharusnya merespons tekanan regulasi global yang semakin terpusat pada model AI berbasis *reasoning*, sementara kapasitas audit teknis nasional masih terbatas dan kerangka hukum belum sepenuhnya adaptif?

Dapatkan berita terbaru langsung di inbox Anda

Bagikan artikel ini

Komentar

Anthropic Mythos dan Regulasi AI di Indonesia - Ainesia