"Kami merasa tidak masuk akal bagi kami untuk membuat komitmen sepihak jika pesaing terus melesat," ujar Jared Kaplan, kepala ilmuwan Anthropic, dalam sebuah wawancara dengan majalah Time. Pernyataan ini menjadi dasar pembenaran perusahaan pembuat Claude tersebut saat memutuskan melonggarkan standar keselamatan kecerdasan buatan yang selama ini mereka junjung tinggi. Keputusan kontroversial ini diambil tepat pada hari yang sama ketika berita mengenai tekanan keras dari Menteri Pertahanan Amerika Serikat, Pete Hegseth, terhadap Anthropic mulai beredar luas di publik.
Dua peristiwa yang terjadi secara beriringan pada Selasa itu menggambarkan situasi genting bagi industri teknologi. Di satu sisi, Hegseth dilaporkan mendesak Anthropic agar menyerahkan akses tanpa batas terhadap model AI Claude untuk kepentingan militer. Di sisi lain, perusahaan tersebut secara resmi memodifikasi Kebijakan Penskalaan Bertanggung Jawab atau Responsible Scaling Policy (RSP) mereka. Sebelumnya, inti dari janji Anthropic adalah menghentikan pelatihan model AI baru kecuali pedoman keselamatan spesifik dapat dijamin terlebih dahulu. Kebijakan yang menetapkan batasan tegas ini merupakan bagian utama dari daya tarik Anthropic bagi kalangan bisnis dan konsumen.
Pergeseran dari Garis Merah ke Laporan Risiko
Dalam evaluasi jujur mereka setelah dua setengah tahun beroperasi, Anthropic mengakui bahwa beberapa bagian dari teori perubahan mereka berjalan sesuai harapan, namun bagian lainnya gagal. Akibatnya, kebijakan terbaru mereka mendekati isu keselamatan secara relatif, bukan lagi dengan garis merah yang kaku. Sebagai pengganti mekanisme penghentian otomatis atau tripwires sebelumnya, Anthropic akan menerapkan "Laporan Risiko" dan "Peta Jalan Keselamatan Frontier". Model pengungkapan informasi ini dirancang untuk memberikan transparansi kepada publik sebagai ganti batasan mutlak yang dulu diterapkan.
Baca juga: ByteDance Bekukan Peluncuran Global AI Video Seedance 2.0
Perusahaan beralasan bahwa perubahan ini didorong oleh masalah aksi kolektif yang muncul akibat lanskap kompetisi AI yang ketat serta pendekatan anti-regulasi di Amerika Serikat. Dokumen RSP baru menyatakan bahwa jika satu pengembang AI menghentikan pengembangan untuk menerapkan langkah keselamatan sementara pihak lain terus maju tanpa mitigasi kuat, hasilnya justru dunia yang kurang aman. Mereka berargumen bahwa pengembang dengan perlindungan terlemahlah yang akan menentukan kecepatan industri, sehingga pengembang yang bertanggung jawab akan kehilangan kemampuan melakukan riset keselamatan dan memajukan manfaat publik.
Konteks finansial juga memainkan peran penting dalam narasi ini. Pada Februari lalu, Anthropic berhasil mengumpulkan dana investasi baru sebesar 30 miliar dolar AS, yang mendorong valuasi perusahaan mencapai angka fantastis 380 miliar dolar AS. Angka ini masih kalah dibandingkan rival utamanya, OpenAI, yang saat ini memiliki valuasi lebih dari 850 miliar dolar AS. Versi terbaru dari Claude sendiri telah menerima pujian luas, khususnya dalam kemampuan pemrograman kode komputer. Namun, skeptisisme muncul bahwa etika sebuah startup panas cenderung semakin abu-abu seiring melambungnya nilai perusahaan, mengingatkan pada mantra lama Google "Don't be evil" yang akhirnya dihapus dari kode etik mereka.
Ultimatum Pentagon dan Dilema Etika Militer
Meskipun pernyataan Anthropic terdengar masuk akal jika berdiri sendiri, ada faktor eksternal yang tidak disebutkan secara eksplisit dalam pengumuman mereka maupun eksklusif Time: kampanye tekanan dari Pentagon. Laporan dari Axios mengungkapkan bahwa Menteri Pertahanan Pete Hegseth memberi tenggat waktu hingga hari Jumat kepada CEO Anthropic, Dario Amodei. Ultimatum tersebut menuntut perusahaan memberikan akses tak terbatas bagi militer terhadap model AI mereka atau menghadapi sanksi berat. Perusahaan dikabarkan menawarkan untuk mengadopsi kebijakan penggunaan khusus untuk Pentagon, namun tetap menolak jika model tersebut digunakan untuk pengawasan massal warga Amerika atau senjata yang menembak tanpa keterlibatan manusia.
Baca juga: Spotify Taste Profile: Pengguna Kini Kendalikan Algoritma Musik
Jika Anthropic tidak menyerah, para ahli menilai opsi terbaik mereka adalah menempuh jalur hukum. Namun, pertanyaan besarnya adalah apakah ancaman hukuman dari Pentagon cukup untuk menakuti startup yang berorientasi laba agar patuh. Ancaman Hegseth reportedly mencakup pemanfaatan Undang-Undang Produksi Pertahanan atau Defense Production Act. Regulasi ini memberikan wewenang kepada presiden untuk mengarahkan perusahaan swasta memprioritaskan kontrak tertentu demi pertahanan nasional. Selain itu, militer berpotensi memutus kontrak dengan Anthropic dan men designate perusahaan tersebut sebagai risiko rantai pasok. Tindakan ini akan memaksa perusahaan lain yang bekerja dengan Pentagon untuk memastikan bahwa Claude tidak termasuk dalam alur kerja mereka.
Saat ini, Claude merupakan satu-satunya model AI yang digunakan untuk pekerjaan paling sensitif milik militer. Seorang pejabat pertahanan mengaku kepada Axios bahwa alasan utama mereka masih bernegosiasi adalah karena kebutuhan mendesak akan kualitas teknologi tersebut. "Satu-satunya alasan kami masih berbicara dengan orang-orang ini adalah karena kami membutuhkan mereka dan kami membutuhkannya sekarang," kata pejabat tersebut. "Masalah bagi mereka adalah mereka begitu bagus." Teknologi ini bahkan dilaporkan digunakan dalam operasi penyerbuan terhadap Maduro di Venezuela, sebuah topik yang disebut-sebut diangkat Amodei dalam diskusi dengan mitra mereka, Palantir.
Menanggapi perubahan kebijakan RSP ini, Chris Painter, direktur dari organisasi nirlaba METR yang fokus pada risiko AI, memberikan pandangan campuran. Ia mengapresiasi penekanan baru pada pelaporan risiko yang transparan dan peta jalan keselamatan yang dapat diverifikasi publik. Namun, Painter juga menyuarakan kekhawatiran bahwa fleksibilitas RSP yang lebih longgar dapat memicu efek "merebus katak". Istilah ini menggambarkan situasi di mana keselamatan menjadi area abu-abu, memungkinkan serangkaian rasionalisasi tanpa akhir yang perlahan-lahan membawa perusahaan menuju jalan gelap yang pernah mereka kutuk sebelumnya.
Painter menilai perubahan ini menunjukkan bahwa Anthropic merasa perlu beralih ke mode triase dalam rencana keselamatan mereka. Hal ini terjadi karena metode untuk menilai dan memitigasi risiko tidak mampu mengejar kecepatan peningkatan kapabilitas AI. Situasi ini menjadi bukti tambahan bahwa masyarakat global belum siap menghadapi potensi risiko bencana yang ditimbulkan oleh kecerdasan buatan. Ketidakmampuan metode penilaian risiko untuk mengimbangi laju inovasi menciptakan celah berbahaya yang dimanfaatkan oleh tekanan geopolitik dan kompetisi pasar.
Langkah Anthropic ini menandai momen kritis di mana prinsip-prinsip awal benturan dengan realitas kekuasaan negara dan dinamika pasar. Apakah kompromi ini akan menyelamatkan posisi mereka di hadapan pemerintah atau justru membuka pintu bagi penyalahgunaan teknologi yang lebih luas? Masa depan tata kelola AI mungkin bergantung pada bagaimana ketegangan antara keamanan nasional dan etika teknologi ini diselesaikan dalam minggu-minggu mendatang.
Sebagai penutup, kekhawatiran mendalam tentang arah baru industri ini terangkum dalam analisis Chris Painter mengenai kondisi kesiapan sosial kita. Ia menegaskan, "Ini adalah bukti lebih lanjut bahwa masyarakat tidak siap untuk potensi risiko bencana yang ditimbulkan oleh AI."
