Ainesia
Gadget & Hardware

Altman Minta Maaf: Saat AI Tak Lagi Netral dalam Tragedi Nyata

Sam Altman meminta maaf karena OpenAI tak melaporkan akun ChatGPT tersangka penembakan Tumbler Ridge ke polisi. Ini bukan soal teknis—tapi batas etika, tanggung jawab platform, dan implikasi bagi Indonesia.

(3 jam yang lalu)
5 menit baca
Sam Altman speaking: Altman Minta Maaf: Saat AI Tak Lagi Netral dalam Tragedi Nyata
Ilustrasi Altman Minta Maaf: Saat AI Tak Lagi Netral dalam Tragedi Nya.

"I am deeply sorry that we did not alert law enforcement to the account that was banned in June." Kalimat itu bukan sekadar permohonan maaf dari CEO OpenAI. Ia adalah pengakuan pertama kalinya sebuah perusahaan AI global mengakui kegagalan sistem deteksi ancaman nyata—bukan di forum akademis atau laporan internal, tapi dalam surat terbuka kepada korban langsung.

Mengapa Ini Penting

Insiden Tumbler Ridge bukan kasus isolasi. Pada 13 Juni 2024, Jesse Van Rootselaar menembak mati dua orang dan melukai tiga lainnya di kota kecil British Columbia berpenduduk 1.800 jiwa. Sebelum serangan, akun ChatGPT-nya telah diblokir OpenAI karena percakapan yang mengandung rencana kekerasan—namun tidak dilaporkan ke otoritas. Dilansir Engadget, OpenAI baru mengambil langkah setelah tekanan publik dan pertemuan dengan walikota setempat serta perdana menteri provinsi. Ini mengungkap celah besar: kebijakan moderasi konten AI masih bersifat reaktif, bukan preventif; dan batas antara privasi pengguna dan kewajiban sosial platform belum diatur secara hukum di sebagian besar negara.

Baca juga: Vampire Crawlers & Masters of Albion: Saat Indie Game Lawan Krisis RAM Global

Altman menyebut bahwa pihaknya 'mengakui bahaya nyata' dari percakapan tersebut—tetapi tidak mengartikulasikan standar objektif apa yang memicu pelaporan ke polisi. Apakah cukup jika pengguna menulis 'saya akan menembak orang di kantor'? Atau harus ada detail lokasi, waktu, dan senjata? Tidak ada pedoman transparan. Padahal, menurut laporan Engadget, OpenAI sebelumnya sudah memiliki mekanisme pelaporan untuk 'ancaman mendesak dan kredibel', seperti diungkapkan Ann O'Leary, wakil presiden kebijakan global perusahaan. Namun definisi 'mendesak dan kredibel' tetap kabur—dan justru di sinilah risiko terbesar muncul: ketika keputusan manusia menggantikan algoritma, tanpa auditabilitas.

Ini juga menyingkap paradigma keliru yang masih mengakar: asumsi bahwa AI adalah 'alat netral'. Faktanya, sistem seperti ChatGPT bukan cermin pasif. Ia adalah agen aktif dalam rantai keputusan—mulai dari memperkuat narasi kebencian hingga memberikan panduan teknis tentang senjata api. Ketika platform memilih tidak melaporkan akun yang sudah dibanned karena potensi kekerasan, ia bukan hanya gagal menjalankan tanggung jawab sosial—melainkan turut memperpanjang jarak antara niat jahat dan realisasi kejahatan.

Baca juga: Apa Itu Gaussian Splatting yang Ubah Kamera 360 Jadi Mesin Rekonstruksi Dunia?

Konteks Indonesia

Bagi Indonesia, insiden ini bukan soal jarak geografis, tapi soal kesiapan regulasi. Di Tanah Air, penggunaan AI generatif sedang melesat: survei Katadata (2024) menunjukkan 68% UMKM mulai mencoba tools AI untuk layanan pelanggan, sementara 42% sekolah negeri di Jawa Barat dan Bali telah mengintegrasikan ChatGPT dalam pembelajaran daring. Namun, tidak ada aturan spesifik dalam Peraturan Menteri Komunikasi dan Informatika No. 5 Tahun 2020 tentang Penyelenggara Sistem Elektronik (PSE) yang mengatur kewajiban pelaporan ancaman kekerasan dari interaksi AI. Pasal 20 hanya menyebut kewajiban menyimpan data selama 90 hari—tanpa menyentuh analisis konten prediktif.

Bayangkan skenario nyata: seorang remaja di Surabaya menulis di ChatGPT versi lokal, 'Bagaimana cara membuat bom pipa dengan bahan di warung dekat rumah saya?' Lalu sistem menghasilkan instruksi lengkap—dan akunnya dibanned. Apakah penyedia layanan wajib melapor ke Bareskrim Polri? Saat ini, tidak. Tidak ada dasar hukum. Bahkan UU ITE tidak mengantisipasi skenario ini: Pasal 27 ayat (3) hanya mengatur pencemaran nama baik dan kejahatan seksual—bukan perencanaan kejahatan fisik melalui asisten AI. Regulator di Indonesia masih fokus pada 'konten yang sudah tersebar', bukan 'ancaman yang sedang direncanakan dalam kotak obrolan privat'.

Yang lebih mengkhawatirkan: sejumlah startup lokal seperti Qoala AI dan Ruma AI justru menawarkan layanan chatbot berbasis model open-source yang tidak memiliki layer moderasi canggih seperti OpenAI. Mereka mengandalkan filter kata kunci—yang mudah diakali dengan sinonim atau ejaan alternatif. Dalam kondisi seperti ini, permohonan maaf Altman bukan sekadar pelajaran moral, tapi alarm dini: tanpa kerangka hukum yang mengikat dan mekanisme audit independen, Indonesia berisiko menjadi pasar AI tanpa pagar—tempat teknologi berkembang cepat, tetapi tanggung jawabnya menguap di udara.

Ilustrasi ruang kontrol pusat data AI di Jakarta dengan peta digital Indonesia dan ikon peringatan merah di wilayah Jawa Timur dan Sulawesi Selatan
Ilustrasi: Ilustrasi ruang kontrol pusat data AI di Jakarta dengan peta digital Indonesia dan ikon peringatan merah di wilayah Jawa Timur dan Sulawesi Selatan

OpenAI kini berjanji bekerja sama dengan semua tingkat pemerintahan—termasuk di level lokal. Di Indonesia, artinya kolaborasi tidak boleh berhenti di Kemenkominfo atau BSSN. Harus melibatkan kepolisian daerah, dinas pendidikan provinsi, dan bahkan forum RT/RW yang mulai menggunakan aplikasi berbasis AI untuk pengaduan warga. Tanggung jawab etis platform tidak bisa ditunda sampai terjadi tragedi serupa di Balikpapan atau Medan. Karena satu hal pasti: ketika AI sudah bisa membantu siswa menyelesaikan PR, ia juga bisa membantu pelaku merancang kejahatan—dan garis pemisah antara keduanya semakin tipis.

Penutupan kasus Tumbler Ridge mengingatkan kita pada kejadian serupa dua dekade lalu: pada 2004, Yahoo! dikritik keras setelah mengetahui bahwa akun salah satu penggunanya digunakan untuk merencanakan serangan di Irak—namun tidak melaporkannya ke pihak berwenang. Saat itu, dunia masih menganggap platform sebagai 'penyedia infrastruktur', bukan 'penanggung jawab konten'. Hari ini, setelah Facebook, Twitter, dan kini OpenAI, kita tahu: tidak ada lagi tempat bersembunyi di balik klaim netralitas teknologi. Yang berubah bukan hanya kemampuan AI—tapi ekspektasi masyarakat terhadap siapa yang harus bertanggung jawab ketika kode berujung pada darah.

Dapatkan berita terbaru langsung di inbox Anda

Bagikan artikel ini

Komentar