Empat editor senior termasuk Nilay Patel menjadi subjek uji coba fitur kecerdasan buatan tanpa persetujuan eksplisit dari pihak mereka dalam sistem Superhuman. Laporan awal muncul pada Rabu lalu melalui media Wired yang menyoroti banyak penulis terkenal terdampak kebijakan kontroversial ini secara luas. Penemuan tersebut terjadi minggu lalu ketika rekan kerja menyadari identitas mereka dipakai secara sepihak oleh sistem otomatis perusahaan. Angka empat nama spesifik ini hanyalah sebagian kecil dari daftar panjang pengguna yang tidak menyadari perubahan kebijakan privasi mendadak.
Fitur baru bernama Expert Review memanfaatkan reputasi manusia untuk meningkatkan kepercayaan pada saran mesin secara signifikan di mata pengguna. Sistem ini menempelkan nama asli penulis pada saran yang sebenarnya dihasilkan sepenuhnya oleh algoritma komputer tanpa campur tangan manusia. Tujuannya jelas, yakni memberikan kredibilitas pada saran AI yang sebenarnya tidak layak mereka dapatkan menurut standar editorial profesional. Penulis asli tidak pernah dimintai izin sebelum nama mereka muncul dalam sistem distribusi konten digital tersebut.
Grammarly akhirnya menanggapi gelombang protes yang muncul setelah kasus ini terungkap ke permukaan publik secara luas dan viral. Perusahaan tidak memilih jalan untuk meminta maaf atas tindakan penggunaan data identitas tersebut kepada para penulis terdampak secara langsung. Mereka juga tidak menarik kembali fitur yang sudah terlanjur aktif digunakan oleh publik global sejak peluncuran perdana. Langkah yang diambil hanyalah memberikan kesempatan bagi pengguna untuk memilih keluar dari sistem yang sudah berjalan.
Baca juga: ByteDance Bekukan Peluncuran Global AI Video Seedance 2.0
Respons Perusahaan Terhadap Kritik Publik
Pengguna kini dihadapkan pada situasi harus menonaktifkan fitur yang awalnya tidak mereka ketahui keberadaannya sama sekali sebelum berita ini rilis. Mekanisme opt-out ini membebankan tanggung jawab privasi sepenuhnya pada pemilik akun individu yang mungkin tidak sadar. Banyak pihak menilai langkah ini kurang memadai mengingat sensitivitas data identitas pribadi dalam era konektivitas tinggi saat ini. Perusahaan teknologi sering kali meluncurkan fitur terlebih dahulu sebelum memikirkan konsekuensi etisnya bagi pengguna setia mereka.
Implikasi Kredibilitas dan Etika Digital
Penggunaan nama manusia untuk memvalidasi output mesin menciptakan ilusi keakuratan yang berbahaya bagi pembaca setia yang mengandalkan saran tulisan. David Pierce dan Tom Warren adalah contoh nyata profesional yang identitasnya dipakai untuk tujuan komersial ini tanpa negosiasi préalable. Kredibilitas yang dibangun di atas nama mereka sebenarnya tidak deserved atau tidak layak diberikan pada saran otomatis semata demi keuntungan platform. Hal ini berpotensi menyesatkan pengguna akhir yang mengira saran tersebut telah ditinjau langsung oleh manusia ahli di bidangnya.
Insiden ini melanjutkan rekam jejak panjang industri teknologi yang kerap mengabaikan persetujuan pengguna demi inovasi cepat dan agresif. Pola meluncurkan fitur kontroversial lalu memberikan opsi keluar setelah protes muncul sudah menjadi sejarah berulang di sektor perangkat lunak ini. Konsumen sering kali berada di posisi reaktif melawan kebijakan yang sudah terimplementasi secara diam-diam oleh pengembang aplikasi. Sejarah menunjukkan perubahan nyata biasanya terjadi hanya setelah tekanan publik mencapai titik kritis yang memaksa evaluasi ulang kebijakan.
Baca juga: Spotify Taste Profile: Pengguna Kini Kendalikan Algoritma Musik
