Bayangkan seorang insinyur kecerdasan buatan di kantor Meta di Menlo Park sedang menulis kode untuk model bahasa baru. Ia mengetik cepat, menghapus tiga baris, lalu menyalin blok fungsi dari dokumentasi internal. Di balik layarnya, sistem tak terlihat mencatat setiap ketukan, jeda, arah gerak kursor, bahkan waktu tunda sebelum menekan tombol Enter. Data itu tak hanya disimpan — ia dikirim ke pipeline pelatihan AI perusahaan.
Apa yang Sebenarnya Dilakukan Meta?
Menurut laporan TechCrunch AI, Meta telah mengembangkan alat internal bernama 'Keystroke Logger for Internal Tooling' (nama tidak resmi, tetapi digunakan secara luas dalam dokumen internal) yang mengumpulkan data interaksi manusia dengan komputer — termasuk keystrokes, klik mouse, scroll, dan durasi fokus pada jendela tertentu. Data ini kemudian diproses tanpa identifikasi pribadi, tapi tetap mempertahankan pola perilaku kerja: urutan penulisan kode, cara debugging, atau bahkan kebiasaan menyalin-tempel dari repositori internal. Tujuannya eksplisit: meningkatkan akurasi model AI seperti Code Llama dan Llama 3 dalam konteks pengembangan perangkat lunak skala besar.
Baca juga: Amazon Tanam $5 Miliar di Anthropic, Dapat Janji Belanja Cloud $100 Miliar
Tidak ada klaim bahwa data ini diekspor ke luar infrastruktur Meta atau digunakan untuk iklan. Namun, prosesnya berbeda dari praktik umum pelatihan AI saat ini. Mayoritas model besar dilatih dari data publik — GitHub, Wikipedia, forum teknis — bukan dari aktivitas langsung karyawan. Meta justru memilih jalur yang lebih intim: belajar dari cara timnya sendiri bekerja. Dalam satu eksperimen internal, model yang dilatih dengan data keystroke menunjukkan peningkatan 17% dalam akurasi prediksi langkah coding berikutnya dibanding versi pelatihan konvensional.
Mengapa Ini Penting
Langkah Meta bukan sekadar inovasi teknis — ia menandai pergeseran strategis dalam ekosistem pelatihan AI: dari eksternal ke internal, dari pasif ke aktif, dari anonim ke kontekstual. Perusahaan teknologi kini tak lagi puas hanya menggali data publik yang bisa diakses pesaing. Mereka mulai membangun *behavioral data moats*: benteng kompetitif berbasis pola kerja unik tim intinya. Google dan Microsoft sudah lama menggunakan telemetry internal untuk meningkatkan tools seperti VS Code dan Gemini for Workspace, tetapi Meta adalah yang pertama secara transparan mengonfirmasi penggunaan keystroke mentah sebagai bahan pelatihan model foundation.
Baca juga: StrictlyVC San Francisco 2024: Ketika VC Global Bertemu Startup AI di Tengah Tekanan Likuiditas
Ini juga menguji batas etika baru. Di AS, undang-undang seperti Electronic Communications Privacy Act (ECPA) membolehkan pemantauan internal selama karyawan diberi pemberitahuan dan persetujuan eksplisit. Meta menyatakan semua karyawan menerima notifikasi dalam paket onboarding dan dapat memilih keluar dari pengumpulan data spesifik ini. Namun, pilihan 'keluar' berarti kehilangan akses ke fitur AI-assisted coding yang semakin terintegrasi dalam alur kerja harian — sebuah bentuk *consent friction* yang nyaris memaksa partisipasi.
Di sisi lain, risiko kebocoran tetap nyata. Pada 2023, Meta mengalami insiden keamanan internal di mana 600 ribu baris kode dan catatan desain sistem AI bocor ke forum teknis. Jika data keystroke suatu hari terkompromi, bukan hanya kode yang terekspos — tapi juga logika berpikir, kelemahan debugging, dan bahkan kebiasaan keamanan karyawan. Itu level intelijen operasional yang jauh lebih berbahaya daripada kebocoran data statis.
Konteks Indonesia
Bagi Indonesia, praktik seperti ini belum berlaku — tapi bukan berarti aman dari dampaknya. Startup lokal seperti Tokopedia dan GoTo sudah mengembangkan asisten AI internal berbasis Llama 3, dan beberapa tim engineering mereka menggunakan tooling serupa untuk analisis produktivitas. Namun, regulasi perlindungan data pribadi di Indonesia masih lemah dalam mengatur *behavioral monitoring*. UU PDP No. 27/2022 mengatur pengumpulan data pribadi, tetapi tidak secara eksplisit menyebut keystroke atau telemetry kerja sebagai 'data sensitif'. Padahal, dalam praktik HRD di Jakarta atau Bandung, banyak perusahaan teknologi sudah menerapkan software monitoring seperti Hubstaff atau Time Doctor — tanpa transparansi penuh soal bagaimana data itu diproses atau disimpan.
Yang lebih mendesak: kurangnya talenta AI-etika di Tanah Air. Menurut survei Asosiasi Profesi Teknologi Informasi Indonesia (APTIKI) 2024, hanya 12% perusahaan teknologi lokal memiliki posisi khusus Chief AI Ethics Officer atau tim compliance AI. Sementara itu, 78% startup fase awal mengakui menggunakan data internal untuk fine-tuning model tanpa audit eksternal. Meta mungkin punya tim hukum dan etika ratusan orang — Indonesia belum punya kerangka pelatihan atau sertifikasi nasional untuk profesi semacam itu.
Sejarah menunjukkan bahwa inovasi teknologi sering kali masuk ke Indonesia lewat pintu belakang: melalui integrasi tools global, bukan kebijakan lokal. Ketika GitHub Copilot mulai populer di kampus-kampus IT Bandung dan Yogyakarta pada 2022, mahasiswa tak tahu bahwa model di baliknya dilatih dari kode publik — termasuk proyek open-source milik mahasiswa itu sendiri. Kini, risiko berikutnya bukan hanya soal data publik, tapi soal data kerja pribadi yang direkam tanpa sadar — dan tanpa perlindungan hukum yang memadai.
Tahun 2013, Facebook (kini Meta) sempat menghadapi protes global setelah mengungkap eksperimen psikologis terkontrol pada 689 ribu pengguna tanpa persetujuan eksplisit — mengubah algoritma feed untuk menguji dampak emosi. Saat itu, banyak pihak menganggapnya sebagai batas terakhir. Ternyata, itu baru permulaan. Sekarang, batasnya bukan lagi di luar platform — tapi di dalam keyboard karyawan sendiri. Dan kali ini, tak ada eksperimen tersembunyi. Semua terjadi di bawah nama 'peningkatan produktivitas', dengan izin tertulis ; tapi tanpa pemahaman penuh tentang apa yang benar-benar sedang dilatih.
