Aktual.co.id – Center for Countering Digital Hate (CCDH) menerbitkan temuannya. Organisasi nirlaba Inggris ini mendasarkan temuannya pada sampel acak 20.000 gambar Grok dari tanggal 29 Desember hingga 9 Januari.
CCDH mengekstrapolasi perkiraan yang lebih luas berdasarkan 4,6 juta gambar yang dihasilkan Grok selama periode tersebut.
Penelitian tersebut mendefinisikan gambar yang mengandung unsur seksual sebagai gambar dengan penggambaran fotorealistik seseorang dalam posisi, sudut, atau situasi sensual; seseorang yang mengenakan pakaian dalam, pakaian renang, atau pakaian yang serupa dan terbuka.
”CCDH tidak memperhitungkan petunjuk gambar, sehingga perkiraan tersebut tidak membedakan antara versi seksualisasi tanpa persetujuan dari foto asli dan versi yang dihasilkan secara eksklusif dari petunjuk teks,” ungkap lembaga tersebut seperti dikutip engatged.
CCDH menggunakan alat AI untuk mengidentifikasi proporsi gambar yang diambil sampelnya yang bersifat seksual. Hal itu mungkin memerlukan kehati-hatian dalam menafsirkan temuannya. Namun, saya diberitahu bahwa banyak layanan analitik pihak ketiga untuk X memiliki data yang andal karena mereka menggunakan API platform tersebut.
Pada tanggal 9 Januari, xAI membatasi kemampuan Grok untuk mengedit gambar yang sudah ada hanya untuk pengguna berbayar. Lima hari kemudian, X membatasi kemampuan Grok untuk menelanjangi orang sungguhan secara digital .
Namun pembatasan itu hanya berlaku untuk X; aplikasi Grok yang berdiri sendiri dilaporkan terus menghasilkan gambar-gambar ini.
Karena Apple dan Google menampung aplikasi-aplikasi tersebut, yang secara eksplisit dilarang dalam kebijakan mereka, banyak yang berharap menghapusnya dari toko aplikasinya.
Sejauh ini, Apple milik Tim Cook dan Google milik Sundar Pichai belum menghapus Grok dari toko aplikasi mereka tapi seperti aplikasi pengolahan ketelanjangan serupa dari pengembang lain.
Perusahaan-perusahaan tersebut tidak mengambil tindakan apa pun terhadap X saat aplikasi tersebut memproduksi gambar-gambar tersebut.
Hal ini terjadi meskipun 28 kelompok perempuan telah menerbitkan surat terbuka yang menyerukan agar perusahaan-perusahaan tersebut bertindak tegas kepada X.
Secara total, 29 persen dari gambar-gambar seksual anak yang diidentifikasi dalam sampel masih dapat diakses di X hingga 15 Januari.
Penelitian menemukan bahwa setelah unggahan dihapus, gambar-gambar tersebut tetap dapat diakses melalui URL langsungnya. (ndi/engatged)
