Saran Pakar Agar Tak Jadi Korban Manipulasi Foto Grok AI di X
Chairman Lembaga Riset Keamanan Siber dan Komunikasi CISSReC Pratama Persadha memberikan saran agar pengguna tak menjadi korban manipulasi foto cabul Grok AI yang sedang marak.
"Sebagai pengguna, langkah mitigasi yang bisa dilakukan untuk mengurangi kemungkinan gambar yang diunggah menjadi bahan eksploitasi oleh Grok AI atau sistem serupa melibatkan keseimbangan antara proteksi teknis dan perilaku digital yang bijak," katanya kepada CNNIndonesia.com, Selasa (6/1).
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Secara individu,pengguna dapat meninjau pengaturan privasi di platform sosial media untuk membatasi siapa yang dapat melihat foto mereka.
Menurutnya, semakin kecil audiens, semakin kecil kemungkinan foto tersebut disalahgunakan oleh pihak lain untuk proses prompt ke AI.
Ia juga menyarankan pengguna menahan diri untuk tidak memposting foto bersifat sangat pribadi atau sensitif secara terbuka juga meminimalisir risiko foto tersebut diambil oleh model AI.
Secara teknis, ketika tersedia, pengguna dapat menggunakan alat-alat proteksi identitas atau metadata yang dapat membantu mempersulit model AI dalam mengenali fitur wajah secara langsung.
Namun demikian, teknologi ini masih dalam tahap pengembangan dan belum menjadi solusi definitif dalam mencegah deepfake.
"Secara lebih luas, pelaporan cepat terhadap konten manipulatif yang ditemukan kepada platform dan otoritas yang relevan, serta meningkatkan kesadaran komunitas terhadap ancaman konten deepfake, juga merupakan bagian penting dari strategi mitigasi," katanya.
Ia mengatakan semua upaya tersebut hanya memberikan lapisan perlindungan. Pada akhirnya, tantangan besar terletak pada bagaimana platform dan regulator mengembangkan sistem yang lebih bertanggung jawab dan protektif terhadap eksploitasi identitas digital di era AI.
Sebelumnya, Grok AI mendapat kritik keras karena menghasilkan dan mempublikasikan gambar seksual yang dibuat melalui permintaan pengguna di platform X, termasuk gambar yang menampilkan perempuan dan bahkan anak-anak dalam pakaian minim atau keadaan sugestif.
Fenomena Grok AI yang "menanggapi" tag dan permintaan pengguna untuk memodifikasi gambar, termasuk permintaan yang menyuruh bot tersebut "mengurangi pakaian" dari subjek dalam foto, telah memicu sorotan serius dari otoritas di berbagai negara.
Regulator di Inggris, Uni Eropa, India, Prancis, dan Malaysia telah mengecam atau membuka investigasi terhadap penggunaan Grok untuk membuat konten yang secara etis dan dalam banyak kasus secara hukum tidak dapat dibenarkan.
Kritik ini mencakup gambar yang menunjukkan anak-anak secara sugestif, yang dikategorikan sebagai materi eksploitasi seksual anak AI-generated, sesuatu yang jelas ilegal di banyak yurisdiksi.
Sudut pandang keamanan siber
Dari sudut pandang keamanan siber, Pratama melihat masalah Grok AI di ranah risiko privasi, consent, dan perlindungan identitas digital individu.
Menurutnya, teknologi kecerdasan buatan yang mampu memanipulasi gambar dengan tingkat realisme tinggi menghadirkan ancaman serius ketika digunakan untuk menghasilkan materi yang melanggar hak dan kehormatan seseorang.
"Ancaman semacam ini tidak sebatas pada satu individu, tetapi dapat mengarah pada eksploitasi digital, penghinaan publik, intimidasi berbasis gender, dan dalam kasus ekstrem, penyebaran materi ilegal seperti eksploitasi seksual anak," tuturnya.
Penggunaan AI untuk memodifikasi foto orang lain tanpa izin disebutnya mengikis kepercayaan dasar pengguna terhadap platform digital modern serta memperluas celah ancaman siber dari sekadar pencurian data menjadi pelanggaran identitas personal dan hak asasi digital.
Secara teknis, Pratama menyebut sistem guardrail atau pengendalian konten pada Grok AI gagal memfilter permintaan pembuatan konten seksual eksplisit yang melibatkan identitas pengguna nyata karena beberapa faktor desain dan kebijakan.
Grok, yang dibangun dengan model generatif gambar seperti Aurora, disebutnya memiliki batasan moderasi yang lebih longgar dibandingkan model AI serupa dari kompetitor besar lain yang memiliki kontrol NSFW (Not Safe For Work) yang lebih ketat.
"Grok bahkan dilaporkan memiliki "Spicy Mode" yang secara eksplisit mengizinkan konten sugestif dewasa, sementara kebijakan yang seharusnya mencegah manipulasi citra nyata tidak cukup kuat atau mudah dipahami sistemnya oleh model ketika dipicu oleh permintaan pengguna," terang Pratama.
"Oleh karena itu, kombinasi dari definisi moderasi yang lebih permisif, desain guardrail yang rapuh, serta kurangnya filter konseptual yang efektif terhadap konten yang memanfaatkan foto nyata membuat bot dapat mematuhi permintaan meskipun bertentangan dengan prinsip consent dan hukum," tambahnya.
(lom/dmi)[Gambas:Video CNN]


