Teknologi kecerdasan buatan atau artificial intelligence (AI) berkembang makin pesat setiap harinya. Namun begitu perkembangan AI tak melulu membawa manfaat bagi manusia, tapi sebaliknya bisa mengancam.
Terbaru, muncul teknologi Dark AI yang menjadi dalang serangan siber canggih di berbagai belahan dunia. Apa itu Dark AI?
Kaspersky, perusahaan keamanan siber asal Rusia, menjelaskan bahwa AI gelap atau Dark AI mengacu pada penerapan model bahasa besar (LLM) lokal atau jarak jauh yang tidak dibatasi dalam kerangka kerja penuh atau sistem chatbot yang digunakan untuk tujuan berbahaya, tidak etis, atau tidak sah.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Sistem ini beroperasi di luar kendali keamanan, kepatuhan, atau tata kelola standar, yang seringkali memungkinkan kemampuan seperti penipuan, manipulasi, serangan siber, atau penyalahgunaan data tanpa pengawasan.
Sergey Lozhkin, Kepala Tim Riset Analisis Global (GReAT) untuk META dan APAC di Kaspersky, mengatakan pnggunaan AI berbahaya yang paling umum dan terkenal saat ini adalah dalam bentuk Black Hat GPT. Akal imitasi ini muncul sejak pertengahan 2023.
Kasperksy, dalam keterangan tertulisnya, mengatakan bahwa teknologi ini adalah model AI yang sengaja dibuat, dimodifikasi, atau digunakan untuk melakukan aktivitas yang tidak etis, ilegal, atau berbahaya.
Aktivitas tersebut di antaranya menghasilkan kode berbahaya, merancang email phishing yang lancar dan persuasif untuk serangan massal maupun tertarget, membuat deepfake suara dan video, dan bahkan mendukung operasi Red Team.
Black Hat GPT dapat hadir berupa model AI privat atau semi-privat. Contoh yang diketahui antara lain WormGPT, DarkBard, FraudGPT, dan Xanthorox, yang dirancang atau diadaptasi untuk mendukung kejahatan siber, penipuan, dan otomatisasi berbahaya.
Selain penggunaan Dark AI yang umum, Lozhkin menjelaskan bahwa para ahli Kaspersky kini mengamati tren yang lebih gelap, yakni aktor negara memanfaatkan LLM dalam kampanye mereka.
OpenAI baru-baru ini mengungkapkan telah menggagalkan lebih dari 20 operasi siber terselubung yang mencoba menyalahgunakan perangkat AI-nya.
Laporan OpenAI mengungkapkan bahwa para pelaku kejahatan siber telah menggunakan LLM untuk menciptakan persona palsu yang meyakinkan, merespons target secara real-time, dan menghasilkan konten multibahasa yang dirancang untuk menipu korban dan menerobos filter keamanan tradisional.
"AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah. Bahkan ketika perlindungan telah diterapkan, kita tahu APT adalah penyerang yang gigih," kata Lozhkin.
"Seiring dengan semakin mudah diakses dan mumpuninya perangkat dark AI, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat higiene keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi," pungkasnya.