Kecerdasan Buatan Makin Ngeri, Kini Muncul Dark AI

CNN Indonesia
Minggu, 10 Agu 2025 10:00 WIB
Perusahaan keamanan siber Kaspersky mengimbau masyarakat untuk waspada terhadap kecerdasan buatan gelap atau Dark AI.
Ilustrasi. Perusahaan keamanan siber Kaspersky mengimbau masyarakat untuk waspada terhadap kecerdasan buatan gelap atau Dark AI. (Foto: REUTERS/DADO RUVIC)
Jakarta, CNN Indonesia --

Perusahaan keamanan siber Kaspersky mengimbau masyarakat untuk waspada terhadap kecerdasan buatan gelap atau Dark AI yang menjadi dalang serangan siber canggih.

Kaspersky menyebut Dark AI merupakan salah satu temuan utama mereka baru-baru ini. Mereka memaparkan bagaimana penyerang menggunakan teknologi AI untuk melancarkan ancaman digital di seluruh dunia, mulai dari serangan phishing sederhana hingga spionase siber yang didukung negara.

"Sejak ChatGPT mendapatkan popularitas global pada tahun 2023, kami telah mengamati beberapa adopsi AI yang bermanfaat, mulai dari tugas-tugas sederhana seperti pembuatan video hingga deteksi dan analisis ancaman teknis," kata Sergey Lozhkin, Kepala Tim Riset Analisis Global (GReAT) untuk META dan APAC di Kaspersky dalam sebuah keterangan, Selasa (5/8).

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

"Di saat yang sama, pelaku kejahatan siber menggunakannya untuk meningkatkan kemampuan serangan mereka. Kita memasuki era keamanan siber dan masyarakat di mana AI adalah perisai dan Dark AI adalah pedangnya," lanjutnya.

AI gelap atau Dark AI mengacu pada penerapan model bahasa besar (LLM) lokal atau jarak jauh yang tidak dibatasi dalam kerangka kerja penuh atau sistem chatbot yang digunakan untuk tujuan berbahaya, tidak etis, atau tidak sah.

Sistem ini beroperasi di luar kendali keamanan, kepatuhan, atau tata kelola standar, yang seringkali memungkinkan kemampuan seperti penipuan, manipulasi, serangan siber, atau penyalahgunaan data tanpa pengawasan.

Menurut Lozhkin, penggunaan AI berbahaya yang paling umum dan terkenal saat ini adalah dalam bentuk Black Hat GPT, yang muncul sejak pertengahan 2023. Ini adalah model AI yang sengaja dibuat, dimodifikasi, atau digunakan untuk melakukan aktivitas yang tidak etis, ilegal, atau berbahaya.

Aktivitas tersebut di antaranya menghasilkan kode berbahaya, merancang email phishing yang lancar dan persuasif untuk serangan massal maupun tertarget, membuat deepfake suara dan video, dan bahkan mendukung operasi Red Team.

Black Hat GPT dapat hadir berupa model AI privat atau semi-privat. Contoh yang diketahui antara lain WormGPT, DarkBard, FraudGPT, dan Xanthorox, yang dirancang atau diadaptasi untuk mendukung kejahatan siber, penipuan, dan otomatisasi berbahaya.

Selain penggunaan Dark AI yang umum, Lozhkin menjelaskan bahwa para ahli Kaspersky kini mengamati tren yang lebih gelap, yakni aktor negara memanfaatkan LLM dalam kampanye mereka.

OpenAI baru-baru ini mengungkapkan telah menggagalkan lebih dari 20 operasi siber terselubung yang mencoba menyalahgunakan perangkat AI-nya.

Laporan OpenAI mengungkapkan bahwa para pelaku kejahatan siber telah menggunakan LLM untuk menciptakan persona palsu yang meyakinkan, merespons target secara real-time, dan menghasilkan konten multibahasa yang dirancang untuk menipu korban dan menerobos filter keamanan tradisional.

"AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah. Bahkan ketika perlindungan telah diterapkan, kita tahu APT adalah penyerang yang gigih," kata Lozhkin.

"Seiring dengan semakin mudah diakses dan mumpuninya perangkat dark AI, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat higiene keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi," pungkasnya.

(lom/dmi)


[Gambas:Video CNN]
LAINNYA DI DETIKNETWORK
LIVE REPORT
TERPOPULER