Sisi Gelap Kecerdasan Buatan Dark AI yang Bikin Cemas

CNN Indonesia
Selasa, 12 Agu 2025 08:30 WIB
Dark AI memungkinkan untuk disalahgunakan untuk tujuan tidak etis dan merugikan seperti pembuatan malware, wording-an email phishing yang bahasanya sangat meyakinkan, sampai deepfake atau manipulasi video dan suara palsu untuk kejahatan penipuan. iStockphoto
Jakarta, CNN Indonesia --

Perusahaan keamanan siber Kaspersky memberi peringatan soal ancaman Dark AI atau kecerdasan buatan yang bertujuan untuk merancang kejahatan digital.

Kecerdasan buatan saat ini makin marak dimanfaatkan oleh peretas untuk melakukan serangan siber. Bentuknya beragam, mulai dari penipuan secara online bahkan hingga spionase yang melibatkan informasi-informasi rahasia suatu negara.

Kepala Tim Riset Analisis Global Kaspersky untuk META dan APAC, Sergey Lozhkin, menjelaskan kalau Dark AI menggunakan model bahasa besar (large language model/LLM) yang dioperasikan tanpa pengawasan khusus dan tanpa perangkat aturan tertentu.

Sebagai akibatnya, Dark AI memungkinkan untuk disalahgunakan untuk tujuan tidak etis dan merugikan seperti pembuatan malware, wording-an email phishing yang bahasanya sangat meyakinkan, sampai deepfake atau manipulasi video dan suara palsu untuk kejahatan penipuan.

Kondisi ini disebut Lozhkin sebagai keadaan yang mana AI di satu sisi membantu berbagai aspek manajemen keamanan di dunia digital tetapi di sisi lain juga jadi antitesis untuk menyerangnya.

"Kita memasuki era di mana AI bisa jadi perisai, tapi Dark AI adalah pedangnya," ujar Lozhkin dalam keterangan resmi dikutip, Selasa (11/8).

Contoh Dark AI yang saat ini sedang populer adalah Black Hat GPT yang telah dimodifikasi sedemikian rupa untuk kejahatan digital. Selain itu, Dark AI lain muncul sejak tahun 2023 yang meliputi WormGPT, DarkBard, FraudGPT, dan Xanthorox.

Beberapa contoh tadi amat luwes untuk melancarkan kejahatan digital seperti penipuan, peretasan, dan operasi siber otomatis lainnya.

Pelakunya bukan kelompok kriminal biasa

Menurut Kaspersky, kelompok yang memanfaatkan Dark AI bukan individu-individu melainkan kelompok kriminal. Bukan hanya kelompok biasa, ada kecenderungan pemanfaatan Dark AI digunakan untuk operasi siber yang rumit.

Apa yang Kaspersky temukan ternyata senada dengan laporan dari OpenAI yang mengklaim telah memblokir lebih dari 20 aktivitas tidak biasa yang terindikasi memanfaatkan platform mereka untuk tujuan kejahatan siber.

Dalam menjalankan modus operandinya, kelompok kriminal ini pun membungkus identitas palsu mereka dengan cukup rapi. Mereka bahkan dapat berkontak secara real-time dengan korban dan merancang konten-konten mereka dalam berbagai bahasa untuk bisa menembus filter keamanan konvensional.

Hal yang menjadi kunci masalah menurut Lozhkin adalah bahwa AI ini tidak memiliki set moral dan etika untuk membedakan baik buruk intensi dari prompt yang diberikan. Kecerdasan buatan hanya punya orientasi utama untuk mematuhi perintah.

"AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah. Bahkan ketika perlindungan telah diterapkan, kita tahu APT adalah penyerang yang gigih," kata Lozhkin.

"Seiring dengan semakin mudah diakses dan mumpuninya perangkat dark AI, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat higiene keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi," pungkasnya.

(job/mik)


KOMENTAR

ARTIKEL TERKAIT
TOPIK TERKAIT
TERPOPULER
LAINNYA DARI DETIKNETWORK