Pusat Keamanan Siber Nasional Inggris (NCSC) memperingatkan kecerdasan buatan (AI) berpotensi digunakan penjahat siber untuk memeras korbannya secara online. Simak bahayanya.
NCSC menjelaskan penjahat siber sudah menggunakan AI untuk berbagai tujuan, dan fenomena ini diperkirakan akan memburuk dalam dua tahun ke depan, membantu meningkatkan volume dan tingkat keparahan serangan siber.
NCSC percaya AI akan memungkinkan pelaku serangan yang tidak berpengalaman, peretas yang disewa, dan peretas dengan keterampilan rendah untuk melakukan serangan yang lebih efektif dan disesuaikan yang jika tidak, akan membutuhkan waktu, pengetahuan teknis, dan upaya operasional yang signifikan.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Sebagian besar platform model pembelajaran besar (LLM) yang tersedia, seperti ChatGPT dan Bing Chat, memiliki perlindungan yang mencegah platform tersebut membuat konten berbahaya.
Namun, NCSC memperingatkan para penjahat siber membuat dan memasarkan layanan AI generatif khusus yang dirancang khusus untuk mendukung aktivitas kriminal. Contohnya termasuk WormGPT, layanan LLM berbayar yang memungkinkan pelaku kejahatan siber menghasilkan konten berbahaya, termasuk malware dan umpan phishing.
Hal ini menunjukkan teknologi ini telah keluar dari batasan kerangka kerja yang terkendali dan aman, sehingga dapat diakses dalam ekosistem kriminal yang lebih luas.
"Pelaku ancaman, termasuk pelaku ransomware, sudah menggunakan AI untuk meningkatkan efisiensi dan efektivitas aspek operasi siber, seperti pengintaian, phishing, dan pengkodean," ujar NCSC, mengutip Bleeping Computer, Kamis (25/1).
"Tren ini hampir pasti akan terus berlanjut hingga tahun 2025 dan seterusnya."
Laporan tersebut mencatat bahwa peran AI dalam lanskap risiko siber diperkirakan akan bersifat evolusioner, meningkatkan ancaman yang ada, bukan transformatif.
Untuk APT yang canggih, NCSC percaya AI akan membantu mereka menghasilkan malware khusus yang dapat mengelabui dengan lebih mudah dan lebih cepat.
"AI memiliki potensi untuk menghasilkan malware yang dapat menghindari deteksi oleh filter keamanan saat ini, tetapi hanya jika dilatih dengan data eksploitasi yang berkualitas," jelas NCSC
"Ada kemungkinan realistis bahwa negara yang sangat berkemampuan tinggi memiliki repositori malware yang cukup besar untuk melatih model AI secara efektif untuk tujuan ini."
Peretas level menengah akan mendapatkan keuntungan terutama dalam pengintaian, rekayasa sosial, dan ekstraksi data, sedangkan pelaku ancaman yang kurang terampil akan melihat peningkatan di seluruh bidang, kecuali dalam pergerakan lateral, yang tetap menantang.
"AI kemungkinan besar akan membantu pengembangan malware dan eksploitasi, penelitian kerentanan, dan pergerakan lateral dengan membuat teknik yang ada menjadi lebih efisien," bunyi analisis tersebut.
"Namun, dalam waktu dekat, area ini akan terus bergantung pada keahlian manusia, yang berarti bahwa peningkatan terbatas apa pun kemungkinan besar akan terbatas pada pelaku ancaman yang sudah ada dan sudah mampu."
Secara keseluruhan, NCSC memperingatkan bahwa AI generatif dan model bahasa yang besar akan sangat menantang bagi semua orang, terlepas dari pengalaman dan tingkat keahliannya, untuk mengidentifikasi upaya phishing, spoofing, dan rekayasa sosial.
(tim/dmi)