Waspada Scam Metode Voice Spoofing, Bisa Tiru Suara Keluarga
Kejahatan siber makin canggih dengan semakin berkembangnya teknologi kecerdasan buatan (AI). Salah satu yang semakin marak adalah AI Voice Spoofing.
AI Voice Spoofing merupakan metode scam menggunakan AI, untuk mengkloning dan menipu melalui telepon maupun pesan suara. Teknologi ini mampu meniru suara seseorang hanya dengan menggunakan beberapa detik sampel audio.
Modus ini dikenal dengan istilah Vishing (Voice Phishing), prosesnya cukup singkat scammer akan menelepon korban, begitu tersambung mereka akan merekam 3-10 detik. Suara tersebut kemudian diolah AI menjadi versi digital, setelah itu pelaku akan menelepon orang terdekat korban untuk meminta uang atau data.
Google sebelumnya mengeksplorasi penggunaan kecerdasan buatan generatif (generative AI) oleh aktor ancaman dalam kampanye phishing dan operasi informasi (IO).
Mereka menganalisis bagaimana penipu menggunakan kecerdasan buatan generatif (gen AI) untuk menciptakan konten yang lebih meyakinkan, seperti gambar dan video.
Melansir Google Cloud, mereka membagikan wawasan tentang cara penipu menggunakan model bahasa besar (LLMs) untuk mengembangkan malware. Google menekankan bahwa meskipun penipu tertarik pada AI generatif, penggunaannya masih relatif terbatas.
Penelitian awal mengulas taktik, teknik, dan prosedur (TTP) kecerdasan buatan (AI) yang baru, serta tren yang sedang berkembang.
Salah satu kasus besar yang pernah terjadi adalah kasus pencurian yang menargetkan sebuah perusahaan multinasional di Hong Kong. Dalam kasus itu, pencuri berhasil menggondol lebih dari HK$200 juta (Rp430 miliar) menggunakan kloning suara dan deepfake.
Tim Merah Mandiant dari Google kemudian menggunakan taktik tersebut dalam sebuah simulasi serangan untuk menguji ketahanan organisasi.
Hasilnya, mereka menemukan tanda-tanda respons yang dihasilkan oleh AI meliputi jeda yang canggung sebelum menjawab telepon, nada suara yang terlalu stabil, respons yang tidak alami, serta penundaan atau distorsi yang halus. Terakhir, terdapat ketidakmampuan untuk menjawab pertanyaan-pertanyaan spesifik.
Beberapa perusahaan mengklaim bahwa penyalahgunaan alat mereka dapat menimbulkan konsekuensi serius.
"Kami menyadari potensi penyalahgunaan alat yang sangat kuat ini dan telah menerapkan langkah-langkah pengamanan yang kuat untuk mencegah pembuatan deepfake dan melindungi dari peniruan suara," kata juru bicara Resemble AI dalam pernyataan tertulis, melansir NBC News, Rabu (19/11).
Menurut Sarah Myers West, co-executive director dari AI Now Institute, sebuah lembaga think tank yang fokus pada konsekuensi kebijakan AI, teknologi ini juga memiliki potensi besar untuk menimbulkan bahaya.
"Ini jelas dapat digunakan untuk penipuan, penipuan, dan disinformasi, misalnya dengan menyamar sebagai tokoh institusi," kata West.
Banyak korban tidak sadar karena telah dicuri suaranya, korban cenderung mudah percaya dengan suara familiar menjadikan pelaku memanfaatkan momen tersebut.
(wpj/dmi)