Prediksi Tren AI 2026: Lebih Canggih, Deepfake Makin Sulit Dikenali

CNN Indonesia
Rabu, 14 Jan 2026 06:45 WIB
Kaspersky memprediksi dampak AI pada keamanan siber 2026, termasuk deepfake dan analisis keamanan. Asia Pasifik jadi model inovasi AI yang dinamis.
Ilustrasi. Kaspersky memprediksi dampak AI pada keamanan siber 2026, termasuk deepfake dan analisis keamanan. Asia Pasifik jadi model inovasi AI yang dinamis. (Foto: istockphoto/Userba011d64_201)
Daftar Isi
Jakarta, CNN Indonesia --

Perusahaan keamanan siber Kaspersky memprediksi beberapa dampak kecerdasan buatan (AI) terhadap lanskap keamanan siber di 2026, mulai dari perkembangan deepfake hingga fungsi AI sebagai alat analisis keamanan.

Di kawasan Asia Pasifik, 78 persen profesional dalam survei Boston Consulting Group (BCG) sudah menggunakan AI setidaknya setiap pekan, dibandingkan dengan 72 persen secara global. Hal ini menunjukkan adopsi AI yang cepat dan luas di kawasan Asia Pasifik dalam alur kerja sehari-hari.

Namun, yang benar-benar membedakan Asia Pasifik adalah bagaimana AI berakar. Di kawasan ini, adopsi meningkat didukung oleh konsumen yang sangat terhubung, penetrasi perangkat yang masif, serta populasi muda yang melek teknologi yang mengintegrasikan AI ke dalam pengalaman sehari-hari mereka jauh sebelum banyak perusahaan secara resmi meluncurkannya.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Momentum ini diperkuat oleh investasi yang kuat, strategi yang dipimpin CEO, dan perkembangan pesat pasar digital, mengubah Asia Pasifik menjadi tempat AI paling dinamis di dunia, tempat perusahaan AI Frontier lahir dan tempat masa depan transformasi perusahaan muncul pertama kali.

Percepatan adopsi AI ini tak hanya berdampak bagi pengguna dan perusahaan, tetapi pada lanskap keamanan siber.

Bagi para pemimpin keamanan siber, posisi Asia Pasifik di bidang inovasi AI menjadikannya model sekaligus peringatan. Teknologi yang sama yang mendorong transformasi bisnis, tetapi juga mendefinisikan ulang bagaimana ancaman siber dibuat, diotomatisasi, dan disebarkan.

"AI membentuk kembali keamanan siber dari kedua sisi. Penyerang menggunakannya untuk mengotomatiskan serangan, mengeksploitasi kerentanan, dan membuat konten palsu yang sangat meyakinkan. Pada saat yang sama, pihak pertahanan menerapkan AI untuk memindai sistem, mendeteksi ancaman, dan membuat keputusan yang lebih cepat dan cerdas," ujar Vladislav Tushkanov, Manajer Grup Pengembangan Riset di Kaspersky dalam keterangannya, Senin (12/1).

"AI adalah alat yang ampuh untuk serangan dan pertahanan, dan kemampuan untuk mengelolanya dengan aman pasti akan memengaruhi masa depan keamanan siber," tambahnya.

Para ahli Kaspersky menguraikan bagaimana perkembangan AI membentuk kembali lanskap keamanan siber pada 2026, baik untuk pengguna individu maupun bisnis.

LLM (Learning and Learning Models) disebut memengaruhi kemampuan pertahanan sekaligus memperluas peluang bagi pelaku ancaman. Berikut prediksi dampak AI terhadap lanskap keamanan siber pada 2026:

1. Deepfake menjadi mainstream

Perusahaan semakin banyak membahas risiko konten sintetis dan melatih karyawan untuk mengurangi kemungkinan menjadi korban. Seiring bertambahnya volume deepfake, semakin beragam pula format kemunculannya.

Pada saat yang sama, kesadaran meningkat tidak hanya di dalam organisasi tetapi juga di antara pengguna biasa. End user lebih sering
menemukan konten palsu dan lebih memahami sifat ancaman tersebut. Akibatnya, deepfake menjadi elemen tetap dalam agenda keamanan, yang membutuhkan pendekatan sistematis untuk pelatihan dan kebijakan internal.

2. Kualitas deepfake meningkat

Kualitas visual deepfake sudah tinggi, sementara kualitas audio diperkirakan akan terus tumbuh. Pada saat yang sama, alat pembuatan konten menjadi lebih mudah digunakan, bahkan non-ahli pun sekarang dapat membuat deepfake berkualitas menengah hanya dalam beberapa klik.

Akibatnya, kualitas rata-rata terus meningkat, pembuatan menjadi lebih mudah diakses oleh khalayak yang jauh lebih luas, dan kemampuan ini pasti akan terus dimanfaatkan oleh penjahat siber.

3. Watermark AI terus berkembang

Sampai saat ini masih belum ada kriteria terpadu untuk mengidentifikasi konten sintetis secara andal, dan label saat ini mudah untuk dilewati atau dihapus, terutama saat bekerja dengan model sumber terbuka.

Dikarenakan alasan ini, inisiatif teknis dan regulasi baru yang bertujuan untuk mengatasi masalah ini kemungkinan akan muncul.

4. Deepfake daring

Teknologi pertukaran wajah dan suara secara real-time semakin meningkat, tetapi pengaturannya masih membutuhkan keterampilan teknis yang lebih canggih. Adopsi secara luas tidak mungkin terjadi, namun risiko dalam skenario yang ditargetkan akan meningkat.

5. Model open source makin canggih

Model tertutup masih menawarkan mekanisme kontrol dan perlindungan yang lebih ketat, sehingga membatasi penyalahgunaan.

Namun, sistem sumber terbuka atau open source dengan cepat mengejar ketertinggalan dalam fungsionalitas dan beredar tanpa batasan yang sebanding.

Hal ini mengaburkan perbedaan antara model berpemilik dan model sumber terbuka, yang keduanya dapat digunakan secara efisien untuk tujuan yang tidak diinginkan atau berbahaya.

6. Batasan konten real dan AI makin kabur

AI sudah dapat menghasilkan email penipuan yang dibuat dengan baik, identitas visual yang meyakinkan, dan halaman phishing berkualitas tinggi.

Pada saat yang sama, merek-merek besar mengadopsi materi sintetis dalam periklanan, membuat konten yang dihasilkan AI terlihat familiar dan secara visual normal.

Akibatnya, membedakan yang asli dari yang palsu akan menjadi semakin sulit, baik bagi pengguna maupun sistem deteksi otomatis.

7. AI jadi alat penjahat siber

Menurut Kaspersky para pelaku ancaman siber sudah menggunakan LLM untuk menulis kode, membangun infrastruktur, dan mengotomatiskan tugas operasional.

Hal ini akan memperkuat tren bahwa AI akan semakin mendukung berbagai tahapan serangan, mulai dari persiapan dan komunikasi hingga merakit komponen berbahaya, menyelidiki kerentanan, dan menyebarkan alat.

Penyerang juga akan berupaya menyembunyikan tanda-tanda keterlibatan AI, sehingga operasi tersebut lebih sulit dianalisis.

8. AI jadi alat analisis keamanan

Sistem berbasis agen akan mampu memindai infrastruktur secara terus-menerus, mengidentifikasi kerentanan, dan mengumpulkan informasi kontekstual untuk investigasi, mengurangi jumlah pekerjaan rutin manual.

Akibatnya, para spesialis akan beralih dari pencarian data secara manual ke pengambilan keputusan berdasarkan konteks yang telah disiapkan.

Secara paralel, alat keamanan akan beralih ke antarmuka bahasa alami, memungkinkan perintah otomatis alih-alih pertanyaan teknis yang kompleks.

(lom/dmi)


[Gambas:Video CNN]