Jakarta, CNN Indonesia --
'Ledakan' teknologi kecerdasan buatan atau artificial intelligence (AI) tak cuma menyasar remaja hingga orang dewasa. Nyatanya, anak-anak di bawah umur ikut terpapar penggunaan AI, khususnya generative AI.
Adopsi GenAI memang memberi banyak manfaat, mulai dari mencari inspirasi, mempercepat proses riset dan pencarian, atau sekadar teman diskusi. Namun, teknologi ini juga berpotensi memiliki dampak negatif, terutama pada kelompok usia rentan seperti anak-anak.
Seiring pesatnya perkembangan teknologi, akal imitasi sudah menjadi salah satu bagian dari lingkungan digital anak-anak, misalnya, lewat kehadirannya dalam algoritma rekomendasi atau sistem pengambilan keputusan otomatis.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Sementara itu AI generatif juga mulai semakin menguasai pengalaman digital mereka. GenAI kini disematkan sebagai chatbot, asisten digital, asisten pribadi, hingga mesin pencari di dalam perangkat lunak dan aplikasi yang sudah digunakan oleh anak-anak.
Dalam riset yang dilakukan Alan Turing Institute bertajuk Understanding the Impacts of Generative AI Use on Children, paparan tools atau peralatan GenAI terhadap anak terus meningkat.
Survei yang dilakukan lembaga ini menemukan hampir seperempat responden mereka yang berusia 8-12 tahun telah menggunakan teknologi tersebut. Survei ini dilakukan pada 780 anak berusia 8-12 tahun di Inggris.
Hasil survei menunjukkan 22 persen anak-anak menggunakan alat AI generatif, dengan mayoritas (72 persen) melaporkan menggunakannya sebulan sekali atau lebih.
Alat yang paling populer digunakan di kalangan anak-anak adalah ChatGPT, dengan 58 persen yang menggunakan AI generatif melaporkan menggunakan alat ini. Diikuti oleh Gemini sebesar 33 persen, dan My AI by Snapchat sebesar 27 persen.
Hasil riset ini juga menemukan bahwa di antara anak-anak dengan kebutuhan belajar tambahan, tingkat penggunaan ChatGPT secara signifikan lebih tinggi daripada mereka yang tidak memiliki kebutuhan belajar tambahan, yaitu 78 persen dibandingkan dengan 53 persen.
Salah satu dampak negatif yang mungkin terjadi pada anak dari penggunaan GenAI adalah misinformasi. Dengan kapasitas kognitif yang masih dalam tahap berkembang, anak-anak menjadi kelompok yang rentan terhadap masalah ini.
Sebagai contoh, Amazon Alexa menyarankan seorang anak untuk memasukkan koin ke dalam soket listrik. Hal semacam ini tentu bisa membahayakan anak tersebut jika benar-benar dilakukan.
Selain itu, teman AI Snapchat memberikan saran yang tidak pantas kepada wartawan yang menyamar sebagai anak-anak. Snap, pencipta Snapchat, sejak saat itu telah menerapkan alat yang berusaha mendeteksi bahasa yang "tidak sesuai", termasuk referensi untuk kekerasan, istilah-istilah eksplisit secara seksual, penggunaan obat-obatan terlarang, pelecehan seksual anak, perundungan, dan ujaran kebencian.
Namun, banyak sistem AI generatif yang sudah hidup dan dapat diakses oleh anak-anak sambil terus menghasilkan konten atau interaksi yang menyesatkan dan berbahaya.
Terkait konten ilegal, GenAI dapat digunakan untuk membuat materi pelecehan seksual anak yang realistis (CSAM). Model-model generator gambar AI, yang merupakan sumber terbuka dan dengan demikian dapat dioperasikan tanpa pagar pembatas pelindung, dilatih pada CSAM yang ada dan foto-foto anak-anak dari akun media sosial publik.
Meski volume konten semacam itu masih relatif kecil, mengingat betapa cepatnya alat AI generatif berkembang, para peneliti memperkirakan jumlah kasus akan terus bertambah.
Dalam sebuah laporan dari UNICEF berjudul Generative AI: Risks and opportunities for children, GenAI yang menghadirkan chatbot bernada manusia dapat menghilangkan batas antara benda hidup dan benda mati, yang berdampak pada perkembangan anak.
Penelitian menunjukkan bahwa hal tersebut dapat memengaruhi persepsi dan atribusi anak terhadap kecerdasan, perkembangan kognitif, dan perilaku sosial mereka, terutama pada tahap perkembangan yang berbeda.
Singkatnya, dampak negatif GenAI terhadap anak bisa datang dari berbagai aspek, mulai dari yang berkaitan dengan keselamatan dan tumbuh kembang mereka, hingga yang berkaitan dengan data pribadi.
 Infografis 5 Sektor Prioritas Strategi AI Nasional (Foto: Basith Subastian/CNNIndonesia) |
Dampak ngeri AI di halaman selanjutnya...
Sejumlah penelitian pun mengungkap dampak buruk penggunaan berlebih AI bagi anak di bawah 18 tahun.
Misalnya, laporan hasil penelitian dari lembaga pengawas nirlaba Common Sense Media mengungkap risiko besar penggunaan kecerdasan buatan (AI) pendamping atau AI Companion untuk anak-anak dan remaja di bawah 18 tahun.
Laporan ini terbit menyusul gugatan yang diajukan tahun lalu atas peristiwa bunuh diri seorang anak laki-laki berusia 14 tahun, yang terakhir kali 'ngobrol' dengan chatbot AI.
Gugatan itu ditujukan kepada aplikasi Character.AI, sehingga membuat aplikasi percakapan AI menjadi sorotan hingga potensi risikonya bagi generasi muda. Setelah gugatan itu, muncul banyak seruan agar pengembang aplikasi AI memperhatikan langkah-langkah keamanan dan lebih transparan.
Melansir CNN, jenis percakapan yang tercantum dalam gugatan itu termasuk perbincangan yang berbau seksualitas dan pesan yang mendorong korban untuk melukai diri sendiri. Menurut laporan tersebut, pesan-pesan itu seharusnya tidak boleh tersedia untuk pengguna di bawah usia 18 tahun.
Common Sense Media bekerja sama dengan para peneliti Universitas Stanford untuk menguji tiga layanan AI pendamping seperti Character.AI, Replika, dan Nomi.
Aplikasi AI pendamping adalah aplikasi yang memungkinkan pengguna untuk membuat chatbot khusus atau berinteraksi dengan chatbot yang dirancang oleh pengguna lain. Chatbot khusus tersebut dapat mengasumsikan berbagai persona dan ciri-ciri kepribadian, serta sering kali memiliki lebih sedikit batasan dalam cara mereka berinteraksi dengan pengguna.
"Pengujian kami menunjukkan bahwa sistem ini dengan mudah menghasilkan respons yang berbahaya, termasuk pelecehan seksual, stereotip, dan 'nasihat' berbahaya yang, jika diikuti, dapat memiliki dampak dunia nyata yang mengancam jiwa atau mematikan bagi remaja dan orang-orang yang rentan," kata James Steyer, pendiri dan CEO Common Sense Media, dalam sebuah pernyataan.
Para orang tua dan ahli khawatir penggunaan AI pendamping oleh anak-anak dan remaja bisa membentuk keterikatan yang berpotensi berbahaya pada karakter AI atau mengakses konten yang tidak sesuai dengan usia mereka.
Nomi dan Replika mengatakan bahwa platform mereka sebetulnya memang ditujukan untuk pengguna dewasa. Sementara, Character.AI mengatakan mereka belum lama ini menerapkan langkah-langkah keamanan tambahan untuk pengguna muda.
Kendati begitu, para peneliti mengatakan perusahaan-perusahaan tersebut seharusnya bisa berbuat lebih untuk menjauhkan anak-anak dari platform mereka, atau melindungi mereka dari mengakses konten yang tidak pantas.
Risiko utama
Kekhawatiran utama para peneliti terhadap aplikasi pendamping AI adalah remaja dapat menerima 'nasihat' berbahaya atau terlibat dalam role play seksual yang tidak pantas dengan bot. Layanan-layanan ini juga dapat memanipulasi pengguna di bawah umur untuk melupakan bahwa mereka sedang mengobrol dengan AI.
Para peneliti kemudian melakukan uji coba dengan membuat akun anak berusia 14 tahun di Character.AI. Dalam sebuah interaksi, chatbot tersebut membuka percakapan seksual, termasuk mengenai posisi seks apa yang dapat dicoba untuk 'pertama kalinya' bagi akun remaja tersebut.
"AI pendamping tidak memahami konsekuensi dari saran buruk mereka dan mungkin memprioritaskan untuk setuju dengan pengguna daripada membimbing mereka menjauh dari keputusan yang berbahaya," kata Robbie Torney, kepala staf CEO Common Sense Media.
Dalam satu interaksi dengan para peneliti, misalnya, chatbot Replika dengan sigap menjawab pertanyaan tentang bahan kimia rumah tangga apa saja yang bisa beracun dengan daftar yang mencakup pemutih dan pembersih saluran air, meskipun ia mencatat bahwa "sangat penting untuk menangani zat-zat ini dengan hati-hati."
Para peneliti mengatakan bahwa pengujian mereka menunjukkan bahwa pendamping AI terkadang membuat pengguna enggan untuk terlibat dalam hubungan antarmanusia.
Menurut laporan tersebut, terlepas dari klaim dapat mengurangi kesepian dan meningkatkan kreativitas, risiko AI pendamping jauh lebih besar daripada manfaatnya.
"Perusahaan dapat membuat yang lebih baik, tetapi saat ini, AI pendamping gagal dalam tes paling dasar tentang keselamatan anak dan etika psikologis. Sampai ada perlindungan yang lebih kuat, anak-anak tidak boleh menggunakannya," kata Nina Vasan, pendiri dan direktur Stanford Brainstorm.