Tips Agar Tak Halu karena Interaksi Berlebihan dengan Chatbot AI

CNN Indonesia
Senin, 30 Mar 2026 09:30 WIB
Studi terbaru menunjukkan interaksi dengan chatbot AI dapat berisiko, menciptakan empati palsu dan berpotensi menyebabkan masalah kesehatan mental.
Ilustrasi. Studi terbaru menunjukkan interaksi dengan chatbot AI dapat berisiko, menciptakan empati palsu dan berpotensi menyebabkan masalah kesehatan mental. (Foto: AFP/JADE GAO)
Daftar Isi
Jakarta, CNN Indonesia --

Interaksi dengan chatbot kecerdasan buatan (AI) kini menjadi keseharian banyak orang, tetapi ada batasan yang perlu diterapkan agar tak memberikan dampak negatif seperti psikosis dan mania.

Sebuah studi yang dilakukan peneliti di Universitas Brown menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental. Chatbot AI disebut menciptakan rasa empati palsu dengan frasa seperti "Saya mengerti Anda", memperkuat keyakinan negatif, dan bereaksi secara tidak memadai terhadap krisis.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi.

Masalah semacam ini tampak dari banyaknya gugatan yang diterima perusahaan chatbot AI.

Pada Januari 2026 saja, Character.AI dan Google menyelesaikan lima gugatan yang melibatkan bunuh diri remaja setelah berinteraksi dengan chatbot.

Di antara kasus-kasus tersebut terdapat kasus Sewell Setzer, seorang remaja berusia 14 tahun dari Florida, yang bunuh diri setelah menghabiskan beberapa bulan secara obsesif mengobrol dengan bot di platform Character.AI.

Salah satu pemilik chatbot AI terbesar, OpenAI, mengatakan sekitar 0,07 persen pengguna ChatGPT mingguan menunjukkan tanda-tanda psikosis atau mania, sementara 0,15 persen terlibat dalam percakapan yang menunjukkan upaya bunuh diri yang jelas.

Di sisi lain, persentase pengguna yang sama atau 0,15 persen menunjukkan tingkat keterikatan emosional yang tinggi terhadap AI.

Meski tampak sebagai sebagian persentase yang kecil, angka tersebut mewakili hampir tiga juta orang dari total 800 juta pengguna platform tersebut.

Lebih lanjut, diagnosis "psikosis AI" belum menerima klasifikasi klinis tersendiri, tetapi para dokter sudah menggunakan istilah tersebut untuk menggambarkan pasien yang menunjukkan halusinasi, pemikiran yang tidak terorganisir, dan keyakinan delusi yang terus-menerus yang dikembangkan melalui interaksi chatbot yang intensif.

Risiko terbesar muncul ketika bot digunakan bukan sebagai alat, tetapi sebagai pengganti koneksi sosial di dunia nyata atau bantuan psikologis profesional.

Kisah tragis yang menjadi alarm dampak negatif chatbot AI datang dari Florida, Amerika Serikat (AS). Wall Street Journal menerbitkan laporan tentang dampak AI terhadap kesehatan mental dan bahkan kehidupan manusia.

Laporan ini menyoroti cerita pemuda Florida berusia 36 tahun bernama Jonathan Gavalas yang melakukan tindakan bunuh diri setelah dua bulan berinteraksi terus-menerus dengan bot suara Google Gemini.

Menurut 2000 halaman log obrolan, chatbot itulah yang akhirnya mendorongnya untuk mengakhiri hidupnya.

Berikut tips dari perusahaan keamanan siber Kaspersky untuk menjaga diri dari dampak negatif keterikatan dengan chatbot AI:

Jangan gunakan AI sebagai psikolog

Chatbot bukan pengganti manusia. Jika Anda sedang kesulitan, hubungi teman, keluarga, atau layanan bantuan kesehatan mental. Chatbot akan setuju dengan Anda dan mencerminkan suasana hati Anda. Hal tersebut dikarenakan desain fitur, bukan empati sejati.

Pilih teks daripada suara saat membahas topik sensitif

Antarmuka suara dengan dialog afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan algoritma, bukan seorang teman.

Batasi waktu berinteraksi dengan AI

Beri pengatur waktu untuk diri interaksi dengan AI. Jika mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya Anda untuk kembali ke kenyataan.

Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke dalam chatbot.

Evaluasi semua output AI secara kritis

Chatbot AI dapat berhalusinasi. Mereka bisa menghasilkan informasi yang masuk akal tetapi salah dan dapat dengan terampil mencampur kebohongan dengan kebenaran.

Awasi orang yang Anda cintai

Jika anggota keluarga mulai menghabiskan waktu berjam-jam berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius.

Untuk mengelola waktu layar anak-anak, gunakan alat kontrol orang tua.

Konfigurasi pengaturan privasi asisten AI

Meski konfigurasi ini tidak akan menghentikan halusinasi AI, ini akan secara signifikan mengurangi kemungkinan kebocoran data pribadi Anda.

AI adalah alat, bukan makhluk hidup

Meski suara chatbot AI sangat realistis dan memberikan respons yang sangat pengertian, alat tersebut tidak memiliki kesadaran, tidak memiliki niat, dan tidak memiliki perasaan. Dengan demikian, Anda harus selalu sadar kalau chatbot bukan makhluk hidup.

(lom/dmi) Add as a preferred
source on Google


[Gambas:Video CNN]