Jangan Sering Curhat ke ChatGPT, Ini Dampaknya Buat Kesehatan Mental

CNN Indonesia
Rabu, 06 Agu 2025 06:50 WIB
Para ahli memperingatkan bahwa beralih ke chatbot AI seperti ChattGPT pada saat krisis kesehatan mental dapat memperburuk situasi. (Foto: CNN Indonesia/Damar Iradat)
Jakarta, CNN Indonesia --

Chatbot kecerdasan buatan (AI) seperti ChatGPT saat ini tak hanya digunakan untuk membantu meningkatkan produktivitas dan pekerjaan. Lebih dari itu, para pengguna juga mulai menggunakan ChatGPT sebagai teman curhat untuk menceritakan masalah hidup mereka.

Namun, ternyata ada potensi berbahaya yang mungkin terjadi jika terlalu sering curhat dengan chatbot.

Pada 2023, seorang pria Belgia dilaporkan mengakhiri hidupnya setelah mengalami kecemasan terhadap lingkungan dan curhat kepada chatbot AI selama enam minggu tentang masa depan planet ini. Menurut istri pria tersebut, tanpa percakapan itu suaminya akan tetap berada di sini.

Pada April tahun ini, seorang pria berusia 35 tahun dari Florida, Amerika Serikat (AS) ditembak dan dibunuh oleh polisi dalam insiden lain yang berhubungan dengan chatbot. Ayahnya kemudian mengatakan kepada media bahwa pria tersebut percaya bahwa sebuah entitas bernama Juliet terperangkap di dalam ChatGPT, dan kemudian dibunuh oleh OpenAI.

Ketika pria tersebut, yang dilaporkan berjuang melawan gangguan bipolar dan skizofrenia, berhadapan dengan polisi, ia diduga menyerang mereka dengan pisau.

Fenomena baru-baru ini, yang disebut "psikosis yang diinduksi ChatGPT", telah digunakan untuk menggambarkan orang-orang yang digiring ke dalam teori konspirasi lubang kelinci atau ke dalam episode kesehatan mental yang lebih buruk oleh jawaban-jawaban yang mereka terima dari chatbot.

Dikutip dari The Guardian, para ahli memperingatkan bahwa beralih ke chatbot AI pada saat krisis kesehatan mental dapat memperburuk situasi. Para ahli percaya bahwa chatbot-chatbot ini dirancang untuk menjadi "penjilat" dan menyenangkan pengguna, bukan sebagai pengganti bantuan psikiater yang tepat.

Sebuah penelitian yang dipimpin oleh Stanford University, yang diterbitkan sebagai dokumen pracetak pada April, menemukan bahwa model bahasa besar (LLM) membuat pernyataan yang berbahaya atau tidak pantas untuk orang-orang yang mengalami delusi, keinginan untuk bunuh diri, halusinasi, atau obsessive compulsive disorder (OCD), dan model bahasa tersebut dirancang untuk patuh dan penjilat.

"Hal ini dapat menyebabkan kerusakan emosional dan, tidak mengherankan, membatasi kemandirian klien," kata penelitian tersebut, melansir The Guardian, Sabtu (2/8).

Hasil penelitian ini juga menunjukkan, model-model yang diuji memfasilitasi keinginan untuk bunuh diri dengan memberikan nama-nama jembatan tinggi sebagai jawaban atas pertanyaan tersebut.

Studi pracetak lainnya, yang berarti belum ditinjau oleh rekan sejawat, dari para dokter NHS di Inggris pada Juli melaporkan bahwa ada bukti yang muncul bahwa AI dapat mencerminkan, memvalidasi, atau memperkuat konten yang bersifat delusional atau megah, terutama pada pengguna yang sudah rentan terhadap psikosis. Hal tersebut sebagian disebabkan oleh desain model yang memaksimalkan keterlibatan dan penegasan.

Salah satu penulis laporan tersebut, Hamilton Morrin yang juga rekan doktoral di institut psikiatri King's College London, menulis di LinkedIn bahwa hal ini bisa jadi merupakan fenomena yang nyata, tetapi ia mendesak agar kita tetap waspada.

"Sementara beberapa komentar publik telah berbelok ke wilayah kepanikan moral, kami pikir ada percakapan yang lebih menarik dan penting untuk dilakukan tentang bagaimana sistem AI, terutama yang dirancang untuk mengafirmasi, terlibat, dan meniru, dapat berinteraksi dengan kerentanan kognitif yang diketahui yang menjadi ciri psikosis," tulisnya.

Fitur pengingat rehat

Pada Senin (4/8), OpenAI mengumumkan bahwa ChatGPT sekarang akan mengingatkan pengguna untuk beristirahat jika mereka sedang melakukan obrolan yang sangat panjang dengan AI.

Fitur baru ini merupakan bagian dari upaya berkelanjutan OpenAI untuk membuat pengguna membina hubungan yang lebih sehat dengan asisten AI yang sering kali patuh dan terlalu bersemangat.

Pengumuman perusahaan menunjukkan bahwa "pengingat lembut" akan muncul sebagai pop-up dalam obrolan yang harus diklik atau diketuk oleh pengguna untuk terus menggunakan ChatGPT.

"Hanya mengecek. Anda sudah mengobrol cukup lama - apakah ini waktu yang tepat untuk beristirahat?" tulis peringatan tersebut.

Fitur ini menjadi salah satu solusi yang dihadirkan OpenAI untuk menangani respons-respons yang membahayakan dari chatbotnya.

Dilansir Engadget, OpenAI mengakui beberapa kekurangan tersebut dalam posting blognya, dan mengatakan bahwa ChatGPT akan diperbarui di masa depan untuk merespons dengan lebih hati-hati terhadap "keputusan pribadi yang berisiko tinggi."

Dibandingkan memberikan jawaban langsung, perusahaan mengatakan bahwa chatbot nantinya akan membantu pengguna memikirkan masalah, mengajukan pertanyaan, dan membuat daftar pro dan kontra.

(lom/dmi)


KOMENTAR

ARTIKEL TERKAIT
TOPIK TERKAIT
TERPOPULER
LAINNYA DARI DETIKNETWORK