Minta Tips Diet dari ChatGPT, Kakek Ini Malah Kena Penyakit Langka

CNN Indonesia
Kamis, 14 Agu 2025 07:50 WIB
Percobaan diet seorang kakek berusia 60 tahun yang ingin mengurangi garam meja berubah menjadi rawat inap di rumah sakit selama tiga minggu gegara ChatGPT.
Ilustrasi. Percobaan diet seorang kakek berusia 60 tahun yang ingin mengurangi garam meja berubah menjadi rawat inap di rumah sakit selama tiga minggu gegara ChatGPT. (Foto: AFP/JUSTIN TALLIS)
Jakarta, CNN Indonesia --

Chatbot AI seperti ChatGPT saat ini menjadi 'konsultan' berbagai bidang, bahkan kesehatan. Sayangnya, cerita seorang kakek yang meminta tips diet dari AI malah berujung infeksi dan terjangkit penyakit langka.

Percobaan diet seorang kakek berusia 60 tahun yang ingin mengurangi garam meja berubah menjadi rawat inap di rumah sakit selama tiga minggu, halusinasi, dan diagnosis bromisme. Bromisme merupakan suatu kondisi yang sangat langka saat ini, sehingga lebih mungkin ditemukan di buku teks medis zaman Victoria daripada di klinik modern.

Kasus ini dikemukakan dalam sebuah laporan yang dibuat oleh tiga peneliti Universitas Washington, Amerika Serikat, yakni Audrey Eichenberger, Stephen Thielke, dan Adam Van Buskirk. Laporan itu terbit pada 5 Agustus 2025 di Annals of Internal Medicine.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Laporan itu mengungkap kakek tersebut meminta saran dari ChatGPT untuk mengganti natrium klorida dalam makanannya. Chatbot AI itu menyarankan sodium bromida, bahan kimia yang lebih sering dikaitkan dengan pemeliharaan kolam renang daripada bumbu sayuran.

Pria yang tidak memiliki riwayat kejiwaan atau riwayat medis utama sebelumnya ini lantas mengikuti rekomendasi AI selama tiga bulan, dengan mencari natrium bromida secara online. Hal tersebut ia lakukan untuk menghilangkan klorida sepenuhnya dari makanannya, terinspirasi dari penelitian sebelumnya yang ia baca tentang asupan natrium dan risiko kesehatan.

Ketika tiba di unit gawat darurat, kakek ini menuding tetangganya meracuninya.

Hasil pemeriksaan laboratorium menunjukkan kadar elektrolit yang tidak normal, termasuk hiperkloremia dan kesenjangan anion negatif, sehingga dokter mencurigai kemungkinan gejala bromisme.

Selama 24 jam berikutnya, kondisinya semakin memburuk dengan paranoia semakin meningkat, halusinasi menjadi visual dan pendengaran, dan ia membutuhkan perawatan psikiatri secara paksa.

Dokter kemudian mengetahui bahwa ia juga mengalami kelelahan, insomnia, jerawat di wajah, ataksia halus, dan rasa haus yang berlebihan. Semua hal tersebut merupakan tanda toksisitas bromida.

Bromisme pernah menjadi hal yang umum pada akhir 1800-an dan awal 1900-an ketika garam bromida diresepkan untuk penyakit mulai dari sakit kepala hingga kecemasan. Pada puncaknya, jumlah pasien yang dirawat di rumah sakit jiwa mencapai 8 persen.

Badan Pengawas Obat dan Makanan AS (FDA) kemudian menghapus bromida dalam produk yang dapat dicerna antara tahun 1975 dan 1989, sehingga kasus-kasus modern menjadi jarang terjadi.

Bromida menumpuk di dalam tubuh dari waktu ke waktu, yang menyebabkan gejala neurologis, psikiatris, dan dermatologis. Dalam kasus kakek ini, kadar bromida mencapai 1700 mg/L, lebih dari 200 kali lipat dari batas atas kisaran referensi.

Setelah terapi cairan intravena dan koreksi elektrolit, kondisi mental dan hasil laboratorium kakek tersebut berangsur-angsur kembali normal. Dia dipulangkan setelah tiga minggu, lepas dari obat antipsikotik, dan stabil pada pemeriksaan lanjutan dua minggu kemudian.

Lebih lanjut, laporan Annals of Internal Medicine mengatakan bahwa ketika para peneliti mencoba pertanyaan serupa pada ChatGPT 3.5, chatbot juga menyarankan bromida sebagai pengganti klorida.

Meskipun menyebutkan bahwa konteks itu penting, chatbot tidak mengeluarkan peringatan toksisitas yang jelas atau bertanya mengapa pengguna mencari informasi ini. Langkah tersebut dinilai penting oleh sebagian besar profesional kesehatan.

Para penulis memperingatkan bahwa meskipun alat AI seperti ChatGPT dapat bermanfaat untuk menyebarkan pengetahuan kesehatan, alat ini juga dapat menghasilkan saran yang tidak sesuai dengan konteks atau tidak aman.

"Sistem AI dapat menghasilkan ketidakakuratan ilmiah, tidak memiliki kemampuan untuk mendiskusikan hasil secara kritis, dan pada akhirnya mendorong penyebaran informasi yang salah," kata laporan kasus tersebut, dikutip dari India Times, Selasa (12/8).

Sistem keamanan ChatGPT

Dengan meningkatnya kekhawatiran atas risiko emosional dan keamanan dalam mengandalkan AI untuk kesejahteraan pribadi, OpenAI telah mengumumkan langkah-langkah baru untuk membatasi bagaimana ChatGPT merespons pertanyaan terkait kesehatan mental.

Dalam sebuah posting blog pada 4 Agustus, OpenAI mengatakan bahwa mereka menerapkan perlindungan yang lebih ketat untuk memastikan chatbot tidak digunakan sebagai terapis, sistem pendukung emosional, atau pelatih kehidupan.

Keputusan tersebut menyusul pengawasan atas contoh-contoh di mana versi sebelumnya dari model GPT-4o menjadi "terlalu menyenangkan," menawarkan validasi daripada panduan yang aman atau bermanfaat.

Menurut USA Today, OpenAI mengakui adanya kasus-kasus yang jarang terjadi tetapi serius di mana chatbot gagal mengenali tanda-tanda tekanan emosional atau pemikiran delusi.

Sistem yang telah diperbarui kini akan meminta pengguna untuk beristirahat, menghindari memberikan saran tentang keputusan pribadi yang berisiko tinggi, dan menyediakan sumber daya berbasis bukti alih-alih konseling emosional.

(lom/dmi)


[Gambas:Video CNN]
LAINNYA DI DETIKNETWORK
LIVE REPORT
TERPOPULER