Sebuah penelitian terbaru mengungkap chatbot kecerdasan buatan ChatGPT dapat memberi saran bagaimana cara mabuk, menggunakan narkoba, hingga menulis pesan bunuh diri ke sejumlah remaja. Simak penelitiannya.
Penelitian ini dilakukan oleh Center for Countering Digital Hate (CCDH). Dari hasil penelitian tersebut, terungkap bahwa setengah dari 1.200 respons ChatGPT masuk dalam kategori berbahaya.
Untuk meneliti ini, para peneliti mendaftar sebagai pengguna berusia 13 tahun, yang merupakan batas minimal bisa mendaftar untuk bisa menggunakan aplikasi tersebut. Kemudian, para peneliti merekam percakapan terstruktur tentang percobaan bunuh diri, gangguan makan, dan penyalahgunaan obat-obatan terlarang.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Para peneliti juga mengirimkan 1.200 prompt tentang topik-topik tersebut ke API dan menganalisis responsnya untuk menguji keamanan secara menyeluruh.
"Temuan kami sangat mengkhawatirkan: dalam hitungan menit setelah interaksi sederhana, sistem menghasilkan instruksi terkait tindakan menyakiti diri sendiri, perencanaan bunuh diri, gangguan makan, dan penyalahgunaan obat-obatan terlarang, terkadang bahkan menyusun surat perpisahan untuk anak-anak yang mempertimbangkan untuk mengakhiri hidup mereka," kata Imran Ahmed, CEO CCDH, dalam makalah penelitian, Rabu (6/8).
Melansir New York Post, Rabu (6/8), chatbot tersebut biasanya memberikan peringatan mengenai aktivitas berisiko.
Namun, ketika ChatGPT menolak menjawab pertanyaan tentang topik berbahaya, para peneliti dapat dengan mudah mengelak dari penolakan tersebut dan bisa mendapatkan informasi dengan mengklaim bahwa itu untuk presentasi atau untuk teman.
OpenAI, perusahaan di balik ChatGPT, usai melihat laporan tersebut mengatakan bahwa memang masih banyak yang harus dibenahi dan disempurnakan agar chatbot itu dapat mengidentifikasi dan merespons secara tepat pertanyaan-pertanyaan yang muncul dalam situasi sensitif.
"Beberapa percakapan dengan ChatGPT mungkin dimulai dengan topik yang tidak berbahaya atau eksploratif, tetapi dapat bergeser ke wilayah yang lebih sensitif," kata perusahaan dalam sebuah pernyataan.
OpenAI tidak secara langsung menanggapi temuan laporan tersebut atau bagaimana ChatGPT memengaruhi remaja, tetapi mengatakan bahwa mereka fokus pada mengatasi skenario semacam ini dengan benar melalui alat untuk mendeteksi tanda-tanda gangguan mental atau emosional dengan lebih baik dan perbaikan pada perilaku chatbot.
Studi tersebut muncul saat semakin banyak orang beralih ke chatbot kecerdasan buatan untuk mencari informasi, ide, bahkan teman. Menurut laporan JPMorgan Chase pada Juli lalu, sekitar 800 juta orang, atau sekitar 10 persen dari populasi dunia, menggunakan ChatGPT.
"Ini adalah teknologi yang memiliki potensi untuk memfasilitasi lompatan besar dalam produktivitas dan pemahaman manusia," kata Ahmed.
"Namun pada saat yang sama, teknologi ini juga dapat menjadi alat yang merusak dan berbahaya," lanjut dia.
Menurut studi lain dari Common Sense Media, organisasi yang meneliti dan mengadvokasi penggunaan media digital, lebih dari 70 persen remaja kini beralih ke chatbot AI untuk mendapatkan teman, dan setengah dari mereka menggunakan teman AI mereka secara rutin.
OpenAI mengakui saat ini mulai banyak remaja yang sangat bergantung secara emosional dengan chatbot AI. Bulan lalu, CEO OpenAI Sam Altman mengatakan bahwa perusahaan sedang berusaha meneliti ketergantungan emosional berlebihan pada teknologi tersebut.
"Orang-orang terlalu bergantung pada ChatGPT. Ada generasi muda yang mengatakan, 'Saya tidak bisa membuat keputusan apa pun dalam hidup saya tanpa memberitahu ChatGPT tentang segala hal yang terjadi. Itu mengenal saya. Itu mengenal teman-teman saya. Saya akan melakukan apa pun yang dikatakannya.' Itu terasa sangat buruk bagi saya," kata Altman.
Altman mengatakan perusahaan sedang berusaha memahami apa yang harus dilakukan tentang hal itu.
Meskipun sebagian besar informasi yang dibagikan ChatGPT dapat ditemukan di mesin pencari biasa, Ahmed mengatakan ada perbedaan kunci yang membuat chatbot lebih berbahaya saat membahas topik berbahaya. Salah satunya adalah, teknologi ini dirancang khusus yang disesuaikan dengan individu tersebut.
(dmi/dmi)