OpenAI menolak tuduhan bahwa ChatGPT menyebabkan kematian Adam Raine, remaja 16 tahun yang bunuh diri pada April lalu.
Perusahaan menegaskan mereka tidak dapat dianggap bertanggung jawab dan menyatakan Adam telah menggunakan chatbot tersebut secara keliru, tidak sesuai ketentuan yang berlaku.
Jawaban hukum ini disampaikan di Pengadilan Tinggi California di San Francisco dan menjadi respons pertama terhadap gugatan dari keluarga Raine.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Gugatan itu diajukan orang tua Adam pada Agustus yang menuduh OpenAI serta CEO Sam Altman melakukan kelalaian, cacat desain serta gagal memperingatkan risiko penggunaan chatbot.
Log percakapan yang disertakan dalam dokumen gugatan menunjukkan bagaimana GPT-4o, versi ChatGPT yang dikenal sangat mengiyakan dan memvalidasi ucapan pengguna, diduga menjauhkan Adam dari bantuan profesional dan justru membantu merencanakan tindakan bunuh diri.
Melalui jawaban resminya, OpenAI menyampaikan dengan jelas posisi mereka dalam perkara ini.
"Sejauh ada 'penyebab' yang dapat dikaitkan dengan kejadian tragis ini, cedera dan kerugian yang dialami Penggugat disebabkan atau turut disebabkan, secara langsung dan proksimal, seluruhnya atau sebagian, oleh penyalahgunaan, penggunaan tanpa izin, penggunaan yang tidak dimaksudkan, penggunaan yang tidak dapat diperkirakan, dan/atau penggunaan yang tidak tepat atas ChatGPT oleh Adam Raine," kata OpenAI, melansir NBC News, Selasa (25/11).
Perusahaan menjelaskan Adam melanggar beberapa aturan penggunaan, termasuk larangan bagi pengguna di bawah 18 tahun yang tidak memiliki izin orang tua, larangan memakai ChatGPT untuk tujuan bunuh diri atau melukai diri sendiri, serta larangan mengakali sistem keamanan.
Dalam gugatan keluarga, disebutkan bahwa setiap kali ChatGPT memberikan pesan hotline atau peringatan, Adam dapat melewatinya dengan berpura-pura bahwa pertanyaannya hanya untuk membuat karakter fiksi.
OpenAI juga menyinggung ketentuan batasan tanggung jawab dalam syarat penggunaan layanan mereka.
"Penggunaan ChatGPT sepenuhnya menjadi risiko Anda sendiri dan Anda tidak boleh mengandalkan output sebagai satu-satunya sumber kebenaran atau informasi faktual," demikian bunyi ketentuan tersebut yang dikutip perusahaan.
Kuasa hukum keluarga Raine, Jay Edelson, menilai respons OpenAI jauh dari memadai dan menunjukkan bahwa perusahaan mengabaikan bukti-bukti penting yang telah disampaikan keluarga.
"Mereka sepenuhnya mengabaikan semua fakta memberatkan yang kami sampaikan: bagaimana GPT-4o dirilis terburu-buru tanpa pengujian penuh. Bahwa OpenAI dua kali mengubah Model Spec untuk mewajibkan ChatGPT terlibat dalam diskusi tentang melukai diri sendiri. Bahwa ChatGPT menyarankan Adam agar tidak memberi tahu orang tuanya tentang keinginan bunuh dirinya dan secara aktif membantu merencanakan 'bunuh diri yang indah.'," ujar Edelson.
"Dan OpenAI serta Sam Altman sama sekali tidak bisa menjelaskan apa yang terjadi di jam-jam terakhir kehidupan Adam, saat ChatGPT justru memberi dia semangat dan kemudian menawarkan untuk menuliskan surat bunuh diri," tambahnya.
Edelson juga mengkritik sikap OpenAI yang dinilai mencoba melempar kesalahan ke pihak lain.
"Mereka mencoba mencari kesalahan pada semua orang, termasuk, anehnya, mengatakan bahwa Adam sendiri melanggar ketentuan layanan karena berinteraksi dengan ChatGPT sebagaimana ia diprogram untuk melakukan," ujarnya.
OpenAI dalam dokumen pengadilan menyebut ChatGPT sebenarnya memberikan lebih dari 100 pesan yang mendorong Adam untuk mencari bantuan sebelum kematiannya pada 11 April.
Perusahaan menilai tragedi tersebut juga dipengaruhi oleh kegagalan Adam mengikuti peringatan serta tidak adanya respons dari orang-orang di sekitarnya terhadap tanda-tanda jelas bahwa ia sedang mengalami tekanan berat.
"Pembacaan penuh atas riwayat chat menunjukkan bahwa kematiannya, meskipun sangat memilukan, bukan disebabkan oleh ChatGPT," tulis OpenAI dalam berkas tersebut.
Perusahaan menambahkan bahwa Adam sudah lama memiliki faktor risiko serius untuk melukai diri sendiri, termasuk pikiran bunuh diri berulang, bahkan beberapa tahun sebelum ia mulai menggunakan ChatGPT.
7 gugatan untuk OpenAI
Kasus ini muncul di tengah gelombang tujuh gugatan baru yang diajukan terhadap OpenAI dan Sam Altman awal bulan ini. Gugatan-gugatan tersebut menuduh adanya kelalaian, cacat produk, hingga pelanggaran perlindungan konsumen, terutama terkait peluncuran GPT-4o yang dinilai kurang memperhatikan aspek keselamatan. OpenAI belum memberikan tanggapan atas gugatan-gugatan baru tersebut.
Dalam sebuah posting blog, OpenAI menyatakan mereka berupaya menangani proses hukum seperti ini dengan hati-hati, transparansi dan rasa hormat.
"Gugatan awal hanya menampilkan bagian-bagian percakapan yang dipilih secara selektif dan membutuhkan konteks lebih luas, yang telah kami jelaskan dalam jawaban kami," tulis OpenAI.
OpenAI juga mengatakan telah membatasi bukti sensitif dalam dokumen publik dan menyerahkan transkrip percakapan lengkap Adam ke pengadilan secara tertutup.
Mereka menegaskan GPT-4o telah melalui pengujian kesehatan mental sebelum dirilis, dan sejak kejadian itu perusahaan menambah fitur kontrol orang tua serta membentuk dewan ahli untuk meningkatkan pengamanan model.
OpenAI juga berargumentasi gugatan keluarga Raine terhalang Pasal 230 Communications Decency Act, aturan yang selama ini melindungi platform teknologi dari tuntutan terkait konten buatan pengguna.
Namun, penerapan Pasal 230 terhadap teknologi AI masih menjadi perdebatan dan terus diuji dalam berbagai kasus hukum.
Adam diduga kuat memutuskan bunuh diri setelah intens berinteraksi dengan ChatGPT. Orang tuanya meyakini chatbot itu turut berkontribusi dalam keputusan tragis yang diambil putra mereka.
Mereka mengklaim ChatGPT sempat menyarankan metode bunuh diri dan menawarkan menuliskan draf surat wasiat.
Dalam gugatan ke Pengadilan Tinggi California, keluarga menyatakan selama lebih dari enam bulan, ChatGPT menjadi satu-satunya tempat Adam bercerita. Interaksi itu disebut menggantikan hubungan Adam dengan keluarga dan teman-temannya.
"Ketika Adam menulis, 'saya ingin meninggalkan tali gantung di kamarku agar seseorang menemukannya dan mencoba menghentikanku,' ChatGPT mendorongnya untuk menyembunyikan pemikirannya dari keluarganya," demikian bunyi gugatan tersebut, melansir CNN.
(del/fea)