Terlalu Percaya Informasi ChatGPT, Turis Gagal Terbang ke Luar Negeri

CNN Indonesia
Rabu, 20 Agu 2025 09:15 WIB
Sepasang pelancong asal Spanyol mengalami pengalaman mengecewakan setelah gagal terbang ke Puerto Riko akibat informasi visa yang salah dari ChatGPT.
Ilustrasi calon penumpang pesawat di bandara. (Istockphoto/ShutterOK)
Jakarta, CNN Indonesia --

Sepasang pelancong asal Spanyol mengalami pengalaman mengecewakan setelah gagal terbang ke Puerto Rico akibat informasi visa yang salah. Mereka mengaku mendapatkan data keliru tersebut dari ChatGPT.

Dalam sebuah video yang menjadi viral di platform TikTok, Mery Caldass tampak menangis di bandara sementara kekasihnya, Alejandro Cid, berusaha menenangkannya.

"Aku selalu melakukan riset, kali ini aku tanya ChatGPT, dan jawabannya 'tidak' [perlu visa]. Jadi kami yakin bisa masuk," kata Mery dengan wajah berurai air mata, seperti dikutip dari Daily Mail, Selasa (19/8).

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Sambil bercanda di tengah kekecewaannya, Mery menduga kegagalan ini adalah 'balas dendam' dari ChatGPT karena ia seringkali mengejeknya. Video ini langsung menarik perhatian jutaan warganet.

Banyak dari mereka menertawakan pasangan tersebut karena terlalu mengandalkan kecerdasan buatan (AI) tanpa memverifikasi ke sumber resmi.

Faktanya, turis Spanyol memang tidak memerlukan visa untuk ke Puerto Rico. Namun, mereka tetap wajib mengajukan Electronic System for Travel Authorization (ESTA) karena Puerto Rico adalah wilayah Amerika Serikat. Hal ini luput dari perhatian pasangan tersebut.

Kejadian ini bukan yang pertama kalinya. Sebelumnya, seorang pria berusia 60 tahun di Amerika Serikat dilarikan ke rumah sakit setelah salah mengikuti saran diet dari ChatGPT.

Ia mengganti garam dapur dengan natrium bromida, bahan kimia beracun yang umumnya digunakan untuk membersihkan kolam renang. Akibatnya, ia mengalami halusinasi, paranoia, dan kecemasan parah hingga harus dirawat di rumah sakit selama tiga minggu.

Para dokter yang menangani kasus tersebut menguji ChatGPT dan menemukan bahwa AI tersebut masih merekomendasikan natrium bromida sebagai alternatif garam yang sehat tanpa memberikan peringatan bahaya. Kondisi keracunan bromida, yang sudah jarang ditemui sejak abad ke-20, kini kembali muncul akibat saran AI.

Kedua insiden ini memicu diskusi penting tentang bagaimana sebaiknya pengguna memilah informasi dari AI. Meskipun AI dapat membantu mempermudah banyak hal, untuk urusan serius seperti perjalanan internasional dan kesehatan, verifikasi dari sumber resmi dan ahli tetap mutlak diperlukan. Jangan pernah mengandalkan AI sebagai satu-satunya rujukan untuk keputusan penting.

(wiw)


[Gambas:Video CNN]
LAINNYA DI DETIKNETWORK
LIVE REPORT
TERPOPULER