Masuk RS usai Ikuti Saran Diet dari ChatGPT

14 Agustus 2025
Ilustrasi/Net

Ilustrasi/Net

RIAU1.COM - Seorang pria berusia 60 tahun di Amerika Serikat (AS) harus menjalani perawatan di rumah sakit karena keracunan akibat mengikuti saran diet dari ChatGPT. Hal ini terungkap dalam laporan yang dipublikasikan di jurnal Annals of Internal Medicine.

Kasus ini bermula saat pria tersebut mencari cara untuk menyetop konsumsi garam dapur (natrium klorida) dari pola makannya demi kesehatan. la kemudian meminta saran ChatGPT dan mendapatkan rekomendasi untuk mengganti garam dapur dengan natrium bromida. Ini adalah zat kimia yang memiliki tampilan mirip garam, namun beracun bagi manusia.

Dalam laporan disebutkan bahwa pria paruh baya itu mengonsumsi natrium bromida selama tiga bulan. Meskipun ChatGPT kemungkinan menyebut zat itu dalam konteks lain (seperti untuk pembersih), pria tersebut justru mengartikannya sebagai alternatif makanan.

Saat tiba di rumah sakit, pria tersebut mengalami berbagai gejala serius seperti kelelahan, insomnia, gangguan koordinasi, jerawat di wajah, munculnya benjolan merah kecil (cherry angiomas), serta rasa haus berlebihan. Gejala ini dikenal sebagai bromisme, suatu kondisi akibat paparan jangka panjang terhadap natrium bromida.

Tak hanya itu, ia juga menunjukkan tanda-tanda gangguan kejiwaan, termasuk paranoia dengan klaim bahwa tetangganya berusaha meracuninya, serta halusinasi visual dan pendengaran. Akibat kondisinya yang memburuk, ia sempat ditempatkan dalam perawatan psikiatri setelah mencoba melarikan diri dari rumah sakit.

la dirawat dengan cairan infus dan elektrolit, serta diberikan obat antipsikotik. Setelah tiga pekan dalam pengawasan intensif, ia akhirnya dipulangkan.

Para peneliti dalam laporan tersebut menekankan bahwa kejadian ini menunjukkan risiko serius dari penggunaan sistem kecerdasan buatan seperti ChatGPT untuk nasihat medis. 

"Sayangnya, kami tidak memiliki akses ke log percakapan pasien dengan ChatGPT, jadi kami tidak dapat memastikan secara pasti apa yang sebenarnya disarankan oleh chatbot. Dan sangat tidak mungkin seorang dokter manusia akan menyarankan natrium bromida sebagai pengganti garam dapur," kata para peneliti dalam laporannya seperti dilansir Republika dari laman Fox News, Kamis (14/8/2025).

Menanggapi kasus ini, CEO Centivax dr Jacob Glanville, perusahaan bioteknologi di San Francisco, mengatakan Al bukanlah pengganti dokter. 
"Chatbot Al hanyalah alat prediksi bahasa, tidak punya akal sehat. Kalau pengguna tidak menggunakan logika saat bertanya atau mengikuti saran, akibatnya bisa fatal," kata dia.

la menyebut bahwa kemungkinan ChatGPT memilih natrium bromida karena zat tersebut kadang digunakan sebagai pengganti natrium klorida dalam konteks reaksi kimia, bukan konsumsi manusia. Dokter spesialis gawat darurat dan pakar Al dari Dallas, dr Harvey Castro, mengatakan ChatGPT membuat teks berdasarkan urutan kata yang paling mungkin, bukan berdasarkan pemeriksaan fakta atau pertimbangan medis.

"Kasus ini menunjukkan bahwa konteks sangat penting dalam pemberian saran kesehatan. Al bukan pengganti penilaian medis profesional, dan ini selaras dengan peringatan yang telah diberikan oleh OpenAl," sebut dia.*