Gara-gara ChatGPT seorang pria berumur 60 tahun mengalami insiden tragis setelah menerima rekomendasi diet dari ChatGPT. Akibat konsultasi yang salah tersebut, ia didiagnosis mengalami kondisi langka yang disebut bromisme atau keracunan bromida, yang memicu gangguan kejiwaan serius. Kasus ini diterbitkan dalam jurnal medis Annals of Internal Medicine: Clinical Cases dan menjadi peringatan serius mengenai risiko memakai AI untuk rekomendasi medis.
Menyetop Garam dan Menggantinya dengan Zat Beracun
Pria yang tidak disebutkan identitasnya tersebut berniat untuk menghentikan konsumsi garam (natrium klorida) secara total, setelah membaca efek negatifnya terhadap kesehatan. Akan tetapi, daripada berkonsultasi dengan tenaga medis, ia malah meminta rekomendasi dari ChatGPT.
Laporan studi kasus menyebutkan, “Selama 3 bulan, ia telah mengganti natrium klorida dengan natrium bromida yang diperoleh dari internet setelah berkonsultasi dengan ChatGPT.” Ia bahkan menyuling airnya sendiri di rumah. Keputusan ini diambil setelah ia membaca dari AI bahwa klorida bisa ditukar dengan bromida.
Berujung Halusinasi dan Disabilitas
Pria tanpa riwayat penyakit kejiwaan ini akhirnya dilarikan ke rumah sakit. Ia mengalami gejala-gejala aneh, seperti rasa haus yang luar biasa dan paranoid terhadap air yang ditawarkan padanya. Kondisinya memburuk dalam 24 jam pertama perawatan.
“Ia menunjukkan peningkatan paranoia dan halusinasi pendengaran serta penglihatan, yang, setelah mencoba melarikan diri, mengakibatkan penahanan psikiatrik yang tidak disengaja hingga menyebabkan disabilitas berat,” tulis laporan tersebut.
Para dokter kemudian menyimpulkan bahwa pria tersebut mengidap bromisme, sebuah kondisi keracunan yang sangat jarang terjadi saat ini, namun pernah umum di awal abad ke-20. Pada masa itu, bromida sering digunakan dalam obat-obatan bebas dan menjadi penyebab hingga 8% kasus rawat inap psikiatrik.
Bahaya AI Tanpa Nalar Manusia
Kasus ini menjadi sorotan utama bagi para ahli. Penulis artikel dari University of Washington, Seattle, menyoroti bagaimana AI dapat memicu masalah kesehatan yang sebenarnya bisa dicegah. Mereka mengakui sulit untuk mengetahui secara pasti percakapan spesifik pasien dengan ChatGPT karena tidak memiliki akses ke log percakapannya.
Namun, saat peneliti mencoba mengajukan pertanyaan serupa ke ChatGPT, chatbot tersebut memang memberikan opsi bromida tanpa peringatan kesehatan khusus dan tanpa menanyakan alasan di balik permintaan informasi tersebut.
“Seperti yang kami duga akan dilakukan oleh seorang profesional medis,” tulis para peneliti, menekankan bahwa AI tidak memiliki kemampuan untuk berdiskusi tentang risiko secara luas layaknya seorang profesional. Kasus ini menegaskan bahwa meskipun AI menawarkan informasi instan, ia tidak bisa menggantikan empati, nalar, dan penilaian kritis dari seorang dokter yang terlatih. Baca berita lain di sini.
