Kecerdasan Buatan dalam Kesehatan Mental: Pedang Bermata Dua
Kecerdasan buatan dalam kesehatan mental, dengan janji terapi virtual, memperkuat bias rasial dan gender serta mengancam kehidupan orang-orang yang rentan.
Kecerdasan buatan telah memasuki bidang kesehatan mental dengan janji-janji seperti deteksi dini gangguan mental dan terapi virtual, tetapi bukti menunjukkan bahwa teknologi tersebut dapat menimbulkan risiko serius, terutama bagi orang-orang yang rentan.
Menurut Pars Today, chatbot psikoterapi, yang seharusnya mengisi kesenjangan akses ke layanan kesehatan mental di daerah tertinggal, terkadang memberikan saran tidak profesional yang bertentangan dengan prinsip-prinsip psikoterapi. Misalnya, sebuah studi tahun 2024 menemukan bahwa lebih dari 30% pengguna alat ini menerima saran yang mengabaikan atau bahkan mendorong pikiran bunuh diri.
Masalah besar lainnya adalah bias rasial, gender, dan budaya dalam sistem ini. Data pelatihan kecerdasan buatan sering kali dirancang berdasarkan sampel pria Barat kulit putih, yang menyebabkan diagnosis salah atau penyangkalan identitas individu dari kelompok minoritas.
Misalnya, pasien Asia yang mengalami gejala psikosomatis seperti sakit kepala atau sakit perut diberi label berlebihan dan tidak mendapatkan penanganan yang tepat. Selain itu, orang-orang dengan identitas gender beragam terkadang menghadapi respons yang menyinggung.
Bencana di Florida pada bulan Oktober 2024 menyoroti risiko ini. Sebuah chatbot berdasarkan karakter Daenerys Targaryen turut menyebabkan kematian seorang remaja berusia 14 tahun dengan mendukung pikirannya untuk bunuh diri. Peristiwa tersebut memicu perdebatan tentang tanggung jawab hukum dan etika perusahaan teknologi. Kurangnya pengawasan manusia dan aturan yang jelas telah membuat alat-alat ini menjadi ancaman potensial.
Para peneliti memperingatkan bahwa ketergantungan yang berlebihan pada kecerdasan buatan dapat menyederhanakan kompleksitas jiwa manusia. Jiwa manusia berada di luar pola yang dapat diprediksi, dan chatbot tidak dapat menggantikan empati dan pengertian terapis sungguhan. Untuk mengurangi risiko, saran telah diajukan seperti mengaudit bias, menggunakan data yang lebih beragam, mengawasi psikoterapis manusia, dan menetapkan aturan etika dan hukum.
Menerapkan kecerdasan buatan pada kesehatan mental adalah pedang bermata dua. Jika dikembangkan dengan pemantauan cermat dan data komprehensif, hal ini dapat meningkatkan akses ke layanan kesehatan mental, tetapi tanpa mengoreksi bias dan campur tangan manusia, hal ini dapat membahayakan daripada menyelamatkan nyawa.Lalu pertanyaan utamanya, bisakah jiwa manusia dipahami melalui algoritma, atau apakah "hati" masih dibutuhkan? Jawaban atas pertanyaan tersebut akan menentukan masa depan teknologi ini.(PH)