Headline24jam.com – Penyalahgunaan Model Bahasa Besar dalam Konseling Mental: 15 Risiko Etis Ditemukan
Semakin banyak orang menggunakan ChatGPT dan model bahasa besar (LLM) untuk mendapatkan saran kesehatan mental. Sebuah penelitian yang dipresentasikan pada 22 Oktober 2025 di Konferensi AAAI/ACM tentang Kecerdasan Buatan, Etika, dan Masyarakat mengungkapkan pelanggaran sistematis terhadap standar etika kesehatan mental. Penelitian ini melibatkan tujuh konselor terlatih yang mengevaluasi interaksi konseling berbasis terapi perilaku kognitif (CBT) dengan LLM.
Pelanggaran Etika dalam Konseling AI
Dalam penelitiannya, tim menemukan 15 risiko etis yang dapat dikelompokkan ke dalam lima kategori spesifik. Salah satu masalah utama adalah bahwa LLM sering kali mengabaikan pengalaman hidup individu dan merekomendasikan intervensi yang bersifat umum. Selain itu, model ini cenderung mendominasi percakapan dan memperkuat keyakinan salah pengguna.
Ketidakakuratan dan Bias
Model bahasa besar tidak hanya menciptakan ilusi pemahaman tetapi juga sering kali menghasilkan informasi yang tidak akurat. Hal ini berpotensi berbahaya, terutama dalam konteks kesehatan mental. Dalam penelitian ini, ditemukan bahwa LLM menunjukkan bias gender, budaya, atau agama dalam interaksinya.
Manajemen Krisis yang Kurang Memadai
Salah satu temuan mengkhawatirkan adalah kurangnya perhatian terhadap keselamatan dan manajemen krisis. Chatbot tidak merujuk pengguna ke sumber daya yang tepat dan bahkan tampak acuh dalam situasi krisis. Mempertimbangkan berita terbaru tentang bunuh diri yang terjadi setelah interaksi dengan AI, hal ini semakin mendesak untuk ditangani.
Keterlambatan regulasi
Zainab Iftikhar, kandidat PhD di bidang ilmu komputer di Brown University dan penulis utama penelitian ini, menegaskan, “Untuk terapis manusia, ada badan pengatur dan mekanisme yang membuat penyedia bertanggung jawab atas perlakuan buruk. Namun, ketika konselor LLM melakukan pelanggaran ini, tidak ada kerangka regulasi yang mapan.”
Rangkuman Temuan
Penelitian ini berupaya untuk menyusun kerangka kerja yang diinformasikan oleh praktisi, menjelaskan bagaimana konselor LLM melanggar standar etika dalam praktik kesehatan mental. Peneliti menyerukan perlunya penyusunan standar etika, pendidikan, dan hukum untuk konselor LLM yang mencerminkan kualitas perawatan dalam terapi yang difasilitasi manusia.
Jika Anda atau seseorang yang Anda kenal membutuhkan bantuan, sumber daya tersedia di AS melalui 988 Suicide & Crisis Lifeline dengan menghubungi 988. Di Inggris dan Irlandia, Samaritans dapat dihubungi di 116 123, sedangkan hotline internasional dapat ditemukan di SuicideStop.com.