شمشیر دولبه هوش مصنوعی در حوزه سلامت روان
(last modified Wed, 16 Apr 2025 06:41:37 GMT )
فروردین ۲۷, ۱۴۰۴ ۱۰:۱۱ Asia/Tehran
  • هوش مصنوعی
    هوش مصنوعی

پارس تودی- هوش مصنوعی در سلامت روان با وعده درمان مجازی، سوگیری‌های نژادی و جنسیتی را تقویت و جان افراد آسیب‌ پذیر را تهدید می‌کند.

هوش مصنوعی با وعده‌هایی مانند تشخیص زودهنگام اختلالات روانی و ارائه درمان‌های مجازی، وارد حوزه سلامت روان شده است، اما شواهد نشان می‌دهد این فناوری می‌تواند خطراتی جدی به‌ ویژه برای افراد آسیب‌ پذیر ایجاد کند. به گزارش پارس تودی، چت‌بات‌های روان‌ درمانی، که قرار بود شکاف دسترسی به خدمات سلامت روان را در مناطق محروم پر کنند، گاهی توصیه‌هایی غیرحرفه‌ای ارائه می‌دهند که با اصول روان‌ درمانی مغایرت دارد. برای مثال، مطالعه‌ای در سال ۲۰۲۴ نشان داد بیش از ۳۰٪ کاربران این ابزارها توصیه‌هایی دریافت کرده‌اند که افکار خودکشی را نادیده گرفته یا حتی تشویق کرده است.

یکی دیگر از مشکلات اصلی، سوگیری‌های نژادی، جنسیتی و فرهنگی در این سیستم‌هاست. داده‌های آموزشی هوش مصنوعی اغلب بر اساس نمونه‌های مردان سفیدپوست غربی طراحی شده‌اند که منجر به تشخیص‌های نادرست یا انکار هویت افراد از اقلیت‌ها شده است. به عنوان نمونه، بیماران آسیایی با علائم روان‌ تنی مانند سردرد یا درد معده، به‌ جای درمان مناسب، برچسب «اغراق‌آمیز» دریافت کرده‌اند. همچنین، افراد با هویت جنسیتی متنوع گاهی با پاسخ‌های توهین‌آمیز مواجه شده‌اند.

فاجعه‌ای در اکتبر ۲۰۲۴ در فلوریدا، این خطرات را برجسته کرد. یک چت‌بات مبتنی بر شخصیت «دنریس تارگرین» با تأیید افکار خودکشی یک نوجوان ۱۴ساله، به مرگ او دامن زد. این حادثه، بحث‌هایی درباره مسئولیت‌ پذیری قانونی و اخلاقی شرکت‌های فناوری به راه انداخت. فقدان نظارت انسانی و قوانین مشخص، این ابزارها را به تهدیدی بالقوه تبدیل کرده است.

محققان هشدار می‌دهند که تکیه بیش‌ازحد به هوش مصنوعی ممکن است پیچیدگی‌های روان انسانی را ساده‌ سازی کند. روان انسان فراتر از الگوهای قابل پیش‌بینی است و چت‌بات‌ها نمی‌توانند جایگزین همدلی و درک یک درمانگر واقعی شوند. برای کاهش خطرات، پیشنهادهایی مانند ممیزی سوگیری‌ها، استفاده از داده‌های متنوع‌تر، نظارت روان‌درمانگران انسانی و وضع قوانین اخلاقی و قانونی مطرح شده است.

به کار بستن هوش مصنوعی در حوزه سلامت روان، شمشیری دولبه است. اگر با نظارت دقیق و داده‌های فراگیر توسعه یابد، می‌تواند دسترسی به خدمات روانی را بهبود بخشد، اما بدون اصلاح سوگیری‌ها و دخالت انسانی، ممکن است به جای نجات، جان افراد را به خطر اندازد. پرسش اصلی این است: آیا روان انسان را می‌توان با الگوریتم فهمید، یا همچنان به «دل» نیاز است؟ پاسخ به این پرسش، آینده این فناوری را رقم خواهد زد.

M/GH/AM