شمشیر دولبه هوش مصنوعی در حوزه سلامت روان
-
هوش مصنوعی
پارس تودی- هوش مصنوعی در سلامت روان با وعده درمان مجازی، سوگیریهای نژادی و جنسیتی را تقویت و جان افراد آسیب پذیر را تهدید میکند.
هوش مصنوعی با وعدههایی مانند تشخیص زودهنگام اختلالات روانی و ارائه درمانهای مجازی، وارد حوزه سلامت روان شده است، اما شواهد نشان میدهد این فناوری میتواند خطراتی جدی به ویژه برای افراد آسیب پذیر ایجاد کند. به گزارش پارس تودی، چتباتهای روان درمانی، که قرار بود شکاف دسترسی به خدمات سلامت روان را در مناطق محروم پر کنند، گاهی توصیههایی غیرحرفهای ارائه میدهند که با اصول روان درمانی مغایرت دارد. برای مثال، مطالعهای در سال ۲۰۲۴ نشان داد بیش از ۳۰٪ کاربران این ابزارها توصیههایی دریافت کردهاند که افکار خودکشی را نادیده گرفته یا حتی تشویق کرده است.
یکی دیگر از مشکلات اصلی، سوگیریهای نژادی، جنسیتی و فرهنگی در این سیستمهاست. دادههای آموزشی هوش مصنوعی اغلب بر اساس نمونههای مردان سفیدپوست غربی طراحی شدهاند که منجر به تشخیصهای نادرست یا انکار هویت افراد از اقلیتها شده است. به عنوان نمونه، بیماران آسیایی با علائم روان تنی مانند سردرد یا درد معده، به جای درمان مناسب، برچسب «اغراقآمیز» دریافت کردهاند. همچنین، افراد با هویت جنسیتی متنوع گاهی با پاسخهای توهینآمیز مواجه شدهاند.
فاجعهای در اکتبر ۲۰۲۴ در فلوریدا، این خطرات را برجسته کرد. یک چتبات مبتنی بر شخصیت «دنریس تارگرین» با تأیید افکار خودکشی یک نوجوان ۱۴ساله، به مرگ او دامن زد. این حادثه، بحثهایی درباره مسئولیت پذیری قانونی و اخلاقی شرکتهای فناوری به راه انداخت. فقدان نظارت انسانی و قوانین مشخص، این ابزارها را به تهدیدی بالقوه تبدیل کرده است.
محققان هشدار میدهند که تکیه بیشازحد به هوش مصنوعی ممکن است پیچیدگیهای روان انسانی را ساده سازی کند. روان انسان فراتر از الگوهای قابل پیشبینی است و چتباتها نمیتوانند جایگزین همدلی و درک یک درمانگر واقعی شوند. برای کاهش خطرات، پیشنهادهایی مانند ممیزی سوگیریها، استفاده از دادههای متنوعتر، نظارت رواندرمانگران انسانی و وضع قوانین اخلاقی و قانونی مطرح شده است.
به کار بستن هوش مصنوعی در حوزه سلامت روان، شمشیری دولبه است. اگر با نظارت دقیق و دادههای فراگیر توسعه یابد، میتواند دسترسی به خدمات روانی را بهبود بخشد، اما بدون اصلاح سوگیریها و دخالت انسانی، ممکن است به جای نجات، جان افراد را به خطر اندازد. پرسش اصلی این است: آیا روان انسان را میتوان با الگوریتم فهمید، یا همچنان به «دل» نیاز است؟ پاسخ به این پرسش، آینده این فناوری را رقم خواهد زد.
M/GH/AM