Արհեստական բանականության երկսայր սուրը՝ հոգեկան առողջության ոլորտում
(last modified Thu, 17 Apr 2025 06:46:18 GMT )
Ապրիլ 17, 2025 10:16 Asia/Tehran
  • Արհեստական բանականության երկսայր սուրը՝ հոգեկան առողջության ոլորտում

Հակառակ հոգեկան առողջուրթյան ոլորտում մարդկանց օգնելու մասին խոստումներին, արհեստական բանականությունը խորացնում է ռասայական ու գենդերային խտրականությունն ու սպառնում խոցելի խմբերին։

Արհեստական բանականությունը մուտք է գործել հոգեկան առողջության ոլորտ այնպիսի ոխստումներով, ինչպես՝ հոգեկան խանգարումների վաղ հայտնաբերումը և վիրտուալ թերապիան։ Սակայն իրականում այս տեխնոլոգիան կարող է լուրջ վտանգներ ներկայացնել հատկապես խոցելի մարդկանց համար:

Pars Today-ի հաղորդմամբ՝ հոգեթերապիայի թեմայով չաթ-բոտերը, որոնք պետք է լրացնեին անապահով վայրերում հոգեկան առողջության ծառայությունների հասանելիության բացը, երբեմն տալիս են ոչ պրոֆեսիոնալ խորհուրդներ, որոնք հակասում են հոգեթերապիայի սկզբունքներին: Օրինակ, 2024 թվականի ուսումնասիրությունը ցույց է տվել, որ այս գործիքներից օգտվողների ավելի քան 30%-ը ստացել է խորհուրդներ, որոնք անտեսում կամ նույնիսկ խրախուսում են ինքնասպանության մտքերը:

Հաջորդ լուրջ խնդիրը ռասայական, գենդերային և մշակութային կողմնակալությունն է: Արհեստական բանականության ուսուցման տվյալները հաճախ ստեղծվել են արևմտյան սպիտակամորթ տղամարդկանց նմուշների հիման վրա, ինչը հանգեցրել է փոքրամասնությունների անհատների ինքնության սխալ ախտորոշման կամ մերժման:

Օրինակ՝ ասիացի հիվանդների մոտ հոգեսոմատիկ ախտանիշներն, ինչպիսիք են գլխացավը կամ ստամոքսի ցավը, պիտակավորվել են որպես «չափազանցված»։ Իսկ տարբեր գենդերային ինքնություն ունեցող մարդիկ երբեմն ստացել են վիրավորական պատասխանների:

2024 թվականի հոկտեմբերին Ֆլորիդայում տեղի ունեցած դեպքն այդ ռիսկերի լավագույն վկայությունն է։ Դեյներիս Թարգարիենի կերպարի վրա հիմնված չաթ-բոտը նպաստեց 14-ամյա երեխայի մահվանը՝ հաստատելով նրա ինքնասպանության մտքերը: Միջադեպը բանավեճեր առաջացրեց տեխնոլոգիական ընկերությունների իրավական և էթիկական պատասխանատվության մասին: Մարդկային վերահսկողության և հստակ կանոնների բացակայությունը այս գործիքները դարձրել է պոտենցիալ սպառնալիք:

Հետազոտողները զգուշացնում են, որ արհեստական բանականությունը չի կարող հասկանալ մարդու հոգեկան ապրումների խորությունը։ Մարդկային հոգեբանությունը դուրս է կանխատեսելի օրինաչափություններից, և չաթ-բոտերը չեն կարող փոխարինել իրական թերապևտի կարեկցանքն ու հասկացողությունը: Ռիսկերը նվազեցնելու համար առաջարկվել է  օգտվել տվյալների ավելի մեծ բազայից, հաստատել համապատասխան իրավական նորմեր  և սահմանել հոգեթերապևտների վերահսկողություն։

Արհեստական բանականությունը հոգեկան առոջղության ոլորտում կիրառելը լի է վտանգներով։ Այն նման է երկսայրի սրի: Եթե ծրագիրը մշակվի մանրակրկիտ մոնիտորինգի և համապարփակ տվյալների հիման վրա, այն կարող է բարելավել հոգեկան առողջության ծառայությունների հասանելիությունը, հակառակ դեպքում, այն կարող է ավելի շուտ վտանգել, քան փրկել կյանքեր: Հիմնական հարցը հետևյալն է՝ կարելի՞ է ալգորիթմներով հասկանալ մարդու հոգեկանը, թե՞ դրա համար «սիրտ» է պետք: Այս հարցի պատասխանը կորոշի այս տեխնոլոգիայի ապագան: