Shpata me dy tehe e inteligjencës artificiale në shëndetin mendor
(last modified Wed, 16 Apr 2025 19:11:58 GMT )
Prill 16, 2025 21:11 Europe/Tirane
  • Inteligjenca artificiale
    Inteligjenca artificiale

ParsToday - Inteligjenca artificiale në shëndetin mendor, me premtimin e terapisë virtuale, përforcon animet ekstremiste racore dhe gjinore dhe kërcënon jetën e njerëzve vulnerabël.

Inteligjenca artificiale ka hyrë në fushën e shëndetit mendor me premtime të tilla si zbulimi i hershëm i çrregullimeve mendore dhe terapia virtuale, por provat tregojnë se teknologjia mund të përbëjë rreziqe serioze, veçanërisht për njerëzit vulnerabël. Sipas ParsToday, chatbot-et e psikoterapisë, të cilat supozohej të mbushnin boshllëkun në aksesin në shërbimet e shëndetit mendor në zonat e privuara, ndonjëherë ofrojnë këshilla joprofesionale që bien ndesh me parimet e psikoterapisë. Për shembull, një studim i vitit 2024 zbuloi se më shumë se 30% e përdoruesve të këtyre mjeteve morën këshilla që injoronin apo edhe inkurajonin mendimet për vetëvrasje.

Një problem tjetër madhor janë prirjet ekstremiste racore, gjinore dhe kulturore në këto sisteme. Të dhënat e trajnimit të AI shpesh janë krijuar bazuar në mostrat e burrave të bardhë perëndimorë, gjë që ka çuar në diagnoza të pasakta ose mohim të identitetit të individëve nga pakicat. Për shembull, pacientët aziatikë me simptoma psikosomatike si dhimbje koke ose stomaku janë etiketuar si "të ekzagjeruar" në vend që të trajtohen siç duhet. Gjithashtu, njerëzit me identitete të ndryshme gjinore ndonjëherë janë përballur me përgjigje fyese.

Një fatkeqësi në Florida në tetor të vitit 2024 theksoi këto rreziqe. Një chatbot i bazuar në personazhin Daenerys Targaryen kontribuoi në vdekjen e një 14-vjeçari duke miratuar mendimet e tij për vetëvrasje. Incidenti ndezi debate rreth përgjegjësisë ligjore dhe etike të kompanive të teknologjisë. Mungesa e mbikëqyrjes njerëzore dhe rregullave të qarta i ka bërë këto mjete një kërcënim të mundshëm.

Studiuesit paralajmërojnë se mbështetja e tepërt në inteligjencën artificiale mund të thjeshtojë kompleksitetin e psikikës njerëzore. Psikika njerëzore është përtej modeleve të parashikueshme dhe chatbot-et nuk mund të zëvendësojnë ndjeshmërinë dhe mirëkuptimin e një terapisti të vërtetë. Për të reduktuar rreziqet, janë bërë sugjerime të tilla si auditimi i paragjykimeve, përdorimi i të dhënave më të ndryshme, mbikëqyrja e psikoterapistëve njerëzorë dhe vendosja e rregullave etike dhe ligjore.

Zbatimi i inteligjencës artificiale për shëndetin mendor është një thikë me dy tehe. Nëse zhvillohet me monitorim të kujdesshëm dhe të dhëna gjithëpërfshirëse, ai mund të përmirësojë aksesin në shërbimet e shëndetit mendor, por pa korrigjuar paragjykimet dhe ndërhyrjen njerëzore, ai mund të rrezikojë dhe jo të shpëtojë jetë. Pyetja kryesore është: A mund të kuptohet psikika e njeriut me algoritme, apo duhet ende një “zemër”? Përgjigja për këtë pyetje do të përcaktojë të ardhmen e kësaj teknologjie.