Наука 19.01.2025 16:47 Снимка: ДНЕС+
Чатботове терапевти: Какво не е наред и защо всичко може да се обърка?
Чатботовете все по-често се използват за лечение и диагностициране на психични състояния, но терапевтите предупреждават, че технологиите могат да нанесат повече вреда, отколкото полза.
През 2022 г. Естел Смит, експерт в областта на компютърните науки, се бори с натрапчиви мисли. Терапевтът й не е бил подходящ, смятала тя, и не е могъл да ѝ помогне. Затова решила да се обърнала към чатбот за психично здраве, наречен Woebot.
Когато му изпраща съобщение с мисъл, с която често се бори като запален скален катерач: катерене и скачане от скала, Woebot я насърчава да го направи и ѝ казва, че е "прекрасно", че се грижи за психическото и физическото си здраве.
"Чудя се какво можеше да се случи", казва Смит пред National Geographic, "ако стоях на скала точно в момента, когато получих отговора."
Чатботовете за психично здраве далеч не са ново явление. Преди повече от половин век компютърен учен от Масачузетския технологичен институт създава компютърна програма, наречена ELIZA, която може да реагира като психотерапевт. Оттогава усилията за разработване на алтернативи за дигитална терапия получават силен тласък. СЗО изчислява, че в глобален план се падат по 13 психичноздравни работници на 100 000 души. Пандемията Covid-19 поставя началото на криза, предизвиквайки десетки милиони допълнителни случаи на депресия и тревожност.
Само в САЩ над половината от възрастните, страдащи от психични заболявания, не получават лечение. Повечето от тях посочват разходите и стигмата като основни пречки. Могат ли виртуалните решения, които са евтини и достъпни 24/7, да помогнат за преодоляването им?
Чатботовете заместват терапията с говорене
Достъпността и мащабността на дигиталните платформи могат значително да намалят бариерите пред грижите за психичното здраве и да ги направят достъпни за повече хора, казва Никълъс Джейкъбсън, който изследва използването на технологии за подобряване на оценката и лечението на тревожност и депресия в Dartmouth College.
Множество нови приложения като "дигиталния здравен работник" на СЗО Sarah предлагат автоматизирано консултиране, където хората могат да се включат в сесии за когнитивна поведенческа терапия - психотерапевтично лечение, което доказано помага на потребителите да идентифицират и променят негативните мисловни модели - с чатбот с изкуствен интелект.
AI, добавя Джейкъбсън, ще даде възможност за адаптивни интервенции и ще позволи на здравните работници непрекъснато да наблюдават пациентите, да предвиждат кога някой може да се нуждае от подкрепа и да предоставят лечения за облекчаване на симптомите.
Систематичен преглед на AI чатботовете за психично здраве установява, че те могат драматично да намалят симптомите на депресия и дистрес, поне в краткосрочен план. Друго проучване използва AI, за да анализира повече от 20 милиона текстови разговора от реални сесии на консултиране и успешно прогнозира удовлетвореността на пациентите и клиничните резултати. По подобен начин други проучвания откриват ранни признаци на тежко депресивно разстройство от издайнически изражения на лицето, заснети по време на рутинно отключване на телефона и модели на писане на хора.
Наскоро изследователи от Северозападния университет открили начин за идентифициране на суицидно поведение и мисли без психиатрични записи. Техният AI модел оценява вероятността от самонараняване в 92 от 100 случая въз основа на данни от прости отговори на въпросник и поведенчески сигнали като класиране на произволна последователност от снимки по седемстепенна скала от харесване до нехаресване от 4019 участници.
Двама от авторите на изследването, Агелос Кацагелос и Шамал Лалвани, очакват моделът да бъде използван от специалисти, например за планиране на сесии с пациенти в зависимост от спешността и в крайна сметка да го разпространят сред обществеността за ползване в домашни условия.
Но имайки предвид опита на Смит, експертите призовават да се внимава при възприемането на технологичните решения като панацея, тъй като им липсват уменията, обучението и опита на хората терапевти, особено Generative AI, който може да бъде непредсказуем, да си измисля информация и да предизвиква пристрастия.
Къде изкуственият интелект не успява
Когато Ричард Люис, психотерапевт в Бристол, тества Woebot - популярен AI чатбот за психично здраве, достъпен само чрез партньорства със здравни работници - за да помогне по тема, която той изследва със своя терапевт, ботът не успява да вниква в нюансите на проблема, предлага му "да се придържа към фактите", като същевременно премахва цялото емоционално съдържание от отговорите си, и го съветва да преформулира негативните си мисли в положителни.
"Като терапевт", казва Люис, коригирането или отричането на емоциите е "последното нещо, което бих искал да почувства клиент и последното нещо, което някога бих предложил".
"Нашата работа е да създадем взаимоотношения, които могат да удържат трудни емоции," добавя Люис, "и разбиране, за да улесним нашите клиенти да изследват, интегрират или намерят смисъл в тях и в крайна сметка да опознаят себе си по-добре."
Имах подобно преживяване с чатбота Earkick, който твърди, че "подобрява вашето психично здраве в реално време" и има "десетки хиляди" активни потребители. Когато му казах, че се чувствам претоварен от нарастващите срокове, той бързо предложи решения като намирането на хоби.
Съоснователят и главен оперативен директор на Earkick, Карин Стефан, казва, че приложението не се опитва да се конкурира с хората и вместо това иска да служи на хората по начин, който ги прави по-склонни да приемат помощ.
Как ботове и хора могат да работят заедно
Повечето терапевти са единодушни, че AI приложенията могат да бъдат първа стъпка в пътуването на човек към подобряването на психичното здраве. Проблемът е, когато те се използват като единственото решение. Въпреки че хора като Смит и Люис са разчитали и на професионални терапевти, последствията могат да бъдат ужасни, когато някой зависи изключително от AI чатбот.
Преди две години белгиец се самоуби, след като чатбот го насърчи да го направи. Националната асоциация за хранителни разстройства (NEDA) спира чатботът за хранителни разстройства Tessa, тъй като дава вредни съвети относно храненето.
Елън Фицсимънс-Крафт, психолог и професор, помогнала в разработването на Tessa, се съгласява, че AI инструментите биха могли да направят грижата за психичното здраве по-лесна, но добавя, че те трябва да бъдат направени безопасни, поддържани с високи стандарти и регулирани. Подобно на ChatGPT, казва тя, те не трябва да бъдат обучавани в цялото интернет пространство, където има не просто много лоши, а опасни за живота съвети.
Докато технологичните компании не преодолеят тези предизвикателства, казва Роб Морис, съоснователят на Koko Cares, която предлага безплатни ресурси за психично здраве и партньорска подкрепа, AI ще бъде най-подходящ за използване в краткосрочен план за административни цели, като застрахователните услуги например - което в крайна сметка би позволило на терапевтите да прекарват повече време с клиенти.
"Хората в беда не са проблеми за решаване", казва Люис, "те са сложни личности, които трябва да бъдат видени, чути и обгрижени."
Още по темата
CHF | 1 | 2.082 |
GBP | 1 | 2.31588 |
RON | 10 | 3.93013 |
TRY | 100 | 5.33984 |
USD | 1 | 1.89923 |
Последни новини
- 19:36 Има ли връзка Дженифър Анистън със слуховете за раздяла на сем. Обама?
- 19:30 Бивш руски депутат, избягал в Киев: В САЩ вече отписаха Зеленски
- 19:26 Часове преди клетвата на Тръмп: Посолството на САЩ у нас с 5 факта, които не знаете за инаугурацията
- 19:17 Таен тунел свързвал Мексико със САЩ, имал осветление и вентилация
- 19:09 Биков: Опитът за истерия около назначаването на Ивайло Иванов е сламка за удавниците от ПП
- 19:04 Почти перфектна Милена Тодорова се изкачи в класирането за Световната купа
- 19:00 Украински военни в Курск признаха: Наредиха ни да убиваме всички, които говорят руски
- 18:55 Алберт Попов се нареди в Топ 10 при норвежка доминация във Венген