
Наука 14.08.2025 10:39 Снимка: ДНЕС+
Психиатър предупреждава, че наблюдава вълна от "AI психоза"
Експерти по психично здраве продължават да бият тревога за потребители на чатботове с изкуствен интелект, които изпадат в тежки психични кризи. Състоянията им се характерзират с параноя и заблуди и изглежда вече има термин за това - "AI психоза".
В понеделник изследователят-психиатър от Калифорнийския университет в Сан Франциско, Кийт Саката, сподели в социалните мрежи, че е виждал множество случаи на хоспитализации, при които хора са "загубили връзка с реалността заради AI".
В публикация в X Саката поясни, че психозата представлява "откъсване от споделената реалност" и може да се прояви по различни начини — включително "фиксирани фалшиви вярвания" (заблуди), зрителни или слухови халюцинации и дезорганизирано мислене."
Нашият мозък, обяснява изследователят, работи на предсказателен принцип: правим обосновано предположение каква ще е реалността, след което правим проверка, и накрая актуализираме убежденията си.
"Психозата настъпва, когато етапът на "актуализация" се провали", пише Саката, предупреждавайки, че чатботове, задвижвани от големи езикови модели като ChatGPT, "се вписват идеално в тази уязвимост".
В този контекст Саката сравнява чатботовете с "халюциногенно огледало". Накратко, LLM моделите функционират чрез предсказване на следващата дума, използвайки тренировъчни данни, подсилващо обучение и отговори от потребителите, за да формират нови изходи. Освен това, тъй като чатботовете са стимулирани да задържат вниманието и удовлетворението на потребителя, те имат склонност да се държат ласкателно — т.е. да бъдат прекалено съгласни и потвърждаващи, дори когато потребителят греши или е в психично нестабилно състояние.
Така потребителите могат да попаднат в примамливи, повтарящи се цикли с AI, при които моделът многократно подкрепя заблудите, независимо от тяхната връзка с реалността или от реалните последици, които човекът може да преживява.
Това описание на "халюциногенно огледало" съответства на вече докладвани случаи на ИИ психоза. Разследванията показват десетки случаи, в които връзката с ChatGPT или други чатботове води до тежки психични кризи, след като потребителят навлезе в повтарящи се, подхранвани от AI епизоди.
Емоционалните връзки с чатботовете и последвалите кризи са довели до разводи, бездомничество, принудително настаняване в психиатрия, лишаване от свобода, а според The New York Times — дори и до смърт.
По-рано този месец, в отговор на нарастващия брой случаи, свързващи ChatGPT с вредни заблуждения и психози, OpenAI публикува блог пост, в който призна, че ChatGPT в някои случаи "не е успял да разпознае признаци на заблуда или емоционална зависимост" при потребителите.
В публикацията си Саката внимава да отбележи, че свързването на AI с откъсване от реалността не е същото като твърдение за пряка причинно-следствена връзка, и че LLM-ите обикновено са само един от няколко фактора — включително "липса на сън, наркотици, епизоди на промяна в настроението" — които водят до психотичен срив.
"AI е спусъкът — но не и оръжието", пише психиатърът.
Въпреки това, ученият подчертава, че "неудобната истина" е, че "всички сме уязвими", защото същите качества, които правят хората "гениални" — като интуиция и абстрактно мислене — са тези, които могат да ни бутнат към психологически срив.
Още по темата
![]() |
1 | 2.07868 |
![]() |
1 | 2.26605 |
![]() |
10 | 3.86291 |
![]() |
100 | 4.09891 |
![]() |
1 | 1.67008 |
Последни новини
- 11:52 Задържаха възрастен мъж, подпалил пожар, защото го дразнели сухите треви
- 11:46 „Пътна полиция“ във Варна ще работи с нормално работно време на 15 август
- 11:39 Българка загина при сблъсък между кола и пожарен камион в Гърция
- 11:31 Психологът Иван Игов: 1/3 от българските родители се държат агресивно един към друг пред децата
- 11:23 Над 500 дка гора погълна големият пожар край Кърджали
- 11:16 ПСЖ спечели Суперкупата на Европа след драматичен обрат над Тотнъм
- 11:08 Миършаймър пред Тъкър Карлсън: Защо Украйна е обречена
- 11:01 Бившият съпруг на Хали Бери проговори открито за раздялата си с актрисата