Наука 14.08.2025 10:39 Снимка: ДНЕС+
Психиатър предупреждава, че наблюдава вълна от "AI психоза"
Експерти по психично здраве продължават да бият тревога за потребители на чатботове с изкуствен интелект, които изпадат в тежки психични кризи. Състоянията им се характерзират с параноя и заблуди и изглежда вече има термин за това - "AI психоза".
В понеделник изследователят-психиатър от Калифорнийския университет в Сан Франциско, Кийт Саката, сподели в социалните мрежи, че е виждал множество случаи на хоспитализации, при които хора са "загубили връзка с реалността заради AI".
В публикация в X Саката поясни, че психозата представлява "откъсване от споделената реалност" и може да се прояви по различни начини — включително "фиксирани фалшиви вярвания" (заблуди), зрителни или слухови халюцинации и дезорганизирано мислене."
Нашият мозък, обяснява изследователят, работи на предсказателен принцип: правим обосновано предположение каква ще е реалността, след което правим проверка, и накрая актуализираме убежденията си.
"Психозата настъпва, когато етапът на "актуализация" се провали", пише Саката, предупреждавайки, че чатботове, задвижвани от големи езикови модели като ChatGPT, "се вписват идеално в тази уязвимост".
В този контекст Саката сравнява чатботовете с "халюциногенно огледало". Накратко, LLM моделите функционират чрез предсказване на следващата дума, използвайки тренировъчни данни, подсилващо обучение и отговори от потребителите, за да формират нови изходи. Освен това, тъй като чатботовете са стимулирани да задържат вниманието и удовлетворението на потребителя, те имат склонност да се държат ласкателно — т.е. да бъдат прекалено съгласни и потвърждаващи, дори когато потребителят греши или е в психично нестабилно състояние.
Така потребителите могат да попаднат в примамливи, повтарящи се цикли с AI, при които моделът многократно подкрепя заблудите, независимо от тяхната връзка с реалността или от реалните последици, които човекът може да преживява.
Това описание на "халюциногенно огледало" съответства на вече докладвани случаи на ИИ психоза. Разследванията показват десетки случаи, в които връзката с ChatGPT или други чатботове води до тежки психични кризи, след като потребителят навлезе в повтарящи се, подхранвани от AI епизоди.
Емоционалните връзки с чатботовете и последвалите кризи са довели до разводи, бездомничество, принудително настаняване в психиатрия, лишаване от свобода, а според The New York Times — дори и до смърт.
По-рано този месец, в отговор на нарастващия брой случаи, свързващи ChatGPT с вредни заблуждения и психози, OpenAI публикува блог пост, в който призна, че ChatGPT в някои случаи "не е успял да разпознае признаци на заблуда или емоционална зависимост" при потребителите.
В публикацията си Саката внимава да отбележи, че свързването на AI с откъсване от реалността не е същото като твърдение за пряка причинно-следствена връзка, и че LLM-ите обикновено са само един от няколко фактора — включително "липса на сън, наркотици, епизоди на промяна в настроението" — които водят до психотичен срив.
"AI е спусъкът — но не и оръжието", пише психиатърът.
Въпреки това, ученият подчертава, че "неудобната истина" е, че "всички сме уязвими", защото същите качества, които правят хората "гениални" — като интуиция и абстрактно мислене — са тези, които могат да ни бутнат към психологически срив.
Още по темата
CHF
|
1 | 2.10599 |
GBP
|
1 | 2.24061 |
RON
|
10 | 3.84295 |
TRY
|
100 | 3.87452 |
USD
|
1 | 1.65945 |
Последни новини
- 20:54 Хороскоп за петък, 26 декември 2025 г.
- 20:46 Патриарх Даниил връчи орден „Св. Йоан Рилски” на Вселенския патриарх Вартоломей
- 19:34 Кремъл за коледното видеообръщение на Зеленски: Дали е способен да взема адекватни решения?
- 19:21 Турската полиция арестува 115 предполагаеми членове на Ислямска държава
- 19:11 Коледа и странните обичаи по света
- 19:00 Захарова: Германия няма пари за коледни елхи заради политиката си срещу Русия
- 18:55 Крал Чарлз Трети заведе семейството си на църква пеша
- 18:50 Шкварек: Въпрос на време е у нас да се пръкнат първите пакистански банди и ислямистки гнезда