Психиатър предупреждава, че наблюдава вълна от "AI психоза"

Наука 14.08.2025 10:39 Снимка: ДНЕС+

Психиатър предупреждава, че наблюдава вълна от "AI психоза"

Експерти по психично здраве продължават да бият тревога за потребители на чатботове с изкуствен интелект, които изпадат в тежки психични кризи. Състоянията им се характерзират с параноя и заблуди и изглежда вече има термин за това - "AI психоза".

В понеделник изследователят-психиатър от Калифорнийския университет в Сан Франциско, Кийт Саката, сподели в социалните мрежи, че е виждал множество случаи на хоспитализации, при които хора са "загубили връзка с реалността заради AI".

В публикация в X Саката поясни, че психозата представлява "откъсване от споделената реалност" и може да се прояви по различни начини — включително "фиксирани фалшиви вярвания" (заблуди), зрителни или слухови халюцинации и дезорганизирано мислене."

Нашият мозък, обяснява изследователят, работи на предсказателен принцип: правим обосновано предположение каква ще е реалността, след което правим проверка, и накрая актуализираме убежденията си.

"Психозата настъпва, когато етапът на "актуализация" се провали", пише Саката, предупреждавайки, че чатботове, задвижвани от големи езикови модели като ChatGPT, "се вписват идеално в тази уязвимост".

В този контекст Саката сравнява чатботовете с "халюциногенно огледало". Накратко, LLM моделите функционират чрез предсказване на следващата дума, използвайки тренировъчни данни, подсилващо обучение и отговори от потребителите, за да формират нови изходи. Освен това, тъй като чатботовете са стимулирани да задържат вниманието и удовлетворението на потребителя, те имат склонност да се държат ласкателно — т.е. да бъдат прекалено съгласни и потвърждаващи, дори когато потребителят греши или е в психично нестабилно състояние.

Така потребителите могат да попаднат в примамливи, повтарящи се цикли с AI, при които моделът многократно подкрепя заблудите, независимо от тяхната връзка с реалността или от реалните последици, които човекът може да преживява.

Това описание на "халюциногенно огледало" съответства на вече докладвани случаи на ИИ психоза. Разследванията показват десетки случаи, в които връзката с ChatGPT или други чатботове води до тежки психични кризи, след като потребителят навлезе в повтарящи се, подхранвани от AI епизоди.

Емоционалните връзки с чатботовете и последвалите кризи са довели до разводи, бездомничество, принудително настаняване в психиатрия, лишаване от свобода, а според The New York Times — дори и до смърт.

По-рано този месец, в отговор на нарастващия брой случаи, свързващи ChatGPT с вредни заблуждения и психози, OpenAI публикува блог пост, в който призна, че ChatGPT в някои случаи "не е успял да разпознае признаци на заблуда или емоционална зависимост" при потребителите.

В публикацията си Саката внимава да отбележи, че свързването на AI с откъсване от реалността не е същото като твърдение за пряка причинно-следствена връзка, и че LLM-ите обикновено са само един от няколко фактора — включително "липса на сън, наркотици, епизоди на промяна в настроението" — които водят до психотичен срив.

"AI е спусъкът — но не и оръжието", пише психиатърът.

Въпреки това, ученият подчертава, че "неудобната истина" е, че "всички сме уязвими", защото същите качества, които правят хората "гениални" — като интуиция и абстрактно мислене — са тези, които могат да ни бутнат към психологически срив.

CHF CHF 1 2.07868
GBP GBP 1 2.26605
RON RON 10 3.86291
TRY TRY 100 4.09891
USD USD 1 1.67008