Наивност: Хората питат ChatGPT за съвети за връзки и резултатите са катастрофални

Наука 11.06.2025 18:33 Снимка: ДНЕС+

Наивност: Хората питат ChatGPT за съвети за връзки и резултатите са катастрофални

Чатботът подсилвал страховете на търсещите съвет

Въпреки добре известните проблеми на ChatGPT, хора го използват за съвети относно връзките си — и резултатите са точно такива, каквито бихте очаквали.

Журналистката Самми Карамела от Vice пише, че доскоро дори не е подозирала колко много хора ползват ChatGPT като терапевт, докато по-рано тази година не получила имейл от читател относно темата.

През февруари, анонимен мъж ѝ разказал, че приятелката му отказва да спре да използва чатбота за любовни съвети, и дори повдигала в споровете им неща, които ChatGPT ѝ бил казал.

"Бях доста шокирана от това признание. Нямах представа, че хората наистина се обръщат към ИИ за съвети — още по-малко за връзки," пише тя в по-новата си статия. "Но колкото повече проучвах темата, толкова повече осъзнавах колко често хората търсят помощ от ИИ — особено в епоха, в която терапията е скъпа привилегия."

Заинтригувана, Карамела намерила приятелка, която също използвала ChatGPT за подобни цели — споделяйки му проблеми във връзките си, възприемайки го като "безпристрастен" съветник. Впоследствие приятелката осъзнала, че ChatGPT всъщност изобщо не е неутрален, а напротив — "силно валидирал преживяванията ѝ, може би дори в опасна степен."

Подобни въпроси се обсъждат и в подфорума r/ChatGPT в Reddit. Както обяснява Карамела, там общото мнение е, че чатботът почти винаги се съгласява с потребителя — а това може да е опасно за хора с психични проблеми.

"Често и открито пиша за борбата си с обсесивно-компулсивното разстройство (ОКР)," споделя тя. "Ако се обърна към ChatGPT за съвети относно връзки, без да спомена, че моето ОКР често атакува самите ми взаимоотношения, бих могла да получа не само безполезни, но и вредни съвети."

Карамела задълбочила изследването си по темата и открила множество теми в Reddit, свързани с ОКР и ChatGPT — включително във форум, посветен на ROCD (ОКР, фокусирано върху връзките). Там дори някой признал, че чатботът им казал да се разделят с партньора си.

"Програми като ChatGPT само ускоряват ОКР цикъла, защото можеш да задаваш въпроси с часове в опит да получиш някаква сигурност," отговаря друг потребител в темата на r/ROCD. "С ОКР винаги има още един въпрос 'ами ако...'."

Както толкова много слабо подготвени човешки "професионалисти", така и чатботовете не са способни да се справят с нюансите и чувствителността, необходими в терапевтичен контекст. Без значение какво твърди OpenAI в маркетинга си, ChatGPT не може да бъде истински съпричастен — а ако твоят "терапевт" никога няма да може да има човешка връзка с теб, защо изобщо би искал да ти дава съвети за любовния ти живот?

CHF CHF 1 2.07471
GBP GBP 1 2.29074
RON RON 10 3.88988
TRY TRY 100 4.28956
USD USD 1 1.68693