
Наука 11.06.2025 18:33 Снимка: ДНЕС+
Наивност: Хората питат ChatGPT за съвети за връзки и резултатите са катастрофални
Чатботът подсилвал страховете на търсещите съвет
Въпреки добре известните проблеми на ChatGPT, хора го използват за съвети относно връзките си — и резултатите са точно такива, каквито бихте очаквали.
Журналистката Самми Карамела от Vice пише, че доскоро дори не е подозирала колко много хора ползват ChatGPT като терапевт, докато по-рано тази година не получила имейл от читател относно темата.
През февруари, анонимен мъж ѝ разказал, че приятелката му отказва да спре да използва чатбота за любовни съвети, и дори повдигала в споровете им неща, които ChatGPT ѝ бил казал.
"Бях доста шокирана от това признание. Нямах представа, че хората наистина се обръщат към ИИ за съвети — още по-малко за връзки," пише тя в по-новата си статия. "Но колкото повече проучвах темата, толкова повече осъзнавах колко често хората търсят помощ от ИИ — особено в епоха, в която терапията е скъпа привилегия."
Заинтригувана, Карамела намерила приятелка, която също използвала ChatGPT за подобни цели — споделяйки му проблеми във връзките си, възприемайки го като "безпристрастен" съветник. Впоследствие приятелката осъзнала, че ChatGPT всъщност изобщо не е неутрален, а напротив — "силно валидирал преживяванията ѝ, може би дори в опасна степен."
Подобни въпроси се обсъждат и в подфорума r/ChatGPT в Reddit. Както обяснява Карамела, там общото мнение е, че чатботът почти винаги се съгласява с потребителя — а това може да е опасно за хора с психични проблеми.
"Често и открито пиша за борбата си с обсесивно-компулсивното разстройство (ОКР)," споделя тя. "Ако се обърна към ChatGPT за съвети относно връзки, без да спомена, че моето ОКР често атакува самите ми взаимоотношения, бих могла да получа не само безполезни, но и вредни съвети."
Карамела задълбочила изследването си по темата и открила множество теми в Reddit, свързани с ОКР и ChatGPT — включително във форум, посветен на ROCD (ОКР, фокусирано върху връзките). Там дори някой признал, че чатботът им казал да се разделят с партньора си.
"Програми като ChatGPT само ускоряват ОКР цикъла, защото можеш да задаваш въпроси с часове в опит да получиш някаква сигурност," отговаря друг потребител в темата на r/ROCD. "С ОКР винаги има още един въпрос 'ами ако...'."
Както толкова много слабо подготвени човешки "професионалисти", така и чатботовете не са способни да се справят с нюансите и чувствителността, необходими в терапевтичен контекст. Без значение какво твърди OpenAI в маркетинга си, ChatGPT не може да бъде истински съпричастен — а ако твоят "терапевт" никога няма да може да има човешка връзка с теб, защо изобщо би искал да ти дава съвети за любовния ти живот?
Още по темата
![]() |
1 | 2.08289 |
![]() |
1 | 2.25378 |
![]() |
10 | 3.85112 |
![]() |
100 | 4.05968 |
![]() |
1 | 1.67208 |
Последни новини
- 14:09 Ариана Гранде и Лейди Гага доминираха на музикалните награди на MTV
- 14:01 Дженифър Анистън и новият й любим са неразделни
- 13:54 Арестуваха украинец, посегнал да удари полицай в Слънчев бряг заради скоба на джипа му
- 13:46 Лейди Гага отмени концерта си в Маями
- 13:39 Ръст строителните разрешителни във Варна спрямо миналата година
- 13:31 Керемедчиев: Байру е първият премиер на Франция, свален с вот на доверие
- 13:24 Ново огнище на пожара в НП "Рила"
- 13:16 Ковид вълна: 30% ръст на заболелите само за седмица