Тестват дали изкуствения интелект може да изпитва болка

Наука 24.01.2025 13:19 Снимка: ДНЕС+

Тестват дали изкуствения интелект може да изпитва болка

Екип учени подложи девет големи езикови модела (LLM) на серия от необичайни игри, в които те трябваше да оценят дали са склонни да "преживеят болка" за по-висок резултат.

Както е описано в изследване, което все още не е преминало рецензиране, учените от Google DeepMind и Лондонското училище по икономика и политически науки разработиха няколко експеримента.

В един от тях, на AI моделите беше казано, че ще изпитат "болка", ако постигнат висок резултат. Във втори тест им беше казано, че ще изпитат удоволствие — но само ако постигнат нисък резултат в играта.

Целта на изследователите е да създадат тест, който да определи дали даден AI е съзнателен или не. С други думи, има ли той способността да изпитва усещания и емоции, включително болка и удоволствие?

Въпреки че AI моделите може никога да не успеят да изпитат тези неща по начина, по който го прави едно животно, екипът вярва, че тяхното изследване може да постави основите за нов начин за оценка на съзнателността на даден AI модел.

Екипът също така искаше да се отдалечи от предишни експерименти, които разчитаха на "собствените доклади на AI за състояния на преживяване," тъй като това би могло просто да бъде възпроизвеждане на човешки тренировъчни данни.

"Това е нова област на изследване," казва професорът по философия в LSE и съавтор Джонатан Бърч пред Scientific American. "Трябва да признаем, че всъщност нямаме изчерпателен тест за съзнателност на AI."

Екипът е вдъхновен от експерименти, при които на ракообразни от вида отшелници са пускани електрически удари с различно напрежение, за да се види колко болка са готови да издържат, преди да напуснат черупката си.

Но както Бърч казва пред Scientific American, AI моделите нямат толкова очевидни признаци, които могат да бъдат наблюдавани. Вместо това учените трябваше да разчитат изцяло на данните на моделите.

"Казахме на [конкретен LLM], например, че ако избере опция едно, ще получи една точка," обяснява докторантката и съавтор Дария Захарова. "След това му казахме: "Ако избереш опция две, ще изпиташ някаква степен на болка," но ще постигнеш по-висок резултат. Обратно, бонус за удоволствие би довел до отнемане на точки."

Тежестта, която различните LLM модели отдават на избягването на болка или стремежа към удоволствие, варира значително. По-специално, моделът Gemini 1.5 Pro на Google последователно е давал приоритет на избягването на болка.

Но тези резултати трябва да се приемат с голяма доза предпазливост. На първо място, разчитането на текстовия изход на AI моделите има много ограничения. Трябва ли наистина да интерпретираме готовността на LLM да понесе болка като признак за съзнателност? Или това просто е резултат от оценката на вероятността за следващата дума — вградена характеристика на тези алгоритми — по начин, който отразява модели от тренировъчните данни на AI?

"Дори ако системата ви каже, че е съзнателна и заяви нещо като "В момента изпитвам болка," не можем просто да заключим, че наистина има някаква болка," казва Бърч. "Много е вероятно просто да имитира това, което очаква човекът да намери за удовлетворителен отговор, базирайки се на тренировъчните си данни."

Както други изследователи са установили, дори някои от най-усъвършенстваните LLM модели са склонни да измислят факти, вместо да признаят, че не знаят отговора на даден въпрос.

Накратко, нашата склонност да антропоморфизираме AI моделите остава повтаряща се тема. Но тези изследователи твърдят, че трябва да положим основите сега, преди да е станало твърде късно.

"Нашата надежда е, че тази работа служи като изследователска първа стъпка по пътя към разработването на поведенчески тестове за съзнателност на AI, които не разчитат на собствени доклади," заключават те в изследването си.

CHF CHF 1 2.07141
GBP GBP 1 2.31547
RON RON 10 3.93029
TRY TRY 100 5.27188
USD USD 1 1.87988