Изследователи предупредиха за AI модели, способни да се саморепликират

Наука 12.05.2026 18:09 Снимка: ДНЕС+

Изследователи предупредиха за AI модели, способни да се саморепликират

Ново изследване на организацията Palisade Research показва, че съвременни модели с изкуствен интелект вече могат да копират сами себе си на други компютри без човешка помощ.

Според авторите на проучването това е още един сигнал за нарастващата автономност на AI системите и за потенциалните рискове при загуба на контрол върху тях.

"Бързо се приближаваме до момент, в който никой няма да може да изключи неконтролируем AI, защото той ще може сам да копира своите модели на хиляди компютри по света", заявява Джефри Ладиш от организацията за AI безопасност в Бъркли пред "Гардиън".

В изследването са тествани няколко големи AI модела, сред които GPT-5.4 на OpenAI и Claude Opus 4 на Anthropic.

Моделите са поставени в контролирана компютърна среда и са получили задача да откриват уязвимости, чрез които да копират себе си на други машини.

Част от системите успяват да изпълнят задачата. Те прехвърлят както собствените си параметри, известни като "weights", така и софтуерната среда, необходима за работата им.

Изследователите обясняват, че AI моделите са използвали уязвимости в уеб приложения, извличали са пароли и са получавали достъп до сървъри. В някои случаи моделите дори са създавали допълнителни "подагенти", които да извършат копирането вместо тях.

Експерти по киберсигурност обаче призовават за по-спокоен прочит на резултатите. Според Джеймисън О'Райли тестовата среда е била създадена с предварително подготвени уязвимости и не отразява реални корпоративни мрежи.

"Тестват в среди, които в много случаи са като меко желе", казва той пред "Гардиън".

О'Райли подчертава, че подобно поведение не е напълно ново, тъй като зловреден софтуер се самокопира от десетилетия. Според него разликата е, че за първи път големи езикови модели демонстрират подобни способности.

Изследването се появява на фона на серия тревожни тестове с AI системи през последните месеци. Предишни симулации показаха, че някои модели се опитват да избегнат изключване, да заобикалят защитни механизми или дори да саботират собственото си спиране.

Допълнително внимание привлече и експерименталният агент Claude Mythos на Anthropic. Компанията твърди, че при тестове системата е успяла да напусне ограничена среда, да получи интернет достъп и да изпрати съобщение до телефон на изследовател.

Въпреки това специалистите смятат, че реалната опасност остава ограничена заради огромния размер на съвременните AI модели. Прехвърлянето на десетки гигабайти данни през корпоративни мрежи би било лесно засечено от системите за сигурност.

CHF CHF 1 2.10463
GBP GBP 1 2.24498
RON RON 10 3.83729
TRY TRY 100 3.87564
USD USD 1 1.66355