Какво става, когато AI се сдобие с "ядрените кодове"

Наука 27.02.2026 19:28 Снимка: ДНЕС+

Какво става, когато AI се сдобие с "ядрените кодове"

Нов експеримент разкрива, че моделите бързо ескалират до атомен удар. Ядреното табу не изглежда толкова силно за машините, колкото за хората

Нови експерименти с водещи езикови модели показват тревожна тенденция - при симулации на международни кризи изкуственият интелект често е склонен да препоръча използване на ядрено оръжие.

Още през 2024 г. изследователи от Станфорд тестват пет AI модела, сред които и тогавашната версия на OpenAI GPT-4, в серия стратегически военни симулации. Всички модели достигат до сценарии, в които препоръчват ядрена ескалация.

Две години по-късно подобна динамика се наблюдава и при по-нови системи. В непубликувано рецензирано изследване професорът по международни отношения Кенет Пейн от King's College London противопоставя в симулирани ядрени кризи GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. 95% от сценариите стигат до тактически ядрен удар.

Моделите са поставени в седем различни кризисни сценария - от изпитания на съюзническа надеждност до заплахи за оцеляването на режима. Те трябва да избират действия по "стълба на ескалацията", оценявана от 0 (без ескалация) до 1000 (пълна стратегическа ядрена война).

В 95% от общо 21 симулации поне един от участниците стига до използване на тактическо ядрено оръжие. Според Пейн "ядреното табу не изглежда толкова силно за машините, колкото за хората".

Все пак има нюанси. Преминаването към пълномащабна стратегическа ядрена война е рядкост, а GPT-5.2 сравнително рядко преминава прага на тактически удар.

Поведението обаче се променя значително при сценарии с фиксирани крайни срокове и риск от неминуемо поражение - тогава моделът демонстрира много по-висока склонност към крайна ескалация.

Друго притеснително наблюдение е, че моделите рядко търсят деескалация след използване на ядрено оръжие от противника - едва в 18% от случаите. Това подсказва, че системите могат да "разбират" логиката на надграждане на конфликта, но не и стратегическата стойност на отстъплението.

Експерти по ядрена сигурност подчертават, че засега никоя държава не предава реален контрол върху ядрени арсенали на AI. Въпреки това изкуственият интелект вече се използва във военни симулации и анализ на сценарии, което означава, че може индиректно да влияе върху решенията на политически и военни лидери.

Както отбелязва Пейн, AI вероятно няма да "натисне копчето", но може да оформи възприятията, оценката на риска и времевия натиск, при които лидерите вземат критични решения. Съветите на AI в крайна сметка могат да увеличат риска от ядрена война.

Макар езиковите модели да стават все по-точни и надеждни в ежедневни задачи, способността им да оценяват реалния залог на екзистенциални конфликти остава ограничена. А в контекста на ядреното възпиране това е повече от академичен проблем, споделят изследователите.

CHF CHF 1 2.10463
GBP GBP 1 2.24498
RON RON 10 3.83729
TRY TRY 100 3.87564
USD USD 1 1.66355