Скоро изкуственият интелект ще осъществява кибератаки

Наука 27.05.2025 19:27 Снимка: ДНЕС+

Скоро изкуственият интелект ще осъществява кибератаки

АI-агентите могат да улеснят и направят по-евтино за престъпниците да атакуват системи в мащаб. Трябва да сме подготвени, пише изданието на Масачузетски технологичен институт - MIT Technology Review.

Агентите са най-обсъжданата тема в AI индустрията - те могат да планират, разсъждават и изпълняват сложни задачи като насрочване на срещи или поръчване на хранителни стоки. За целта те поемат частичен или пълен контрол над компютъра ви и могат да променят настройки от ваше име.

Но същите усъвършенствани способности, които ги правят полезни асистенти, могат да ги превърнат и в мощни инструменти за извършване на кибератаки. Те лесно биха могли да идентифицират уязвими цели, да завладеят системите им и да крадат ценна информация от нищо неподозиращи жертви.

В момента киберпрестъпниците все още не използват AI агенти за атаки в голям мащаб. Но изследователи вече са показали, че агентите могат да извършват сложни атаки (например Anthropic са наблюдавали как техният модел Claude успешно възпроизвежда атака с цел кражба на чувствителна информация), а експертите по киберсигурност предупреждават, че тези атаки скоро могат да станат реалност.

"Смятам, че в крайна сметка ще живеем в свят, в който повечето кибератаки ще се извършват от агенти", казва Марк Стокли, експерт по сигурността от компанията Malwarebytes. "Въпросът е само колко бързо ще стигнем дотам."

Макар че имаме сравнително добра представа какви заплахи могат да представляват AI-агентите, по-трудно е да ги засечем в реална среда. Организацията Palisade Research е създала система, наречена LLM Agent Honeypot, именно с тази цел. Тя включва уязвими сървъри, които се представят за сайтове с ценна правителствена или военна информация, за да привлекат и засекат AI агенти, които се опитват да ги хакнат.

Екипът се надява, че като проследява подобни опити в реалния свят, ще може да действа като система за ранно предупреждение и да помогне за разработването на ефективна защита срещу AI заплахи, преди те да станат масови.

"Целта ни е да превърнем теоретичните опасения на хората в реални наблюдения", казва Дмитрий Волков, ръководител на изследванията в Palisade. "Очакваме рязко увеличение на такива атаки и когато това се случи, ще знаем, че средата на сигурност се е променила. В следващите години очаквам автономни агенти, на които просто ще се казва: "Това е целта ти. Хакни я."

AI-агентите са особено привлекателни за киберпрестъпници. Те са много по-евтини от наемането на професионални хакери и могат да провеждат атаки по-бързо и в много по-голям мащаб. Стокли обяснява, че досега мащабни атаки, като рансъмуер (ransomware), са редки, защото изискват човешка експертиза. Но в бъдеще те могат да се делегират на агенти. "Ако мога да възпроизведа една такава атака веднъж, тогава ми е нужна само финансова инвестиция, за да го направя 100 пъти", казва той.

Агентите също така са значително по-умни от традиционните ботове. Докато ботовете са прости автоматизирани скриптове, неспособни да се адаптират, агентите могат не само да се адаптират към ситуацията, но и да избягват засичане. "Те могат да анализират цел и да преценят най-добрия начин за проникване", казва Волков. "Такова нещо е извън възможностите на тъпи скриптове."

Откакто Honeypot системата работи (от октомври миналата година), тя е регистрирала над 11 милиона опита за достъп - основно от хора и ботове. Но сред тях екипът е засекъл осем потенциални AI агента, като два от тях със сигурност са такива, идващи от Хонконг и Сингапур.

"Подозираме, че тези агенти са били стартирани ръчно с мисия от типа: "Излез в интернет и хакни нещо интересно за мен", казва Волков. Екипът планира да разшири проекта си и към социални мрежи, уебсайтове и бази данни, за да улавя по-широк спектър от нападатели - от спам ботове до фишинг агенти.

За да определят дали посетителите на системата са агенти, изследователите използват prompt injection - техника, с която променят поведението на AI агента чрез специфични инструкции. Например, на посетителя се дава задача да върне команда "cat8193". Ако го направи правилно и бързо (за под 1.5 секунди), се счита за AI агент. Само два от осемте съмнителни посетители са преминали и двата теста.

Все още не е ясно кога тези атаки ще станат масови. Стокли смята, че това може да се случи още тази година, а компанията му вече е включила agentic AI сред основните заплахи в своя годишен доклад.

Макар че зловредната употреба на такива агенти е още в зародиш, ситуацията напомня за ранните етапи на LLM (като ChatGPT), казва Винченцо Чанчалини от Trend Micro. "Подходът на Palisade е брилянтен - да хакнеш AI агента, който се опитва да хакне теб", казва той. "Засега виждаме само разузнаване, но следим кога агентите ще могат да извършват пълна верига на атака."

AI може да се използва и в защита - за откриване на уязвимости и предотвратяване на атаки, казва Едоардо Дебенедети от ETH Zürich. Според него, ако приятелски агент не намери слабо място в системата, вероятността враждебен агент да го направи също е ниска.

За да се разбере колко ефективни могат да бъдат тези агенти в експлоатиране на реални уязвимости, професор Даниел Канг и екипът му в Университета на Илинойс са създали тестова рамка. Те установили, че AI-агенти успяват да използват около 13% от уязвимостите, дори без предварителна информация. С кратко описание - успеваемостта се повишава до 25%.

"Надявам се хората да започнат да подхождат проактивно към рисковете от AI в киберсигурността, преди да има момент като с ChatGPT", казва Канг. "Опасението ми е, че хората ще се усетят чак когато ги удари в лицето."

Още по темата

CHF CHF 1 2.10327
GBP GBP 1 2.33337
RON RON 10 3.87163
TRY TRY 100 4.43418
USD USD 1 1.73067