Наука 22.10.2025 18:03 Снимка: ДНЕС+
Физик: Настоящите AI модели са в задънена улица заради 3 нерешими проблема
Според Сабине Хосенфелдер уязвимости като „prompt injection“ и неспособността за мислене извън данните за обучение обричат сегашното поколение изкуствен интелект
В свой анализ известният физик и научен коментатор Сабине Хосенфелдер твърди, че настоящото поколение модели с изкуствен интелект (AI), включително големите езикови модели (LLM) и дифузионните модели за генериране на изображения, се сблъскват с три фундаментални и вероятно нерешими проблема. Тези пречки, според нея, ще попречат на технологията да достигне до т.нар. общ изкуствен интелект (AGI) - ниво на интелигентност, сравнимо или надвишаващо човешкото.
Първият основен недостатък е, че съвременните AI системи са "обвързани с конкретна цел". Те са проектирани и обучени да намират модели в определен тип данни - текст, изображения или видео - но им липсва способността за абстрактно мислене, което е ключово за общата интелигентност.
"Това, от което се нуждаем, е устройство за абстрактно мислене, което може да се използва за всякакви цели", посочва Хосенфелдер, изразявайки съмнение, че сегашните архитектури могат да постигнат такава гъвкавост.
Вторият, и според нея практически нерешим проблем, е уязвимостта, известна като "prompt injection". Това е техника, при която потребителят променя първоначалните инструкции на модела чрез своето въвеждане на данни. Тъй като моделите не могат фундаментално да разграничат системните инструкции от потребителските команди, те остават ненадеждни и неподходящи за много критични задачи. "Вярвам, че тази уязвимост сериозно ще спъне употребата на този вид AI в критично важни системи", категорична е тя.
Третата непреодолима бариера е неспособността на моделите да мислят извън рамките на данните, с които са обучени. Те отлично се справят с интерполация - създаване на вариации на вече съществуваща информация, но се провалят при екстраполация - генериране на напълно нови концепции.
Хосенфелдер цитира примери с генератори на видео, които създават безсмислени резултати при заявки за сценарии, които драстично се отклоняват от данните за обучение.
"Те са добри в обобщаването и изготвянето на нещо подобно на вече съществуващото, но се затрудняват с всичко ново", обяснява тя, подчертавайки, че това е и най-голямата пречка пред използването им в науката.
Хосенфелдер разглежда и проблема с "халюцинациите" - генериране на невярна информация, но го смята за по-маловажен и потенциално управляем, например чрез обучение на моделите да признават несигурност. Фундаменталните проблеми обаче остават.
В заключение, физикът прогнозира, че компании като OpenAI и Anthropic, които разчитат изцяло на настоящата технология, скоро може да изпаднат в затруднение. По думите ѝ надеждите за огромни приходи, оправдаващи високите им оценки, ще се изпарят.
Бъдещето на AGI, според нея, изисква коренно различен подход, като например развитието на мрежи за абстрактно мислене или невро-символни системи.
Още по темата
CHF
|
1 | 2.09561 |
GBP
|
1 | 2.2309 |
RON
|
10 | 3.84219 |
TRY
|
100 | 3.91645 |
USD
|
1 | 1.66723 |
Последни новини
- 19:36 БНБ: В края на ноември парите в обращение у нас намаляват с близо 21 на сто
- 19:30 Шефът на YouTube ограничи екранното време на децата си, притеснява се за психичното им здраве
- 19:27 Румяна Коларова: Ако Радев не напусне президентството, ПП-ДБ ще са радостни
- 19:19 Джефри Сакс: Сигурността на Европа е невъзможна без признаване на изискванията на Русия
- 19:12 Димитър Ганев за Радев: Очаква го катастрофа! Андрей Райчев: Ако не направи партия, той приключва!
- 19:04 Bild: Зеленски определи "червените линии" на Киев - никакво изтегляне от Донбас
- 19:01 Проучване: Украинците губели вяра в САЩ и НАТО и били готови да воюват сами срещу Русия
- 18:56 Силвия Томова: Борците срещу насилието, езика на омразата и простащината, къде сте?