
Наука 22.10.2025 18:03 Снимка: ДНЕС+
Физик: Настоящите AI модели са в задънена улица заради 3 нерешими проблема
Според Сабине Хосенфелдер уязвимости като „prompt injection“ и неспособността за мислене извън данните за обучение обричат сегашното поколение изкуствен интелект
В свой анализ известният физик и научен коментатор Сабине Хосенфелдер твърди, че настоящото поколение модели с изкуствен интелект (AI), включително големите езикови модели (LLM) и дифузионните модели за генериране на изображения, се сблъскват с три фундаментални и вероятно нерешими проблема. Тези пречки, според нея, ще попречат на технологията да достигне до т.нар. общ изкуствен интелект (AGI) - ниво на интелигентност, сравнимо или надвишаващо човешкото.
Първият основен недостатък е, че съвременните AI системи са "обвързани с конкретна цел". Те са проектирани и обучени да намират модели в определен тип данни - текст, изображения или видео - но им липсва способността за абстрактно мислене, което е ключово за общата интелигентност.
"Това, от което се нуждаем, е устройство за абстрактно мислене, което може да се използва за всякакви цели", посочва Хосенфелдер, изразявайки съмнение, че сегашните архитектури могат да постигнат такава гъвкавост.
Вторият, и според нея практически нерешим проблем, е уязвимостта, известна като "prompt injection". Това е техника, при която потребителят променя първоначалните инструкции на модела чрез своето въвеждане на данни. Тъй като моделите не могат фундаментално да разграничат системните инструкции от потребителските команди, те остават ненадеждни и неподходящи за много критични задачи. "Вярвам, че тази уязвимост сериозно ще спъне употребата на този вид AI в критично важни системи", категорична е тя.
Третата непреодолима бариера е неспособността на моделите да мислят извън рамките на данните, с които са обучени. Те отлично се справят с интерполация - създаване на вариации на вече съществуваща информация, но се провалят при екстраполация - генериране на напълно нови концепции.
Хосенфелдер цитира примери с генератори на видео, които създават безсмислени резултати при заявки за сценарии, които драстично се отклоняват от данните за обучение.
"Те са добри в обобщаването и изготвянето на нещо подобно на вече съществуващото, но се затрудняват с всичко ново", обяснява тя, подчертавайки, че това е и най-голямата пречка пред използването им в науката.
Хосенфелдер разглежда и проблема с "халюцинациите" - генериране на невярна информация, но го смята за по-маловажен и потенциално управляем, например чрез обучение на моделите да признават несигурност. Фундаменталните проблеми обаче остават.
В заключение, физикът прогнозира, че компании като OpenAI и Anthropic, които разчитат изцяло на настоящата технология, скоро може да изпаднат в затруднение. По думите ѝ надеждите за огромни приходи, оправдаващи високите им оценки, ще се изпарят.
Бъдещето на AGI, според нея, изисква коренно различен подход, като например развитието на мрежи за абстрактно мислене или невро-символни системи.
Още по темата
![]() |
1 | 2.11899 |
![]() |
1 | 2.25378 |
![]() |
10 | 3.84718 |
![]() |
100 | 4.01514 |
![]() |
1 | 1.68504 |
Последни новини
- 20:13 Хороскоп за четвъртък, 23 октомври 2025 г.
- 19:35 5 реални експеримента и чудовищните им последици: От мишки до заблудите на AI
- 19:27 Повдигнаха обвинение на 15-годишния ученик, пребил 13-годишно момче в Пловдив
- 19:20 Осъдиха ученици, изнасилвали учителка в продължение на месеци в Австрия
- 19:13 Златото спря възходящата тенденция с най-големия спад в цената за десетилетие
- 19:06 Защо Windows 11 е капан за поверителността
- 19:01 Кметът на Пазарджик отстрани от длъжност заместничката си и съпартийка Таня Колчакова
- 18:57 Путин награди Никита Михалков с най-високото отличие на Русия