Наука 22.10.2025 18:03 Снимка: ДНЕС+
Физик: Настоящите AI модели са в задънена улица заради 3 нерешими проблема
Според Сабине Хосенфелдер уязвимости като „prompt injection“ и неспособността за мислене извън данните за обучение обричат сегашното поколение изкуствен интелект
В свой анализ известният физик и научен коментатор Сабине Хосенфелдер твърди, че настоящото поколение модели с изкуствен интелект (AI), включително големите езикови модели (LLM) и дифузионните модели за генериране на изображения, се сблъскват с три фундаментални и вероятно нерешими проблема. Тези пречки, според нея, ще попречат на технологията да достигне до т.нар. общ изкуствен интелект (AGI) - ниво на интелигентност, сравнимо или надвишаващо човешкото.
Първият основен недостатък е, че съвременните AI системи са "обвързани с конкретна цел". Те са проектирани и обучени да намират модели в определен тип данни - текст, изображения или видео - но им липсва способността за абстрактно мислене, което е ключово за общата интелигентност.
"Това, от което се нуждаем, е устройство за абстрактно мислене, което може да се използва за всякакви цели", посочва Хосенфелдер, изразявайки съмнение, че сегашните архитектури могат да постигнат такава гъвкавост.
Вторият, и според нея практически нерешим проблем, е уязвимостта, известна като "prompt injection". Това е техника, при която потребителят променя първоначалните инструкции на модела чрез своето въвеждане на данни. Тъй като моделите не могат фундаментално да разграничат системните инструкции от потребителските команди, те остават ненадеждни и неподходящи за много критични задачи. "Вярвам, че тази уязвимост сериозно ще спъне употребата на този вид AI в критично важни системи", категорична е тя.
Третата непреодолима бариера е неспособността на моделите да мислят извън рамките на данните, с които са обучени. Те отлично се справят с интерполация - създаване на вариации на вече съществуваща информация, но се провалят при екстраполация - генериране на напълно нови концепции.
Хосенфелдер цитира примери с генератори на видео, които създават безсмислени резултати при заявки за сценарии, които драстично се отклоняват от данните за обучение.
"Те са добри в обобщаването и изготвянето на нещо подобно на вече съществуващото, но се затрудняват с всичко ново", обяснява тя, подчертавайки, че това е и най-голямата пречка пред използването им в науката.
Хосенфелдер разглежда и проблема с "халюцинациите" - генериране на невярна информация, но го смята за по-маловажен и потенциално управляем, например чрез обучение на моделите да признават несигурност. Фундаменталните проблеми обаче остават.
В заключение, физикът прогнозира, че компании като OpenAI и Anthropic, които разчитат изцяло на настоящата технология, скоро може да изпаднат в затруднение. По думите ѝ надеждите за огромни приходи, оправдаващи високите им оценки, ще се изпарят.
Бъдещето на AGI, според нея, изисква коренно различен подход, като например развитието на мрежи за абстрактно мислене или невро-символни системи.
Още по темата
CHF
|
1 | 2.10463 |
GBP
|
1 | 2.24498 |
RON
|
10 | 3.83729 |
TRY
|
100 | 3.87564 |
USD
|
1 | 1.66355 |
Последни новини
- 14:15 Зеленски пристигна в Париж за среща с Еманюел Макрон
- 14:10 Във Варненска област са образувани 648 секционни избирателни комисии
- 14:07 Израел обяви нови широкомащабни удари по Техеран
- 14:02 Мъжете без работа у нас са с над 10% повече от жените
- 13:59 Турската ПВО унищожи трета ракета, над военната база "Инджирлик"
- 13:52 Петък 13-ти е! Суеверията започват през древността, масовата култура ги популяризира чрез Холивуд
- 13:45 Премиерът за шока с горивата: Ще подкрепим над 1 млн.граждани. Готвим се за най-страшното от войната
- 13:37 11-годишно момиче е родило бебе в Монтана