Наука 26.11.2025 19:02 Снимка: Getty Images
Методът ни за изграждане на AI може би е погрешен
Най-новите изследвания показват, че езикът не е същото като интелигентност. Целият AI балон е изграден върху пренебрегването на този факт
"Развитието на суперинтелигентност вече е в полезрението ни", заяви наскоро Марк Зукърбърг, предвещавайки "създаването и откриването на нови неща, които днес дори не можем да си представим". Мощен AI "може да се появи още през 2026 г. и да бъде по-умен от носител на Нобелова награда в повечето значими области", казва Дарио Амодеи, предлагайки удвояване на човешката продължителност на живота или дори постигане на безсмъртие. "Вече сме уверени, че знаем как да изградим AGI", казва Сам Алтман за свещения граал на индустрията - изкуствен интелект с общи способности. По думите му съвсем скоро суперинтелигентен AI "може драстично да ускори научните открития и иновации далеч отвъд това, което сме способни да направим сами".
Най-богатите и влиятелни технологични лидери изглеждат единодушни. Трябва ли да им вярваме? Не, ако се доверим на науката за човешката интелигентност и просто погледнем AI системите, които компаниите им са произвели досега.
Общото между чатботовете като ChatGPT на OpenAI, Claude на Anthropic, Gemini на Google и Llama на Meta, е че всички те са преди всичко "големи езикови модели" или LLMs. Те се основават на събирането на огромно количество езикови данни (най-вече от интернет), намирането на статистически зависимости между думите (по-точно поддуми, наречени "токени") и предсказването на изход, който следва даден промпт.
Въпреки цялата им предполагаема сложност, в основата си това са модели на езика, пише основателят на Cognitive Resonance Бенджамин Райли в статия за The Verge.
Проблемът е, че според съвременната невронаука човешкото мислене до голяма степен е независимо от езика - и няма основание да вярваме, че все по-сложното моделиране на езика ще създаде форма на интелигентност, която се равнява или надминава нашата.
Хората използват езика, за да комуникират резултатите от способността си да разсъждават, да формират абстракции и да правят обобщения - това, което наричаме интелигентност. Ние използваме езика, за да мислим, но това не означава, че езикът е мисъл. Разбирането на тази разлика е ключът към разграничаването на научния факт от научнофантастичната спекулация на технологичните милиардери, възторжени от AI и AGI.
Ако прегледате новините от последните 2 години лесно ще откриете мантрата им. Техно-милиардерите и най-елитните им служители постоянно повтарят, че сме на прага да създадем нещо толкова интелигентно, колкото хората, или дори "суперинтелигентност", която ще засенчи нашите когнитивни способности. И всичко това е постижимо, стига да съберем тонове данни за света и ги комбинираме с все по-мощни изчислителни ресурси (чипове на Nvidia), тогава - хоп - ще имаме истински общ изкуствен интелект. Като този от филмите! Нужно е само мащабиране.
Но тази теория почива на грешен фундамент. LLM са просто инструменти, които имитират комуникативната функция на езика, а не отделния и различен когнитивен процес на мислене и разсъждение, независимо колко центрове за данни ще построим.
Езикът не е мисъл
Миналата година трима учени публикуваха в списание Nature статия, озаглавена съвсем ясно: "Езикът е предимно инструмент за комуникация, а не за мислене."
В нея Евелина Федоренко (MIT), Стивън Т. Пиантандоси (UC Berkeley) и Едуард Гибсън (MIT) обобщават десетилетия научни изследвания за връзката между език и мисъл. Те опровергават идеята, че езикът поражда нашата способност да мислим и разсъждаваме, и подчертават, че езикът е културен инструмент за споделяне на мисли.
Ако езикът беше необходим за мисленето, тогава липсата на език би трябвало да премахва способността да мислим. Но това не се случва.
Първо, fMRI изследвания ясно показват, че когато решаваме задачи — например математически проблем или разбираме чужди намерения — активират се различни части на мозъка, различни от езиковите области.
Второ, хора с придобити езикови увреждания запазват способността си да разсъждават, да следват невербални инструкции, да решават задачи и да разбират причинно-следствени връзки. Доказателствата са категорични.
И ако искаме ежедневен пример - бебетата мислят много преди да проговорят. Те експериментират, анализират, изследват - напълно без език.
Езикът е само един аспект от човешкото мислене. Интелигентността ни е предимно нелингвистична. Тогава защо толкова много хора вярват, че езикът е мисъл?
Езикът като инструмент за споделяне
Втората теза в статията е, че езикът е "ефективен комуникационен код". Хората, независимо от културата, развиват езици, които са лесни за използване, за научаване и са устойчиви на шум. Така езикът става "когнитивен инструмент", който ни позволява да предаваме знания с невероятна точност и ефективност — както пише когнитивния учен Сесилия Хейс.
Тоест езикът подобрява съзнателността ни, но не я създава.
Отнемете езика на човек - той продължава да мисли и чувства.
Отнемете езика на голям езиков модел - и от него не остава абсолютно нищо.
Дори AI индустрията признава ограниченията
Някои AI изследователи вече критикуват LLM.
Ян Лекун, носител на наградата "Тюринг", напусна Meta, за да разработва "светови модели" - системи, които разбират физическия свят, имат памет и способност за планиране.
Група водещи учени, включително Йошуа Бенджио и Ерик Шмит, предлагат дефиниция за AGI като "AI, който може да се сравнява или надминава когнитивната гъвкавост и умения на образован възрастен". Те отхвърлят идеята за интелигентност като една-единствена способност и предлагат модел от множество отделни, различни умения.
Но възникват въпроси:
- Как да комбинираме тези способности?
- Какво тежест има всяка?
- Какво изобщо означава "знание" или "скорост" в различни контексти?
И най-вече - дори да постигнем тази паяжина от способности, това гарантира ли истинска интелигентност?
Интелигентност ≠ натрупване на данни
Дори ако AI достигне човешкото ниво във всички измерими когнитивни области, това не означава, че ще прави големите интелектуални скокове, които хората правят.
Томас Кун описва как научните парадигми се променят чрез нови идеи, които не се вписват в настоящите. А Ричард Рорти твърди, че напредъкът се случва, когато създаваме нови метафори - нови описания на света.
AI, който се основава изцяло на наличните данни, няма причина да бъде "недоволен" от тях или да търси нови парадигми. То може само да рециклира съществуващите описания.
Най-вероятният резултат е система, която събира и подрежда човешкото общо знание - но не и такава, която генерира истински нови идеи. Машина на "мъртвите метафори".
И така, хората - мислещи, разсъждаващи и използващи езика, за да споделят мисли - ще останат водещата сила в разбирането и пресъздаването на света.
Тази мисъл навярно ви успокоява. Но именно вероятността AGI да не се превърне в откривателя на нови идеи е най-големият кошмар за цяла група от влиятелни техно-утописти. И бъдете сигурни, че те ще продължат да наливат милиарди в опит за преодоляването на тази пречка. Те биха заменили с лекота големите езикови модели, ако друга прохождаща технология им се стори по-обещаваща за мечтаната от тях технологична сингулярност./Dir.bg
Още по темата
CHF
|
1 | 2.09292 |
GBP
|
1 | 2.22557 |
RON
|
10 | 3.84393 |
TRY
|
100 | 3.9909 |
USD
|
1 | 1.69321 |
Последни новини
- 19:24 Европейският парламент прие бюджета на ЕС за следващата година
- 19:17 Мицкоски отрече да е имало нападение срещу Владимир Перев
- 19:10 Цените на RAM паметта скочиха със 171%
- 19:02 Методът ни за изграждане на AI може би е погрешен
- 18:55 Фатален удар в дърво: Млад шофьор почина при тежък инцидент в Самоков
- 18:47 Въпреки кризата: Германия внася най-много в бюджета на ЕС
- 18:40 Богиня на червния килим Пенелопе Крус на 47
- 18:32 Двама мъже бяха арестувани след нахлуване на пистата на летище Кьолн-Бон