Изкуственият интелект се насочва към компактни модели

Наука 15.07.2024 14:08 Снимка: ДНЕС+

Изкуственият интелект се насочва към компактни модели

Компаниите предпочитат тях заради по-ниските разходи и висока ефективност

Разработчиците на изкуствен интелект все повече се обръщат към компактни езикови модели, които са по-евтини и рентабилни. Технологичните гиганти и стартъпите преминават към по-малки и по-ефективни модели на изкуствен интелект, за да намалят разходите и да увеличат производителността. За разлика от големите езикови модели като GPT-4, компактните модели могат да се обучават на по-малко данни и да се специализират в решаването на специфични проблеми.

Microsoft, Google, Apple и стартъпите Mistral, Anthropic и Cohere все по-често се обръщат към малки и средни езикови модели на ИИ. За разлика от големите модели (LLM) като GPT-4 на OpenAI, които използват повече от един трилион параметри и чието разработване струва над 100 млн. щ. долара, компактните модели се обучават върху по-тесни набори от данни и могат да струват по-малко от 10 млн. щ. долара, като същевременно използват по-малко от 10 млрд. параметри.

Microsoft, един от лидерите в областта на изкуствения интелект, представи семейство малки модели, наречени Phi. Според главния изпълнителен директор Сатя Надела те са 100 пъти по-малки от безплатната версия на ChatGPT, но се справят с много задачи почти толкова ефективно. Юсуф Мехди, главен търговски директор на Microsoft, заяви, че компанията бързо е осъзнала, че управлението на големи модели на ИИ е по-скъпо, отколкото се е смятало първоначално, което е накарало Microsoft да потърси по-рентабилни решения.

Други технологични гиганти също не останаха настрана. Google, Apple, както и компаниите Mistral, Anthropic и Cohere пуснаха свои версии на малки и средни модели. Apple планира да използва такива модели за локално изпълнение на изкуствен интелект, директно на смартфоните, което би трябвало да подобри скоростта и сигурността. В същото време потреблението на ресурси в смартфоните ще бъде минимално. Експертите отбелязват, че за много задачи, като например обобщаване на документи или създаване на изображения, големите модели могат да се окажат излишни. Иля Полосухин, един от авторите на основополагащия документ на Google за изкуствения интелект от 2017 г., образно сравни използването на големи модели за прости задачи с пътуване до магазина за хранителни стоки с танк. "Изчисляването на 2 + 2 не трябва да изисква квадрилиони операции", подчерта той.

Компаниите и потребителите също търсят начини за намаляване на разходите за експлоатация на технологиите за генеративен изкуствен интелект. Според Йоав Шохам, съосновател на базираната в Тел Авив компания за изкуствен интелект AI21 Labs, малките модели могат да отговорят на въпроси, ако се преведе всичко в пари, само за една шеста от цената на големите езикови модели.

Интересно е, че ключово предимство на малките модели е, че те могат да бъдат прецизно настройвани за конкретни задачи и набори от данни. Това им позволява да работят ефективно в специализирани области на по-ниска цена, например само в правната индустрия.

Експертите обаче отбелязват, че компаниите няма да се откажат напълно от LLM. Например Apple обяви интегрирането на ChatGPT в Siri за сложни задачи, а Microsoft планира да използва най-новия модел на OpenAI в новата версия на Windows. А компании като ирландската Experian и американската Salesforce вече са преминали към използване на компактни модели на ИИ за чатботове и са установили, че те осигуряват същата производителност като големите модели, но на много по-ниска цена и с по-ниска латентност на обработката.

Преминаването към малки модели идва на фона на забавянето на напредъка на големите публично достъпни модели на ИИ. Експертите обясняват това с липсата на висококачествени нови данни за обучение и като цяло посочват нов и важен етап в развитието на индустрията.

CHF CHF 1 2.10939
GBP GBP 1 2.35062
RON RON 10 3.92997
TRY TRY 100 5.43683
USD USD 1 1.87844