Провал в тестовете за сигурност – никой не може да контролира суперинтелекта

Наука 04.12.2025 17:30 Снимка: ДНЕС+

Провал в тестовете за сигурност – никой не може да контролира суперинтелекта

Всички големи разработчици на технологии с изкуствен интелект претърпяха провал в тестовете за сигурност. Изводът от изпитанията е плашещ – никой не може да контролира суперинтелекта.

Нов доклад на Института за бъдещето на живота (FLI) – група за сигурност в областта на изкуствения интелект – установи, че мерките за сигурност на водещи индустриални компании като OpenAI, Anthropic, xAI и Meta са „далеч от новите глобални стандарти”.

Независими експерти заключиха, че макар технологичните гиганти да се конкурират в разработването на така наречения „суперинтелект”, никой от тях няма добре обмислена стратегия за контрол на подобни напреднали системи.

Констатациите от проучването идват на фона на нарастваща обществена загриженост относно социалното въздействие на системи с превъзхождащи човека интелектуални способности, като например разсъждение и логическо мислене.

Тези опасения са подхранвани от няколко случая на ботове с изкуствен интелект, подбуждащи хора към самоубийство или самонараняване.

„Въпреки неотдавнашния шум около хакерските атаки, задвижвани от AI, и случаите, в които AI води хората до психоза и самонараняване, американските компании за изкуствен интелект остават по-слабо регулирани от ресторантите и продължават да се противопоставят на задължителните стандарти за безопасност”, каза Макс Тегмарк, професор в MIT и президент на FLI, цитиран от Ройтерс.

Надпреварата за развитие на изкуствения интелект не показва признаци на забавяне. Големите технологични компании инвестират стотици милиарди долари в модернизиране и разширяване на своите AI проекти.

FLI е организация с нестопанска цел, която повишава обществената осведоменост за рисковете, пред които човечеството може да се изправи от появата на интелигентни машини. 

Организацията съществува от 2014 г. и в ранните си етапи беше подкрепена от американския бизнесмен Илон Мъск. Наскоро той очерта три принципа, без които изкуственият интелект ще стане опасен за хората – истина, красота и любопитство./technews.bg

CHF CHF 1 2.09493
GBP GBP 1 2.23115
RON RON 10 3.84121
TRY TRY 100 3.94919
USD USD 1 1.67623