Компанията Anthropic се отказва от ключовото си обещание за безопасност на изкуствения интелект на фона на ожесточената конкуренция в индустрията.

Публикувано на 25 Февруари, 2026

Anthropic, водеща лаборатория за изследване на изкуствения интелект, обяви значителна ревизия на основния си протокол за безопасност – „Политика за отговорно развитие“ (ПРР). Компанията потвърди, че се отказва от предишното си обещание, което категорично забраняваше обучението на нови модели на изкуствен интелект, освен ако предварително не можеха да бъдат гарантирани мерки за безопасност.


Стратегическа промяна


През 2023 г. Anthropic се позиционира като организация, в която безопасността е основен приоритет, и обеща да спре разработването, ако не бъдат въведени адекватни системи за управление на риска. Въпреки това, ръководителите на компанията сега твърдят, че този подход вече не е приложим на настоящия пазар. Джаред Каплан, главен научен съветник на Anthropic, заяви, че едностранното спиране на напредъка, докато конкурентите ускоряват, няма да подобри глобалната безопасност. Той предложи, че ако отговорните разработчици спрат, темпото на развитие на изкуствения интелект ще бъде определяно от участниците с най-слабите стандарти за безопасност.


Решението следва период на бърз търговски растеж за компанията, подкрепен от успеха на нейните модели Claude и скорошна оценка от приблизително 380 милиарда долара. Въпреки че критиците смятат, че тази промяна е отстъпка пред пазарния натиск, Каплан я представя като прагматичен отговор на липсата на регулаторен консенсус и сложността на оценката на съвременните системи за изкуствен интелект.


Нови мерки за прозрачност


Актуализираната политика премества фокуса от строги паузи в разработването към повишена прозрачност и съгласуваност в индустрията. Вместо твърди „червени линии“, Anthropic се ангажира да публикува „Пътни карти за безопасност на границата“. Тези документи ще очертават конкретни цели за бъдещи мерки за безопасност, създавайки вътрешен стимул за приоритизиране на смекчаването на риска успоредно с търговските цели.


Освен това, компанията обещава да публикува подробни „Доклади за риска“ на всеки три до шест месеца. Тези доклади са предназначени да предоставят на обществеността и регулаторните органи по-ясна представа за потенциалните заплахи, като например злоупотребата с изкуствен интелект за био-тероризъм, и ефективността на настоящите защити.


Реакция в индустрията


Външни анализатори разглеждат ревизията на политиката като сигнал за трудностите при привеждането на протоколите за безопасност в съответствие с бързото развитие на възможностите на изкуствения интелект. Крис Пейнтър, директор по политика в организацията METR, отбеляза, че въпреки че мерките за прозрачност са добре дошли, отказът от строги прагове за безопасност рискува „ефект на бавно сваряване на жаба“, при който опасностите постепенно се увеличават, без да предизвикват конкретна аларма.


Въпреки оттеглянето от най-строгото си обещание, Anthropic поддържа, че остава ангажирана с безопасността. Компанията твърди, че ще продължи да съответства или да надминава усилията за безопасност на своите конкуренти, като гарантира, че остава важен иноватор в авангарда на технологиите за изкуствен интелект.

Коментари

Остави коментар