Anthropic, стартъп в областта на изкуствения интелект, известен със своя подход, при който безопасността е на първо място, обяви във вторник значителна ревизия на своите вътрешни насоки. Компанията се отказва от обвързващите ангажименти за безопасност в полза на по-гъвкава „Пътна карта за безопасност на границата“. Тази промяна представлява отклонение от нейната „Политика за отговорно разширяване“, установена преди две години, която изискваше спиране на обучението на моделите, ако възможностите на изкуствения интелект надхвърлят способността на компанията да ги контролира.
В рамките на новата рамка тези строги ограничения са премахнати и са заменени с публични цели, спрямо които компанията възнамерява да се самооценява. В публикация в блога си Anthropic обясни, че продължаването на паузите, докато „по-малко внимателни участници продължават напред“, е контрапродуктивно. Ръководни служители на компанията твърдят, че първоначалната политика, предназначена да насърчи общоиндустриалната „надпревара за върхови постижения“, в крайна сметка ги поставя в неизгодно положение на пазар, където конкурентите ускоряват развитието.
Натиск от Пентагона и политически климат
Обявяването на политиката съвпада с напрегнат период за компанията по отношение на отношенията ѝ с правителството. Според съобщения, министърът на отбраната Пийт Хегсет наскоро е отправил ултиматум към главния изпълнителен директор на Anthropic, Дарио Амодей. Твърди се, че Пентагонът е заплашил да отмени договор за 200 милиона долара и да определи компанията като рисков фактор за веригата на доставки, освен ако не бъдат премахнати конкретни мерки за безопасност на изкуствения интелект.
Въпреки че Anthropic уточнява, че актуализацията на политиката не е свързана с дискусиите с Пентагона, времето на обявяването подчертава противоречивите натиски, пред които са изправени разработчиците на изкуствен интелект. Въпреки натиска, Anthropic, според съобщения, е отказала да направи компромис по два конкретни въпроса: разработването на оръжия, управлявани от изкуствен интелект, и масовото вътрешно наблюдение на американските граждани.
Прагматична промяна
Основана от бивши членове на OpenAI, загрижени за опасностите от изкуствения интелект, Anthropic отдавна се представя като „компания за изкуствен интелект с душа“. Решението да се смекчат ограниченията сигнализира за прагматична промяна в стратегията. Тъй като политическият климат във Вашингтон става все по-антирегулаторен и глобалната конкуренция се засилва, компанията приоритизира бързите итерации и присъствието на пазара пред предишната си доктрина за едностранно ограничаване.

Коментари
Остави коментар