AI асистентът на Anthropic, Claude, се изкачи на първо място в класацията за производителност в App Store на Apple, благодарение на значителния брой потребители, които преминаха от ChatGPT на OpenAI. Тази промяна настъпи след обявяването от OpenAI, че е сключила споразумение с Министерството на отбраната на САЩ за внедряване на своите AI модели в класифицирани мрежи.
Генералният директор на OpenAI, Сам Алтман, потвърди партньорството в X, като подчерта, че сделката включва стриктно спазване на принципите за безопасност, особено по отношение на човешкия контрол над автономните оръжия и ограниченията върху масовото наблюдение. Въпреки тези уверения, този ход предизвика противоречия сред AI общността, като много потребители поставиха под въпрос етичните последици от интегрирането във военната сфера.
Недоволство на потребителите и преминаване към друга платформа
Реакцията беше незабавна във всички социални мрежи. Известни личности, включително поп музикантката Кати Пери, публично споделиха решението си да преминат към Claude, докато форумите в Reddit, посветени на ChatGPT, бяха запълнени с десетки теми, насърчаващи изтриването на акаунти. Фразата „Бойкотирай ChatGPT“ стана популярна, тъй като потребителите изразиха дискомфорт от това, което смятат за преминаване на етична граница.
В резултат на това Claude се възползва от липсата на положителна публичност и превърна недоволните абонати на ChatGPT в нови платежоспособни клиенти.
Противоречиви твърдения относно връзките с военните
Въпреки че OpenAI е подложена на критики, някои потребители посочиха, че Anthropic също не е напълно отсъстваща от отбранителния сектор. Anthropic преди това установи партньорство с Palantir и Amazon Web Services, за да предостави моделите на Claude на американските разузнавателни и отбранителни агенции.
Освен това, политическата обстановка също изигра роля в съперничеството. Докладва се, че администрацията на Тръмп е наредила на федералните агенции да премахнат технологиите на Anthropic, като министърът на отбраната е определил компанията като рисков фактор във веригата за доставки. Anthropic заяви, че ще оспори това определение в съда.
OpenAI оттогава публикува конкретни клаузи в договорите, гарантиращи, че нейните AI системи няма да управляват автономно оръжия или да бъдат използвани за неограничено наблюдение на граждани на САЩ. Въпреки тези разяснения, възприеманото предимство в „войната на чатботовете“ временно се измести в полза на Anthropic.

Коментари
Остави коментар