OpenAI се съгласи да промени договора си с правителството на Съединените щати относно използването на своята технология в класифицирани военни операции. Това решение е взето, след като главният изпълнителен директор Сам Алтман публично призна, че първоначалното внедряване е било извършено неправилно, като определи съобщението от петък като „опортиунистично и небрежно“.
Нови мерки за сигурност
Съгласно преразгледаните условия, OpenAI въведе по-строги ограничения за това как нейните модели с изкуствен интелект могат да бъдат използвани от Пентагона. Ключова поправка гарантира, че системата няма да бъде използвана за вътрешно наблюдение на граждани или жители на САЩ. Освен това, разузнавателните агенции, като Агенцията за национална сигурност (АНС), вече са ограничени да използват технологията без конкретна допълнителна промяна в договора.
Алтман използва платформата X в социалните мрежи, за да се извини за липсата на яснота, като призна, че сложността на ситуацията изисква по-добра комуникация. Компанията заяви, че новото споразумение включва повече гаранции за сигурност от всяка предишна сделка за класифицирани внедрявания на изкуствен интелект.
Обществена реакция и въздействие върху пазара
Първоначалното съобщение за партньорството с Министерството на отбраната предизвика бърза негативна реакция от страна на потребителите. Данни от Sensor Tower показват, че дневният среден процент на деинсталиране на приложението ChatGPT се е увеличил с 200% в сравнение със стандартните нива.
Същевременно, конкурентът Anthropic отбеляза, че приложението му Claude се изкачва на върха в класацията на Apple App Store. Въпреки че Anthropic поддържа корпоративни принципи срещу създаването на напълно автономни оръжия – позиция, която преди това доведе до напрежение с администрацията на Тръмп – съобщенията показват, че неговата технология е била използвана в последните конфликтни зони.
Етични последици от използването на изкуствен интелект във военната сфера
Интегрирането на комерсиален изкуствен интелект в отбранителните системи продължава да предизвиква дебати относно безопасността и надзора. Въпреки че военните служители наблягат на подхода „човек в цикъла“, за да предотвратят автономното вземане на решения, експертите изразяват опасения, че изключването на компании, които се грижат за безопасността, от договорите за отбрана, създава празнина в етичния надзор.
Използването на изкуствен интелект във военната логистика и анализа на разузнавателната информация се превръща в стандартна практика сред съюзниците от НАТО, като компании като Palantir сключват големи договори. Въпреки това, рискът от халюцинации на изкуствения интелект и потенциалът за подпомагане на смъртоносни решения остават критични въпроси както за технолозите, така и за етиците.

Коментари
Остави коментар