Нарастващата заплаха от AI ботове, използвани за манипулации
Изследователите идентифицираха тревожна тенденция в манипулацията на социалните мрежи: използването на автономни AI агенти, способни на сложни взаимодействия и измами. В средата на 2023 г., след ребрандирането на Twitter в X от Илон Мъск, изследователски екип откри мрежа от над 1000 бота, участващи в измами с криптовалути. Тази мрежа, наречена „fox8“ в чест на фалшивия сайт за промоционални новини, използва ChatGPT за генериране на съдържание.
Операцията беше разкрита поради програмни грешки, които не успяха да филтрират отхвърлящите съобщения на AI, като стандартните отговори относно нарушенията на правилата за съдържание. Въпреки това, изследователите предупреждават, че това откритие вероятно е само „върхът на айсберга“. Зловредните участници все повече имат достъп до мощни модели за обработка на естествен език с отворен код, които са фино настроени, за да заобикалят етичните ограничения, създавайки ново поколение социални ботове, които са много по-усъвършенствани от предишните версии.
Създаване на обществено мнение
Основната опасност, подчертана от тези открития, е създаването на „синтетичен консенсус“. За разлика от традиционния спам, тези AI групи могат да проникнат в онлайн общности и да участват в реалистични, съобразени с контекста дискусии. Чрез симулиране на широко съгласие по конкретни теми, те използват психологическия феномен на социалното доказателство – където хората се съобразяват с действията на другите, като приемат, че тези действия отразяват правилно поведение.
Тази тактика позволява на зловредните участници ефективно да манипулират общественото пространство. AI агентите вече могат да адаптират съобщенията към отделните потребители, като коригират тона и съдържанието, за да резонират със специфични интереси, като по този начин правят радикални идеи да изглеждат като мейнстрийм. Симулациите, проведени от изследователите, показват, че проникването е най-ефективната тактика за тези групи, което им позволява да събират последователи и значително да влияят върху алгоритмите за препоръки на платформите.
Предизвикателства при откриването и регулаторни пропуски
Съществуващите инструменти за машинно обучение, като Botometer, се затрудняват да направят разлика между тези усъвършенствани AI агенти и човешките акаунти. Дори специализираните AI модели, обучени да откриват генерирано от AI съдържание, не успяват да идентифицират тези координирани кампании.
Ситуацията се влошава от отслабването на усилията за модериране на големите платформи и премахването на федералните програми, предназначени за борба с враждебните кампании за влияние. Изследователите вече нямат необходимия достъп до данните на платформите, за да откриват и наблюдават ефективно тези манипулации.
Намаляване на заплахата
За да се справят с тези системни рискове, експертите предлагат няколко стратегии за намаляване на заплахата. Критична първа стъпка е въвеждането на регулации, които дават на изследователите достъп до данните на платформите, което дава възможност за изучаване на поведението на групите. Откриването на координирани модели – а не само на съдържание – е от съществено значение, тъй като тези агенти често разкриват себе си чрез синхронизирано време и мрежово движение.
Освен това, експертите предлагат социалните мрежи да възприемат активно стандарти за воден знак за генерирано от AI съдържание и да ограничат монетизацията на неавтентичното взаимодействие. Премахването на финансовите стимули за кампании за влияние може да намали разпространението на тези злонамерени мрежи.
Заплахата вече не е теоретична. С настоящата политическа обстановка, която благоприятства бързото внедряване на AI пред регулацията за безопасност, рискът от установяване на злонамерени AI групи в политическите и социалните системи е непосредствен.

Коментари
Остави коментар