OpenAI предупреждает, что технологии искусственного интеллекта могут использоваться в распространении дезинформации

О редакции Большое интервью с председателем правления KASE
Дата публикации: 16.01.2023, 18:56
пропаганда

Фото — Priscilla Du Preez, Unsplash

Компания OpenAI предупредила о растущей угрозе использования технологий искусственного интеллекта в распространении дезинформации. Стартап провел совместное исследование с Центром безопасности и новых технологий Джорджтаунского университета (CSET) и Стэнфордской интернет-обсерваторией.

Исследователи считают, что языковые модели снизят стоимость проведения кампаний по дезинформации, сделав их доступными для более широкого круга участников. Кроме того, они способны изобретать новые тактики вроде создания контента в реальном времени в чат-ботах.

Инструменты на основе языковых моделей также помогут генерировать более убедительные тексты по сравнению с традиционными методами.

«Это особенно касается тех [агитаторов], у которых нет нужных лингвистических навыков или культурных знаний о цели. Это может сделать операции влияния менее заметными, поскольку сгенерированный контент будет не так легко распознаваем», — говорится в исследовании.

По мнению ученых, закрытость языковых моделей не поможет уберечься от дезинформации. Агитаторы, вероятно, будут тяготеть к системам с открытым исходным кодом или разработанным государством альтернативам, добавили они.

Для предотвращения неправомерного использования подобных технологий в будущем исследователи призвали разработать соответствующие меры.

«Крайне важно проанализировать угрозу операций влияния с помощью ИИ и наметить ряд действий, прежде чем языковые модели будут использоваться для масштабных операций влияния».

Ученые предложили разработчикам искусственного интеллекта создавать более чувствительные к фактам модели или налагать более строгие ограничения на использование.

Платформам и поставщикам ИИ исследователи рекомендуют координировать свои действия для выявления автоматизированного контента, а учреждениям — участвовать в кампаниях по повышению медиаграмотности.

Также они предполагают, что правительства могут налагать ограничения на сбор данных и контролировать доступ к оборудованию для обучения алгоритмов.

Исследователи рекомендуют широко применять стандарты цифрового происхождения для отслеживания источника ИИ-контента — в этом могут помочь блокчейн и цифровые идентификаторы.