Компания OpenAI предупредила о растущей угрозе использования технологий искусственного интеллекта в распространении дезинформации. Стартап провел совместное исследование с Центром безопасности и новых технологий Джорджтаунского университета (CSET) и Стэнфордской интернет-обсерваторией.
Исследователи считают, что языковые модели снизят стоимость проведения кампаний по дезинформации, сделав их доступными для более широкого круга участников. Кроме того, они способны изобретать новые тактики вроде создания контента в реальном времени в чат-ботах.
Инструменты на основе языковых моделей также помогут генерировать более убедительные тексты по сравнению с традиционными методами.
По мнению ученых, закрытость языковых моделей не поможет уберечься от дезинформации. Агитаторы, вероятно, будут тяготеть к системам с открытым исходным кодом или разработанным государством альтернативам, добавили они.
Для предотвращения неправомерного использования подобных технологий в будущем исследователи призвали разработать соответствующие меры.
Ученые предложили разработчикам искусственного интеллекта создавать более чувствительные к фактам модели или налагать более строгие ограничения на использование.
Платформам и поставщикам ИИ исследователи рекомендуют координировать свои действия для выявления автоматизированного контента, а учреждениям — участвовать в кампаниях по повышению медиаграмотности.
Также они предполагают, что правительства могут налагать ограничения на сбор данных и контролировать доступ к оборудованию для обучения алгоритмов.
Исследователи рекомендуют широко применять стандарты цифрового происхождения для отслеживания источника ИИ-контента — в этом могут помочь блокчейн и цифровые идентификаторы.