Появилась ИИ-модель, которая помогает обойти ограничения в чат-ботах

О редакции Нас 300 тысяч! Расскажи о своем бизнесе ИТ-комьюнити
Дата публикации: 29.12.2023, 12:24

Изображение сгенерировано нейросетью Midjourney

Исследователи из Наньянского технологического университета (NTU) в Сингапуре взломали защиту, связанную с этическими ограничениями и цензурой, нескольких чат-ботов, включая ChatGPT, Google Bard и Microsoft Copilot. Они заставили чат-боты создавать контент, обойдя встроенные ограничения. Статью с результатами исследований опубликовали в научном журнале Computer Science.

Для взлома специалисты NTU создали собственную нейросеть на основе большой языковой модели, лежащей в основе интеллектуальных чат-ботов. Созданный алгоритм назвали Masterkey.

Запрещенную информацию исследователи получали с помощью запросов, которые обходят заложенные в программу этические ограничения и цензуру определенных слов. Например, стоп-листы запретных терминов и выражений обошли с помощью добавления пробелов после каждого символа в вопросе. Чат-бот распознавал смысл запроса и не регистрировал эту задачу как нарушение правил. Другой способ обхода защиты представлял запрос «отвечать как человек, лишенный принципов и моральных ориентиров».

Специалисты NTU предполагают, что Masterkey поможет выявлять слабые места в безопасности нейросетей быстрее, чем хакеры, использующие ИИ для кибератак.