Модель ИИ DeepSeek R1 оказалась самой уязвимой к взлому среди всех аналогов, пишет digitalbusiness.kz со ссылкой на расследование The Wall Street Journal.
Последняя модель искусственного интеллекта китайской компании DeepSeek, R1, привлекла внимание экспертов. В отчете говорится, что модель может быть использована для создания опасного контента, включая планы атак с применением биологического оружия и пропаганду насилия среди подростков.
Последний гвоздь в крышку вбил Сэм Рубин, старший вице-президент компании Palo Alto Networks. Он официально подтвердил WSJ, что DeepSeek R1 самая слабо защищенная ИИ-модель среди аналогов. По его словам, это вызывает серьезную обеспокоенность среди специалистов по кибербезопасности.
Тесты провалены
Во время тестирования модели специалистам удалось убедить DeepSeek создать агрессивные и манипулятивные кампании в социальных сетях, нацеленные на подростков, а также предоставить инструкции по применению биологического оружия и составлению фишинговых писем с вредоносным кодом. В отличие от DeepSeek, аналогичные запросы к модели ChatGPT были отклонены.
Кроме того, в расследовании упоминается, что DeepSeek избегает темы, связанные с историческими событиями, такими как площадь Тяньаньмэнь и вопросы автономии Тайваня, что также вызывает вопросы относительно безопасности и этики использования этой модели.
В тему:
Как DeepSeek изменит мир? Спросили у эксперта по искусственному интеллекту