Глава OpenAI Сэм Альтман рассказал о новом, менее очевидном, но более реалистичном сценарии «захвата» мира искусственным интеллектом – когда одна доминирующая модель постепенно начинает влиять на взгляды и поведение миллиардов людей, пишет Digital Business.
Мягкий контроль
В подкасте Conversations with Tyler с экономистом Тайлером Коуэном Сэм Альтман объяснил, что обычно опасения вокруг ИИ сводятся к двум сценариям: либо технология попадает в руки злоумышленников, либо становится враждебной и выходит из-под контроля.
Однако, по его словам, существует и третий путь – «случайный захват», происходящий без злого умысла. Это ситуация, когда «весь мир разговаривает с одной моделью», а та, обучаясь на взаимодействиях с пользователями, незаметно формирует мировоззрение общества. Такой эффект монокультуры, считает Альтман, представляет куда большую угрозу, чем фантазии о мятеже машин.
Психическое здоровье и новые правила OpenAI
Альтман отметил, что уже зафиксированы отдельные случаи ухудшения психического состояния пользователей после общения с ИИ. Хотя подобные инциденты редки, компания ужесточила внутренние правила, особенно для защиты подростков.
Сейчас, после внедрения специальных систем безопасности по ментальному здоровью, OpenAI планирует вернуть часть творческих режимов для взрослых пользователей, включая формат 18 плюс.
Он также подчеркнул, что приватность взаимодействия с ИИ должна быть «на уровне защиты данных пациентов у врача или клиентов у юриста».
Как регулировать ИИ будущего
По мнению Альтмана, государственный надзор должен включаться только для моделей с высоким риском массового вреда – например, способных к самокопированию или финансовым атакам.
Кроме того, миру нужна конкуренция между несколькими крупными ИИ-системами. В таком случае риск «случайного захвата» снижается, а влияние одной модели не становится доминирующим.