«Отцы» искусственного интеллекта предупреждают о растущих рисках от использования ИИ

О редакции Нас 300 тысяч! Расскажи о своем бизнесе ИТ-комьюнити
Дата публикации: 27.10.2023, 11:06
AI

Фото: Growtika, Unsplash

Йошуа Бенджио и Джеффри Хинтон, которых называют «крестными отцами» ИИ, а также 22 других эксперта подписали документ «Управление рисками, связанными с ИИ в эру быстрого прогресса». Соавторами письма стали академик и писатель Юваль Ной Харари, лауреат Нобелевской премии по экономике Дэниел Канеман и известный исследователь ИИ Джефф Клун. Ученые предлагают бизнесу и правительствам конкретные действия:

— Тратить треть бюджета, заложенного на развитие ИИ, на исследование безопасности

— Проявить более пристальное внимание к разработке ИИ. Государствам нужно срочно получить всестороннее представление о развитии ИИ.

— Предоставить  доступ к ИИ-системам до появления на рынке с целью оценки рисков

— Быть готовыми лицензировать разработку ИИ

— Нести юридическую ответственность за вред, причиненный ИИ

«ИИ может стать технологией, которая определит всю историю нашего столетия. ИИ развивается быстрее, чем мы успеваем придумывать, как сделать технологию безопаснее», — говорится в документе.

В документе отмечается, что передовая модель GPT-4, предлагаемая Open AI, быстро адаптировалась для просмотра веб-страниц, проектирования и выполнения химических экспериментов, а также использования программного обеспечения, включая другие модели ИИ. Такое быстрое развитие может привести к тому, что подобные автономные системы могут выйти из-под контроля.

«Разработчики могут непреднамеренно создавать опасные для общества ИИ-системы. Особенно, если стремясь выиграть технологическую гонку, они пренебрегают безопасностью», — предупреждают эксперты.

Почти одновременно с анонсом открытого письма Хинтона и Бенджио компания OpenAI объявила о создании новой команды, целью которой будет обеспечение безопасности и оценка рисков, связанных с ИИ.