ВОЗ предупреждает: нужно осторожно относиться к диагнозам от нейросетей

Всемирная организация здравоохранения выпустила предупреждение, в котором призывает проявлять осторожность при использовании инструментов искусственного интеллекта в сфере общественного здоровья.

Предупреждение касается типа алгоритма искусственного интеллекта, который использует методы глубокого обучения и большие наборы данных для понимания, обобщения и создания нового контента (LLM). Его включают некоторые из наиболее быстро развивающихся платформ, таких как ChatGPT, Bard, Bert, которые имитируют понимание, обработку и создание человеческого общения.

ВОЗ указывает, что важно тщательно изучить все риски использования LLM для улучшения доступа к информации о здоровье — при принятии решений или даже для усиления диагностических возможностей в местах, где есть ограниченные ресурсы для защиты здоровья людей.

«Внезапное внедрение непроверенных систем может привести к ошибкам медработников, причинить вред пациентам, подорвать доверие к ИИ и таким образом подорвать потенциальные долгосрочные преимущества и использование таких технологий во всём мире», — отмечают в ВОЗ.

Данные, используемые для обучения ИИ, могут быть предвзятыми и генерировать обманчивую или неточную информацию, которая может представлять риск для здоровья, справедливости и инклюзивности. Ответы ИИ могут казаться авторитетными и правдоподобными, но быть абсолютно неправильными или содержать серьёзные ошибки.

ИИ могут учить на данных, для которых не давали согласия на использование. Также ВОЗ считает, что инструментами ИИ могут злоупотреблять для создания и распространения убедительной дезинформации, которую трудно отличить от надежного медицинского контента.

Организация уверяет, что с энтузиазмом относится к надлежащему использованию новых технологий, включая LLM. Но перед их широким использованием предлагает рассмотреть проблемы и измерить чёткие доказательства пользы.

BertВОЗНейросетиBardChatGPTздоровьеИИМедицина