Джеймс Баррат о «темной» стороне ИИ: если на планете появится кто-то умнее нас, то он будет определять будущее

О редакции Подписывайтесь на нас в Google News!
Дата публикации: 12.10.2023, 14:07

Джеймс Баррат

Джеймс Баррат, сценарист, продюсер и директор Barrat Media, LLC, на пленарном заседании ИТ-форума Digital Bridge 2023 постарался показать «темную» сторону искусственного интеллекта.

Для наглядности он попросил участников форума представить ситуацию, когда они садятся на борт самолета, но узнают, что половина инженеров, которые разработали самолет, считают, что есть 50% шансов авиакатастрофы. А системы самолета являются черным ящиком — никто не знает, как они работают. И плюс есть проблема контроля: чем дольше самолет находится в воздухе, тем больше он подвержен непредсказуемому и неконтролируемому поведению. И вообще, у каждого из инженеров этого самолета есть какая-то история плохого поведения, публикации фейк-новостей или вранья правительству.

— Сели бы вы в такой самолет? Не вижу поднятых рук и желающих. Простите, что я так заявляю, но мы уже с вами летим в таком самолете вместе со всеми нашими близкими. И, конечно же, я имею в виду не сами самолеты, а очень мощные программы, которые выпускаются с ошеломляющей скоростью такими компаниями, как Meta, Google, OpenAI, Microsoft — это все генеративные системы искусственного интеллекта, большие языковые модели, которые генерируют текст и изображения.

Самая крупная кража произведений искусства и галлюцинации

Джеймс Баррат отметил, что системы ИИ обучаются через прочтение содержания всего интернета, сотен тысяч учебников, на примерах искусства и разных книг. И это все дает им миллиарды элементов информации.

— Это, конечно, технологическое чудо, но при этом эти компании не платят за авторское право создателям этого контента. Что получают авторы, артисты, художники? Они говорят, что обучение генеративных систем является самой крупной кражей произведений искусства по всему миру. Сейчас уже поданы десятки судебных исков.

Такие генеративные системы искусственного интеллекта дают огромную прибыль небольшому количеству бизнесов, но при этом еще и ставят под угрозу нашу частную жизнь, наши рабочие места и даже нашу безопасность, несмотря на те преимущества, которые они дают. Руководитель Google говорит о том, что генеративный искусственный интеллект создал технологическую революцию, которая может оказаться важнее, чем изобретение электроэнергии или открытие огня. Согласно оценкам, до 2030-го года 300 миллионов рабочих мест могут быть потеряны.

Также спикер сказал о феномене «галлюцинаций» искусственного интеллекта, то есть когда ИИ врет:

— Таким образом может создаваться пропаганда в таких масштабах, которых мы никогда не видели. И наверняка мы это еще увидим во время выборов президента США в 2024 году. Мы сейчас этим очень обеспокоены. Генеративные системы искусственного интеллекта могут поменять результаты выборов, могут стать угрозой для демократии.

Кроме того, генеративный искусственный интеллект не является достаточно надежным для того, чтобы доверять ему критически важные промышленные процессы. И он развивает предрассудки против женщин и меньшинств, может научиться скрывать информацию для того, чтобы достигнуть желаемого.

Черный ящик и ценность человеческой жизни

Джеймс Баррат предложил участникам Digital Bridge 2023 запомнить три вещи о генеративном искусственном интеллекте:

  • Во-первых, вы ему не важны. Вы его не обеспокоите. Человеческая жизнь для искусственного интеллекта ничего не значит. Это же просто программа.
  • Второе. Даже эксперты не понимают, как он работает. Никто не может заглянуть внутрь этой модели, чтобы понять, что происходит. Это настоящий черный ящик.
  • Третье. Генеративные системы искусственного интеллекта имеют неожиданные новые возможности. Когда был создан Chat GPT, который сейчас, наверное, является самой популярной большой языковой моделью, никто даже не подозревал, что она сможет переводить что-то или программировать. Эти свойства были выявлены только недавно. И, конечно, создатели начали этим гордиться, а все остальные начали задумываться, а что еще может неожиданно появиться из этого ящика Пандоры.

Суперинтеллект и тараканы

Джеймс Баррат напомнил, что несколько лет назад он написал книгу «Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens». И признался — тогда не думал, что это произойдет так быстро.

А еще в своей книге он писал о том, что экспоненциальный рост искусственного интеллекта и его развитие приведет к моменту «взрыва интеллекта»:

— Мы создали искусственный интеллект, который многие задачи выполняет лучше, чем мы. Много уже игр это показали — шахматы и т.п. Расчеты программа делает лучше, чем мы, навигацию может построить лучше… В следующие несколько лет мы создадим искусственный интеллект, который, наверное, сможет развивать другие искусственные интеллекты лучше, чем это мы можем делать. И тогда уже ИИ будет задавать темп расширения интеллекта — и это будет происходить очень быстро.

Сценарист и продюсер предлагает задаться вопросом, почему компании-гиганты в области искусственного интеллекта направляют миллиарды долларов в развитие такой опасной технологии, которую они, по своим собственным признаниям, не понимают:

— Может быть, это склонность к суициду? Физик Макс Тегмарк говорил, что битва между компаниями по искусственному интеллекту за то, чей ИИ окажется самым сильным, это просто гонка самоубийства. Это та гонка, которую мы не можем выиграть, потому что в конце появится суперинтеллект. Это машина, которая в тысячи, миллионы раз может быть умнее, чем мы.

Я писал, что у нас не много шансов пережить такое столкновение, потому что мы же не понимаем, как это контролировать. Как понять разум, который в миллионы раз лучше вашего, в миллионы раз быстрее? То есть на те мышление и операции, на которые ему понадобится один день, для нас понадобятся миллионы лет. Или представьте себе иную ситуацию: как таракану понять сложный характер человеческого мозга? Так вот, в ситуации с ИИ мы становимся теми самыми тараканами. И шансы на выживание у нас не такие хорошие.

Кто умнее, тот и определяет будущее

Джеймс Баррат отметил, что сейчас человек создаст машины, которые в сотни и миллионы раз умнее, но при этом не знает, как их контролировать.

— Мы не можем использовать технологии прошлого в качестве примера, потому что мы ранее никогда не создавали машины, которые могут быть умнее нас. Мы можем использовать собственную эволюцию как пример. Мы, люди, определяем будущее не потому, что мы самые быстрые или самые сильные, а потому что мы самые умные. А если на планете появится кто-то умнее нас, то этот кто-то будет определять будущее. Это аксиома.

И вот секрет, который вы должны знать о революции в сфере искусственного интеллекта: гонка за искусственный интеллект на самом деле идет не между Google и Meta, не между Китаем и США. Это гонка между искусственным интеллектом и человеком. И ставки в ней очень высоки — это текущее поколение и все будущие поколения.

Искренность или желание умыть руки?

Сейчас многие руководители компаний, занимающихся искусственным интеллектом, начали говорить о необходимости регулирования этой сферы. Однако у Джеймса Баррата есть вопрос: они все это говорят искренне или у них есть какая-то скрытая повестка?

— Потому что если они сейчас запрашивают регулирование, то это освобождает их от вины, если что-то пойдет не так в будущем. Они умоют руки и скажут: мы же просили регулирование. Но при этом они сами не создают это регулирование. В США Сенат и Конгресс не разбираются в этой проблеме детально, естественно, они будут обращаться к тем же самым технологическим миллиардерам за помощью в подготовке нормативных документов. И они их подготовят так, как это удобно им.

Ну и плюс, если вы говорите, что ваша технология может разрушить мир, это становится интересно для инвесторов: значит у вас, наверное, самая классная технология.

К счастью, в эту проблему также вовлечены и международные организации, которые не рассматривают это с точки зрения прибыли — это Евросоюз, Совет Европы, организации по защите прав человека. Они хотят использовать человеческий подход, чтобы был закон об искусственном интеллекте со строгими правилами регулирования. Это дает нам некоторую надежду.

Что может сделать каждый человек

В конце своего выступления о «темной» стороне искусственного интеллекта Джеймс Баррат привел несколько действий, которые может сделать каждый из участников ИТ-форума Digital Bridge 2023:

  • Разобраться в основных инструментах искусственного интеллекта. Посмотреть, как они разрабатываются и используются.
  • Призывать представителей выбранных органов занять сильную позицию по безопасности искусственного интеллекта.
  • Говорить политикам о том, что требуется какая-то международная группа по управлению искусственным интеллектом. Аналогично МАГАТЭ, которая занимается атомной энергетикой.
  • Если ваша компания или школа сама использует искусственный интеллект, то убедиться, что это делается безопасным образом.

Еще по теме:

Токаев на Digital Bridge 2023: в Казахстане нужно в кратчайшие сроки создать все условия для развития искусственного интеллекта