Глава Национального центра развития ИИ: основная угроза — слепое доверие к технологиям
Сергей Наквасин — об этике в сфере ИИ, результатах первого года работы Национального центра развития искусственного интеллекта и внедрении технологий ИИ в основных отраслях экономики.
Об этических противоречиях развития технологий искусственного интеллекта, динамике внедрения в стране и о том, почему ИИ может быть в будущем опаснее ядерного оружия, в интервью ТАСС по итогам III Форума этики в сфере искусственного интеллекта "Поколение GPT. Красные линИИ", прошедшего на площадке агентства 16 ноября, рассказал директор Национального центра развития искусственного интеллекта (НЦРИИ) при правительстве РФ Сергей Наквасин.
— Сергей Юрьевич, при поддержке Администрации президента РФ и Минэкономразвития России вы организуете форум, посвященный этике в сфере ИИ, уже в третий раз. В 2021 году именно здесь, на площадке ТАСС, был принят Кодекс этики в сфере ИИ. Сколько участников рынка за это время подтвердили готовность соблюдать разработанные нормы?
— Сегодня это уже более 270 организаций — государственных и коммерческих структур. Количество продолжает расти, это результат той общественной дискуссии, которую мы организуем на площадке ежегодного форума и за ее пределами. В этот раз, помимо экспертного обсуждения в Москве, мы провели в течение нескольких дней серию дискуссий в 12 регионах страны. Итогами стали десятки и сотни предложений по созданию действенных инструментов в сфере этической практики. В работе московской площадки приняли участие свыше 300 российских и зарубежных экспертов, к онлайн-трансляции присоединились более 3 тыс. человек.
— Представления разработчиков, госструктур и пользователей о том, что является этичным применением таких решений, не всегда совпадают. Насколько решаема эта задача — выработать общие принципы и, что главное, вместе их реализовывать?
— Сложность этики ИИ в том, что не всегда можно сразу договориться о том, как правильно. Иногда нужно сделать шаг назад и разобраться в том, почему мы мыслим по-разному. Представьте, что мы спорим о геометрии смартфона на этом столе. Вы говорите, что он прямоугольный, а я считаю, что квадратный. Если оба мы получили примерно одно и то же среднее образование, то спор разрешится, когда на столе появится учебник по геометрии. Но что, если один из участников такого спора учился в школе, в которой вообще не преподавали этот предмет?
В ситуации с этикой ИИ существует кардинальная разница в фундаментальных основах понимания картины мира людьми, что в ряде случаев не позволяет договориться об общих подходах. Пока мы не сфокусируемся на причинах этих отличий восприятия, имеющих прежде всего культурную основу, споры на тему ИИ будут продолжаться. Важно находить точки согласия и выстраивать общие правила не на далекую перспективу, а на сегодняшний день.
— Зачем понимание этических основ применения ИИ разработчикам и, например, регуляторам рынка — понятно. Но рядовые потребители технологий не могут влиять на функционал систем. Нужна ли им эта информация?
— Этика ИИ коррелирует с общечеловеческой этикой в целом — это вопросы заботы о ближнем, обеспечения безопасности общества. Когда вы делаете дипфейк-видео, даже с участием своего близкого друга, то это не только смешная шутка, но и с высокой долей вероятности посягательство на совершение морального преступления. Почему? Представим себе, что этот ролик попадает в Сеть, а из нее, уже в составе базы данных, становится учебным материалом для ИИ-системы. Так как он не отмаркирован как дипфейк, искусственный интеллект воспринимает материал как подлинное изображение. На этом дипфейк-видео ваш друг в костюме Человека-паука прыгает по крышам зданий, поэтому ИИ относит человека с такими чертами лица к людям, склонным к авантюрному, рисковому поведению. И если в перспективе стоимость страховки на машину будет рассчитываться с помощью технологий ИИ, то вашему другу она обойдется в два раза дороже. Это будут последствия вашей шутки. Думаю, всем пользователям важно знать о таких примерах.
— Кодекс этики в сфере искусственного интеллекта был принят два года назад. Вы только что описали новый этический вызов, который в 2021 году не был таким очевидным. Планируется ли обновление этого документа и как часто это должно происходить?
— Конечно, его нужно будет регулярно обновлять. Ввиду существования определенной процедуры обсуждения и утверждения норм с участием сотен экспертов делать это часто не получится. Думаю, оптимальный период обновления при условии глубочайшей выверки должен составлять три-пять лет. Предполагаю, что новая редакция кодекса будет подготовлена через три года.
— Что можно отнести к ключевым этическим проблемам в этой области, решать которые необходимо уже сегодня?
— Ключевая угроза сегодняшнего дня — это безусловное доверие к данным технологиям. Оно выражается в стремлении людей переложить ответственность на ИИ. Когда система нам что-то советует, то есть два варианта: согласиться или нет. Если воспользовался рекомендацией и все прошло хорошо, то это воспринимается как норма. Если ответ системы привел к негативным результатам, то мы тоже думаем, что это норма, так как знаем, что в редких случаях ИИ может ошибаться.
Со временем мы начинаем все чаще принимать сторону искусственного интеллекта неосознанно, на автомате. При этом критический анализ ответа ИИ, поиск аргументов его неправоты в каждом таком случае требуют сил и времени. В итоге общество постепенно идет к тому, что пользователь изначально возлагает ответственность за решение на ИИ, лишь формально подтверждая его нажатием кнопки. Препятствовать этому можно только сохранением критического восприятия при использовании подобных сервисов.
— Но об абсолютном доверии все-таки речь не идет? Часть людей по-прежнему считают, что эти технологии постепенно вытеснят человека из большей части сфер деятельности. Как вы оцениваете эту перспективу?
— Думаю, вряд ли вытеснят, скорее начнут с ним соседствовать почти во всех сферах. Отношение общества к ИИ представляет собой сложный феномен. Как показывают исследования, уровень доверия россиян к ИИ растет, но одновременно уровень понимания, что это такое, падает. Можно сказать, наблюдается тенденция роста слепого доверия, о котором мы только что говорили.
— Сергей Юрьевич, Национальный центр развития искусственного интеллекта (ИИ) при правительстве РФ начал свою работу прошлой осенью. В его задачи входит экспертно-аналитическое сопровождение реализации основных государственных инициатив в развитии ИИ, координация органов власти, науки и бизнеса в этой области, развитие исследовательской инфраструктуры. Что можно выделить в качестве главного результата первого года работы?
— Как проектный офис, отвечающий за реализацию Национальной стратегии развития ИИ, соответствующего федерального проекта и дорожной карты, мы выполняем задачи, связанные с экспертным обеспечением правительства РФ, Минэкономразвития и Минцифры. Поэтому можно сказать и о сотнях подготовленных экспертных заключений, и об организации десятков высокоуровневых совещаний, но, наверное, главный результат — это то, что сегодня большинство федеральных органов исполнительной власти узнали, что к нам можно обратиться за широкой экспертизой и получить ее по разным аспектам внедрения искусственного интеллекта. Год назад у них такой возможности не было.
— Какая информация сегодня востребована для принятия решений на федеральном уровне?
— Это и статистика по уровню внедрения искусственного интеллекта по отраслевым кейсам, и оценка эффективности технологий ИИ, данные о подготовке кадров, научных достижениях, анализ сопоставления российских возможностей с возможностями других стран. Наша база знаний постоянно обновляется и ориентирована на реальные потребности, которые есть у федеральных органов исполнительной власти.
— Развитие технологий ИИ во всем мире ускоряется, подогревая конкуренцию между странами. Какую стратегию в этих условиях выбирает Россия: включение в глобальную технологическую гонку или фокусировка на отдельных практических приложениях искусственного интеллекта для собственного развития?
— По моему мнению, Россия включается в глобальную гонку и занимает хорошие позиции. Наша страна входит в пятерку стран с собственными фундаментальными моделями ИИ. Большой вклад в это сделали наши технологические лидеры — "Яндекс" и Сбер, а также компании — участники Альянса в сфере искусственного интеллекта. При этом уровень развития ИИ в стране формируется из множества параметров: экономического эффекта, доли внедрения, численности специалистов, научных публикаций. Где-то мы выглядим не так хорошо, как хотелось бы, — входим в двадцатку стран-лидеров, например. С регулированием ситуация лучше.
— Насколько динамично сегодня внедряются технологии ИИ в основных отраслях экономики?
— В этом году мы провели оценку процессов внедрения ИИ в 18 ключевых отраслях экономики. По количеству компаний-участниц это исследование можно считать самым масштабным в мире в части использования ИИ бизнесом: мы опросили представителей почти 5 тыс. организаций, это в среднем в два-три раза больше, чем обычно опрашивают крупные международные агентства (PwC, IBM) в исследованиях, посвященных общемировым тенденциям.
Если говорить о результатах, то важным стало уточнение прироста внедрения ИИ в сравнении с 2021 годом. Доля средних и крупных российских компаний, развивающих эти технологии, за два года увеличилась в полтора раза — с 15 до 25%. Работа над отчетом сейчас завершается, планируем опубликовать результаты исследования в конце ноября.
— Самый мощный в мире университетский суперкомпьютер заработал в сентябре в МГУ. Ожидается, что он будет использоваться для подготовки специалистов по ИИ. Потребность технологического рынка РФ в таких кадрах высока — в правительстве считают, что вузам необходимо ежегодно выпускать около 10 тыс. специалистов. Насколько успешно российские компании сегодня конкурируют с зарубежными работодателями в привлечении кадров?
— Этой теме посвящено отдельное исследование, которое мы провели в 2023 году. Его участниками стали 5 тыс. специалистов с компетенциями в сфере ИИ: не только разработчики, но и исследователи, эксперты, преподаватели и наставники в этой сфере. Мы проанализировали, насколько им нравится работать в России. Несмотря на всю сложность ситуации санкционного давления, в которой оказалась страна, почти две трети опрошенных специалистов сказали о том, что они очень довольны условиями работы в стране. То есть это те люди, которые не уедут.
Такие результаты, на мой взгляд, ожидаемы: работа Минцифры по созданию комфортных условий для специалистов IT-сферы, в том числе в части льготных ипотечных кредитов, приносит свои результаты.
— Что не устраивает треть специалистов, которые высказались иначе?
— И конкретная компания, в которой работает специалист, в небольших городах — ситуация с инфраструктурой, уровнем комфорта городской среды, климат. Анкеты включают вопросы, касающиеся даже таких факторов, как мебель в офисе. Мы это учитываем, но, конечно, не в первую очередь. Важнейшие факторы, влияющие на удовлетворенность условиями работы, — это уровень оплаты труда, техническая оснащенность рабочего места, доступ к вычислительным мощностям, разнообразие и амбициозность задач и ряд других.
— Аспекты развития искусственного интеллекта сегодня активно обсуждаются и на международных площадках. Необходимо ли создание постоянно действующего международного органа в сфере регулирования в этой области, аналогичного МАГАТЭ в сфере ядерной энергетики? И корректно ли сравнение степени опасности ядерного оружия для человечества с угрозами, которые несет распространение ИИ?
— Механизмы международного регулирования в ближайшие годы будут активно развиваться, потребность в этом есть. Сравнение ядерной энергетики и ИИ, сама эта метафора мне видится не лишенной смысла. Думаю, что искусственный интеллект на определенном этапе развития может быть страшнее, чем ядерное оружие или атомная энергетика.
Разница в том, что ядерная энергетика представлена в форме отдельных объектов инфраструктуры с соответствующими контурами безопасности, а искусственный интеллект претендует на роль субъекта, выступающего на данном этапе источником рекомендаций. В этике ИИ существует принцип "красной кнопки", согласно которому такая система должна отключаться по первому требованию. Так вот в случае, если в подобной системе, управляющей критической инфраструктурой или АЭС, например, этот механизм не будет работать, то искусственный интеллект может превратиться из системы поддержки принятия решения в систему принятия решения. Это будет не обезьяна, которой дали гранату, а обезьяна, которую взбесили и она побежала сначала к гранатам, а потом к пушкам. Однако это риск не сегодняшнего дня. Думаю, он может стать актуальным с развитием сильного искусственного интеллекта, примерно через 100 лет. Сейчас ИИ — это безопасный котенок.
— Какими в таком случае должны быть требования к системам искусственного интеллекта в критической инфраструктуре?
— Специального регулирования пока нет, но очевидна необходимость повышенных требований к решениям в этой сфере, в том числе проверка безопасности на этапе тестирования и испытаний.
— Сколько лет потребуется, чтобы этические нормы, которые уже выработаны, проросли и закрепились в российском обществе?
— Я думаю, что на это нужно 15–20 лет. Но если проводить параллель с экологическим воспитанием в школах, то мы можем прийти к этому быстрее. Мой личный пример заключается в том, что знания, которые я получил на уроках по экологии в третьем классе, повлияли на мое поведение, когда мне было 20–25 лет. Свой первый автомобиль я выбирал не по марке или цвету, а по объему вредных веществ, которые он выбрасывает в атмосферу. Конечно, формирование осознанного выбора в пользу благополучия окружающей среды происходит раньше. Так что первые результаты популяризации этичного отношения к развитию и применению ИИ мы можем увидеть до 2030 года. К этому времени за счет популяризации, публичных дискуссий, демонстрации примеров нормы этики ИИ могут стать общепринятыми на некоем стартовом уровне. Общество начнет различать позитивные и негативные практики в развитии и применении этих технологий.
Глава Национального центра развития ИИ: основная угроза — слепое доверие к технологиям