Ежегодный доклад LFAIR: Регулирование искусственного интеллекта. Итоги 2023. 3/3.

Лаборатория справедливого ИИ, lfair.org, исследует пересечение технологий и этики. Мы делимся инсайтами, разрабатываем решения для снижения предвзятости и повышения подотчетности ИИ-систем. Наша цель — обеспечить надежный ИИ для лучшего будущего, ориентированного на справедливость и прозрачность в использовании технологий.

12/21/20231 min read

Раздел 5. Международные инициативы и многостороннее сотрудничество в сфере управления ИИ

На фоне растущей фрагментации национальных подходов в 2023 году значительно активизировались усилия по выработке общих правил и принципов на международном уровне. Анализ этих инициатив выявляет формирование двухуровневой структуры глобального управления ИИ. Первый, более эксклюзивный уровень, представлен G7 и Саммитом в Блетчли-парке, где основное внимание уделяется узкой, но критически важной теме рисков передовых моделей ИИ. Второй, более инклюзивный уровень, представлен площадкой ООН, которая стремится решать широкий круг вопросов, связанных с влиянием ИИ на устойчивое развитие и права человека, с вовлечением развивающихся стран.

Хиросимский процесс G7

Инициированный на саммите «Большой семерки» в Японии в мае 2023 года, Хиросимский процесс стал первой международной попыткой выработать общие правила для передовых систем ИИ, включая генеративные модели. Итогом работы стал «Всеобъемлющий рамочный документ по Хиросимскому процессу в области ИИ», который включает 11 руководящих принципов для всех участников ИИ-экосистемы и Кодекс поведения для организаций, разрабатывающих наиболее продвинутые системы ИИ. Эти документы носят добровольный характер, но закладывают основу для будущей международной координации.

Саммит по безопасности ИИ в Блетчли-парке

Саммит, организованный правительством Великобритании в ноябре 2023 года, стал первой в истории глобальной встречей на высоком уровне, целиком посвященной вопросам безопасности ИИ. Его главным достижением стало подписание «Декларации Блетчли» 28 странами, включая США, Китай и государства ЕС. В декларации впервые на таком уровне признается, что передовой ИИ может создавать «потенциально катастрофические» риски для человечества, и содержится призыв к международному сотрудничеству для их совместного изучения и смягчения.

Участие и подписание декларации как США, так и Китаем является знаковым событием. Несмотря на глубокие геополитические разногласия и расхождения в регуляторных подходах, обе державы признали наличие общих экзистенциальных угроз. Это демонстрирует, что тема безопасности становится той точкой минимального консенсуса, которая позволяет поддерживать диалог, не затрагивая более чувствительные вопросы защиты данных, этики или экономического регулирования.

Роль ООН: создание Консультативного органа по ИИ

В октябре 2023 года Генеральный секретарь ООН Антониу Гутерриш объявил о создании многостороннего Консультативного органа высокого уровня по ИИ. В его состав вошли эксперты из разных стран мира, представляющие правительство, бизнес, научное сообщество и гражданское общество. Мандат органа включает анализ рисков и возможностей ИИ в глобальном контексте и выработку рекомендаций по международному управлению технологией с целью ее согласования с Целями устойчивого развития. В декабре 2023 года орган представил свой промежуточный доклад, заложив основу для дальнейших дискуссий под эгидой ООН.

Принципы ОЭСР как основа для национальных политик

Принципы в области ИИ, разработанные Организацией экономического сотрудничества и развития (ОЭСР) и принятые в 2019 году, в 2023 году продолжали служить фундаментальной основой для многих национальных стратегий и политик. Они продвигают концепцию «надежного ИИ» (trustworthy AI), который является инновационным, уважает права человека и демократические ценности, а также включает такие аспекты, как прозрачность, робастность и подотчетность. К маю 2023 года, по данным самой организации, на основе этих принципов было реализовано более 1000 политических инициатив в более чем 70 юрисдикциях, что подтверждает их статус в качестве одного из наиболее влиятельных документов «мягкого права» в данной сфере.

Техническая стандартизация: деятельность ISO/IEC

Параллельно с политическими дискуссиями в 2023 году велась активная работа на уровне технической стандартизации. Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC) выпустили ряд ключевых стандартов, предоставляющих организациям практические инструменты для реализации принципов надежного ИИ. Среди них — ISO/IEC 23894:2023 по управлению рисками в ИИ (выпущен в феврале) и ISO/IEC 42001:2023, первый в мире стандарт по системам менеджмента ИИ (выпущен в декабре). Эти стандарты играют важную роль в переводе высокоуровневых принципов на язык конкретных организационных процессов и технических требований.

Раздел 6. Аналитические выводы и стратегические перспективы для России

Сравнительное позиционирование российского подхода на мировой арене

Анализ глобального регуляторного ландшафта по итогам 2023 года позволяет определить место российского подхода в формирующейся системе координат. Российская модель, с ее акцентом на достижение технологического суверенитета и стратегическим фокусом на разработке собственных больших фундаментальных моделей, обнаруживает наибольшее концептуальное сходство с подходом КНР. Обе страны рассматривают контроль над базовыми технологиями ИИ как ключевой элемент обеспечения национальных интересов и государственной безопасности. Однако российский подход на данном этапе отличается меньшей степенью прескриптивного (предписывающего) регулирования и большим прагматизмом, где стимулирование развития превалирует над превентивными ограничениями.

В то же время, этот подход кардинально отличается от ценностно-ориентированной, основанной на защите прав человека модели Европейского союза, а также от проинновационных, рыночно-ориентированных подходов США и Великобритании, где роль государства в непосредственной разработке технологий значительно ниже, а основной упор делается на создание благоприятных условий для частного сектора.

Идентификация рисков и возможностей, вытекающих из глобальных регуляторных трендов

Складывающаяся международная обстановка создает для России как существенные риски, так и уникальные возможности.

  • Риски:

    • Комплаенс-барьеры: Экстерриториальное действие европейского AI Act создает значительные юридические и финансовые барьеры для российских технологических компаний, стремящихся работать на рынках ЕС или поставлять свои решения европейским партнерам.

    • Технологическая и нормативная изоляция: Глобальная «гонка стандартов» несет в себе риск того, что российские национальные стандарты (ГОСТы) и регуляторные нормы окажутся несовместимы с доминирующими международными фреймворками, что может затруднить экспорт отечественных ИИ-решений и интеграцию в глобальные технологические цепочки.

  • Возможности:

    • Формирование альтернативного центра влияния: Глобальная регуляторная фрагментация открывает «окно возможностей» для продвижения альтернативных моделей управления ИИ. Россия может выступить инициатором и предложить собственную регуляторную модель странам-партнерам по БРИКС, ЕАЭС и ШОС, формируя таким образом собственный технологический и нормативный блок, основанный на принципах уважения национального суверенитета.

    • Создание конкурентоспособных национальных решений: Стратегический акцент на разработке отечественных БФМ, заложенный в обновленной Национальной стратегии, может стать основой для создания конкурентоспособных национальных и отраслевых ИИ-платформ, независимых от западных и китайских аналогов. Это не только укрепит технологический суверенитет, но и создаст экспортный потенциал для рынков дружественных стран.

Рекомендации по адаптации национальной регуляторной политики

С учетом проведенного анализа, для эффективной адаптации национальной регуляторной политики в области ИИ целесообразно рассмотреть следующие шаги:

  • Сохранение регуляторного прагматизма: Продолжить курс на гибкое и прагматичное регулирование, избегая введения преждевременных и избыточно жестких ограничений, которые могут затормозить развитие национальных технологий на критически важном этапе их становления.

  • Усиление роли технического регулирования: Активизировать работу в области национальной стандартизации (разработка и актуализация ГОСТов), обеспечивая их практическую применимость для отечественной индустрии. При этом необходимо проводить анализ на совместимость с ключевыми международными стандартами (прежде всего ISO/IEC) для снижения экспортных барьеров там, где это соответствует национальным интересам.

  • Поддержка международного комплаенса: Разработать государственные механизмы поддержки (консультационной, методической, финансовой) для российских компаний по вопросам соблюдения требований зарубежного законодательства об ИИ, в первую очередь в юрисдикциях с экстерриториальным действием норм.

  • Активное позиционирование на международных площадках: Использовать многосторонние платформы (ООН, МСЭ, БРИКС) для активного продвижения российских подходов к управлению ИИ, формирования альянсов со странами-единомышленниками и участия в выработке глобальных норм на справедливой и равноправной основе.

Прогноз развития глобального регулирования ИИ на среднесрочную перспективу

В ближайшие 2-3 года можно ожидать сохранения и даже усиления текущих тенденций. Фрагментация глобального регуляторного ландшафта сохранится по мере вступления в силу уже принятых национальных законов и разработки новых. Европейский AI Act, вероятно, укрепит свой статус «золотого стандарта», на который будут ориентироваться многие страны, однако США и Китай продолжат развивать собственные, независимые модели.

Диалог по вопросам безопасности передовых моделей ИИ, начатый в 2023 году, продолжится и может привести к созданию неких международных механизмов мониторинга или добровольного тестирования. Ключевыми точками напряжения в глобальной дискуссии останутся вопросы трансграничной передачи данных для обучения ИИ, защиты интеллектуальной собственности и степени допустимого государственного контроля над технологиями.