Ежегодный доклад LFAIR: Регулирование искусственного интеллекта. Итоги 2023. 1/3.
Часть 1 из 3
12/20/20231 min read


2023 год стал переломным моментом в истории глобального управления искусственным интеллектом (ИИ). Наблюдается качественный сдвиг от доминирования рекомендательных документов, этических кодексов и принципов «мягкого права», таких как Принципы ОЭСР в области ИИ, к формированию и принятию юридически обязывающих нормативных актов в ключевых юрисдикциях. Этот переход был катализирован экспоненциальным ростом возможностей и общедоступности генеративных моделей ИИ, что вывело дискуссии о потенциальных рисках на высший политический уровень и потребовало от регуляторов решительных действий.
Если предыдущие годы характеризовались выработкой общих этических рамок, то 2023 год ознаменовался конкретными законодательными вехами: достижением политического соглашения по всеобъемлющему Регламенту об ИИ (AI Act) в Европейском союзе, изданием Указа Президента США о безопасном и надежном ИИ и вступлением в силу в Китае первых в мире обязательных мер по регулированию генеративных сервисов. Эти события свидетельствуют о завершении эпохи преимущественно добровольного саморегулирования и начале эры формализованного правового контроля над технологией.
Формирование конкурирующих регуляторных моделей: дилемма «инновации vs. контроль»
Глобальный регуляторный ландшафт по итогам 2023 года характеризуется не отсутствием консенсуса, а формированием нескольких отчетливых и конкурирующих между собой моделей управления ИИ. Эти модели отражают не просто технические различия в юридических подходах, но и глубинные ценностные и геополитические приоритеты их авторов. Процесс нормотворчества в области ИИ становится инструментом утверждения технологического и ценностного суверенитета. Устанавливая собственные правила и распространяя их действие за пределы национальных границ, ведущие мировые игроки стремятся закрепить свои стандарты в качестве глобальных, формируя тем самым контуры будущей цифровой инфраструктуры.
Можно выделить несколько основных парадигм:
Европейская модель: Комплексный, горизонтальный и риск-ориентированный подход, в центре которого находится защита фундаментальных прав и свобод человека.
Американская модель: Гибкий, секторный и проинновационный подход, нацеленный на поддержание технологического лидерства и минимизацию барьеров для бизнеса при одновременном управлении конкретными рисками.
Китайская модель: Вертикальное, адаптивное регулирование, где ключевыми приоритетами являются государственный контроль, социальная стабильность и информационная безопасность.
Британская модель: «Проинновационный» подход, основанный на не имеющих обязательной силы принципах и делегировании полномочий существующим отраслевым регуляторам.
Влияние генеративного ИИ как катализатор регуляторной активности
Появление в широком доступе мощных генеративных моделей, таких как ChatGPT, в конце 2022 – начале 2023 года послужило мощным катализатором для регуляторной активности по всему миру. Сложность и многофункциональность этих систем вывели на первый план целый ряд острых вопросов, требовавших незамедлительного ответа: защита авторских прав при обучении моделей, борьба с дезинформацией и дипфейками, обеспечение прозрачности в отношении используемых данных и системных рисков, связанных с наиболее мощными моделями.
Именно вызовы, связанные с генеративным ИИ, заставили даже страны с традиционно либеральным подходом, такие как США и Великобритания, ввести специальные требования для разработчиков передовых моделей, касающиеся тестирования на безопасность и информирования государственных органов. В ЕС были разработаны специальные многоуровневые обязательства для моделей общего назначения (GPAI), а Китай стал первой страной, внедрившей отдельный нормативный акт, целиком посвященный генеративному ИИ.
Основные вызовы: экстерриториальность, фрагментация и поиск гармонизации
К концу 2023 года глобальное регуляторное поле столкнулось с рядом системных вызовов. Во-первых, экстерриториальный характер ключевых нормативных актов, прежде всего европейского AI Act, создает сложную правовую среду для международных компаний. Организации, работающие на глобальном рынке, вынуждены будут ориентироваться на самые строгие из применимых стандартов, принимая на вооружение подход «наивысшего общего знаменателя» в своей комплаенс-стратегии.
Во-вторых, фрагментация подходов между различными юрисдикциями увеличивает издержки для бизнеса и создает риски регуляторного арбитража. Стремление регуляторов создать «гибкие» и «технологически нейтральные» законы, чтобы избежать их быстрого устаревания, порождает парадоксальную ситуацию. С одной стороны, это продлевает жизненный цикл норм, но с другой — создает значительную правовую неопределенность. Общие формулировки и делегирование полномочий отраслевым ведомствам затрудняют для бизнеса оценку законности своих решений в средне- и долгосрочной перспективе, что потенциально может сдерживать долгосрочные инвестиции в ИИ в данных юрисдикциях.
На фоне этих вызовов в 2023 году активизировались попытки найти точки соприкосновения на международных площадках, таких как Саммит по безопасности ИИ в Блетчли-парке и Хиросимский процесс G7. Однако на данном этапе эти инициативы сосредоточены преимущественно на узкой теме управления рисками наиболее передовых моделей, а не на создании единой глобальной системы регулирования.
Раздел 2. Регуляторная политика в области ИИ в Российской Федерации: Курс на технологический суверенитет
Анализ обновленной Национальной стратегии развития ИИ до 2030 года
Ключевым событием в сфере регулирования ИИ в России в 2023 году стало обновление Указом Президента Национальной стратегии развития искусственного интеллекта на период до 2030 года. Данный документ является основополагающим для формирования государственной политики и определяет вектор развития отрасли в стране.
Обновленная редакция Стратегии была разработана с учетом кардинальных изменений в геополитической и экономической конъюнктуре, включая усиление санкционного давления. Документ открыто признает наличие системных вызовов, стоящих перед отечественной ИИ-индустрией, таких как дефицит высокопроизводительных вычислительных ресурсов, ограниченное развитие и внедрение отечественных ИИ-решений, нехватка квалифицированных кадров и недостаточный уровень инвестиций. В этих условиях основной акцент Стратегии смещается на обеспечение технологического суверенитета.
Центральным нововведением обновленной Стратегии стало введение в официальный нормативный оборот понятия «большие фундаментальные модели» (БФМ). Согласно документу, под БФМ понимаются модели ИИ, которые:
являются основой для создания и доработки различных видов программного обеспечения;
обучены распознаванию определенных видов закономерностей;
содержат не менее 1 миллиарда параметров;
применяются для выполнения большого количества различных задач.
Включение этого понятия в Стратегию является не просто техническим уточнением, а стратегическим ответом на глобальные технологические тенденции. В 2023 году мировой ландшафт ИИ во многом определялся доминированием нескольких крупных фундаментальных моделей, разработанных технологическими гигантами США и Китая. Контроль над такими моделями предоставляет не только экономические, но и значительные информационные и культурно-идеологические преимущества. В этом контексте объявление разработки и адаптации отечественных БФМ одним из приоритетных направлений государственной поддержки является прямым шагом к достижению технологического суверенитета в критически важной области, позволяя избежать зависимости от иностранных платформ и обеспечить контроль над всем технологическим стеком.
Стратегия также устанавливает конкретные целевые показатели на период до 2030 года, включая рост объема оказанных услуг в области ИИ как минимум до 60 млрд рублей (с 12 млрд в 2022 году) и увеличение числа выпускников вузов по профильным специальностям до 15 500 человек в год.
Действующая нормативная база и техническое регулирование
На конец 2023 года в России отсутствует единый всеобъемлющий закон, регулирующий разработку и применение ИИ. Регулирование носит фрагментарный характер и осуществляется через адаптацию существующего законодательства в различных отраслях. Этот подход можно охарактеризовать как регуляторный прагматизм: в отличие от ЕС, создающего превентивный и всеобъемлющий каркас в виде AI Act, или США, где активно обсуждаются «защитные ограждения» (guardrails), российский подход фокусируется на стимулировании развития, а не на опережающем ограничении. Приоритетом является наращивание технологического потенциала, а регулирование следует за технологией, а не предшествует ей.
Важную роль в формировании нормативной среды играет техническое регулирование. В частности, действует национальный стандарт ГОСТ Р 59277-2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», который устанавливает единую терминологию и классифицирует системы ИИ по таким параметрам, как контур управления, технологии построения знаний, выполняемые функции и методы взаимодействия. Этот стандарт создает основу для дальнейшей стандартизации и сертификации ИИ-решений в стране.
Перспективы развития законодательства и меры государственной поддержки
Несмотря на рост рынка ИИ в России, объемы государственного и венчурного финансирования в 2023 году оставались на скромном уровне по сравнению с мировыми лидерами. Государственное финансирование составило 9,2 млрд рублей, а венчурные инвестиции — около $10 млн. Для сравнения, частные инвестиции в ИИ в США в том же году были почти в 12 раз выше, чем в Китае, и в 24 раза выше, чем в Великобритании. Это подчеркивает критическую важность мер государственной поддержки, заложенных в обновленной Стратегии, для достижения поставленных целей. Доминирующим вектором остается курс на импортозамещение и развитие собственных технологических решений.
далее - часть 2
[laboratory for artificial intelligence research]
info@lfair.org 2021 - 2025
Подпишитесь на нашу рассылку