В России обсудят запрет ИИ с «угрожающим уровнем риска»
Кто должен нести ответственность за вред, нанесенный технологией человеку
Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили РБК пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России» (копия есть у РБК, ее подлинность подтвердили два источника РБК на IT-рынке). Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, отметили собеседники РБК.
В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).
Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».
По его словам, законодательные инициативы пока депутатами «всерьез не рассматриваются». «Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.
Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.
Что предлагает законопроект
- Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
- Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
- Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
- Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
- Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
- Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
- Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).
Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.
Нужно ли регулировать ИИ
Источник РБК в одной компании — разработчике ИИ говорит, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Например, в феврале этого года вице-премьер Дмитрий Григоренко говорил, что законодательное регулирование ИИ не планируется в ближайшие два года.
«Российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, — говорит источник РБК. — Чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли для экономики страны, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков». Он отметил, что негативное влияние регулирования видно на примере европейских компаний: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, собственные конкурентоспособные решения не появляются.
Директор по цифровым технологиям «Ростелекома» Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. «Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», — говорит Хазеев, отмечая, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.
Представители «Яндекса», МТС и VK отказались от комментариев. РБК направил запрос в «Сбер».
Где регулируют искусственный интеллект
В 2024 году Европарламент опубликовал Регламент об искусственном интеллекте (EU AI Act), который охватывает все сферы применения нейросетей. Он запретил использование систем, которые применяют ИИ для подсознательного манипулирования или использования уязвимых мест людей, что может привести к физическому или психологическому ущербу, неизбирательное использование дистанционной биометрической идентификации в реальном времени в общественных местах для обеспечения правопорядка или использование властями «социальных баллов», полученных с помощью ИИ, для несправедливого ущемления прав отдельных лиц или групп. Системы с высокой степенью риска (представляют значительную угрозу здоровью, безопасности или основным правам человека) должны проходить обязательную оценку соответствия перед выпуском на рынок. Также акт ввел требование об обязательной маркировке ИИ-контента для игроков, чьи продукты и сервисы доступны в Евросоюзе, или для европейцев, находящихся за пределами ЕС. За несоблюдение требования предполагается штраф в размере до €40 млн, или до 7% оборота компании-нарушителя.
Обсуждение введения маркировки ИИ-контента также идет в США, соответствующий проект был представлен в марте 2024-го.
В марте 2025 года Китай утвердил новые правила для маркировки контента, сгенерированного нейросетями, мера начнет действовать с 1 сентября. По ним платформы и разработчики должны сообщать, что их сервисы создают контент с помощью нейросетей. В свою очередь, магазины приложений должны проверять, как именно маркируется такой контент. Мера направлена на борьбу с дезинформацией.
В России обсуждение введения маркировки ИИ-систем началось еще в 2022 году: с инициативой в адрес Минцифры обратился руководитель рабочей группы Общественной палаты России по законодательству в сфере интернет-технологий и цифровизации Вадим Виноградов. Он отмечал, что это необходимо для обеспечения права человека на получение достоверной информации. В 2024 году в Госдуме началась разработка концепции закона о маркировке ИИ-контента. «Маркировка должна осуществляться при помощи графических или водяных знаков. Главное, чтобы она была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним, и мог более тщательно его анализировать», — говорил тогда член комитета Госдумы по информполитике Антон Немкин. В феврале этого года Андрей Свинцов вновь призвал ввести обязательную маркировку ИИ-контента.
Читайте РБК в Telegram.