Перейти к основному контенту
Эксклюзивы РБК ,  
0 
Эксклюзив

В России обсудят запрет ИИ с «угрожающим уровнем риска»

Кто должен нести ответственность за вред, нанесенный технологией человеку
Участники рынка, эксперты и депутаты обсуждают проект госрегулирования ИИ. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями
Фото: Ingram Images / Global Look Press
Фото: Ingram Images / Global Look Press

Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили РБК пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России» (копия есть у РБК, ее подлинность подтвердили два источника РБК на IT-рынке). Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, отметили собеседники РБК.

В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).

Макрон не стал пожимать руку Моди на саммите по искусственному интеллекту
Политика

Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».

По его словам, законодательные инициативы пока депутатами «всерьез не рассматриваются». «Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.

Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.

Что предлагает законопроект

  • Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
  • Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
  • Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
  • Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
  • Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
  • Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
  • Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).

Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.

Нужно ли регулировать ИИ

Искусственный интеллект начал искать экстремалов на горнолыжных курортах
Технологии и медиа
Фото:Кирилл Кухмарь / ТАСС

Источник РБК в одной компании — разработчике ИИ говорит, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Например, в феврале этого года вице-премьер Дмитрий Григоренко говорил, что законодательное регулирование ИИ не планируется в ближайшие два года.

«Российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, — говорит источник РБК. — Чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли для экономики страны, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков». Он отметил, что негативное влияние регулирования видно на примере европейских компаний: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, собственные конкурентоспособные решения не появляются.

Директор по цифровым технологиям «Ростелекома» Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. «Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», — говорит Хазеев, отмечая, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.

Представители «Яндекса», МТС и VK отказались от комментариев. РБК направил запрос в «Сбер».

Где регулируют искусственный интеллект

В 2024 году Европарламент опубликовал Регламент об искусственном интеллекте (EU AI Act), который охватывает все сферы применения нейросетей. Он запретил использование систем, которые применяют ИИ для подсознательного манипулирования или использования уязвимых мест людей, что может привести к физическому или психологическому ущербу, неизбирательное использование дистанционной биометрической идентификации в реальном времени в общественных местах для обеспечения правопорядка или использование властями «социальных баллов», полученных с помощью ИИ, для несправедливого ущемления прав отдельных лиц или групп. Системы с высокой степенью риска (представляют значительную угрозу здоровью, безопасности или основным правам человека) должны проходить обязательную оценку соответствия перед выпуском на рынок. Также акт ввел требование об обязательной маркировке ИИ-контента для игроков, чьи продукты и сервисы доступны в Евросоюзе, или для европейцев, находящихся за пределами ЕС. За несоблюдение требования предполагается штраф в размере до €40 млн, или до 7% оборота компании-нарушителя.

Обсуждение введения маркировки ИИ-контента также идет в США, соответствующий проект был представлен в марте 2024-го.

В марте 2025 года Китай утвердил новые правила для маркировки контента, сгенерированного нейросетями, мера начнет действовать с 1 сентября. По ним платформы и разработчики должны сообщать, что их сервисы создают контент с помощью нейросетей. В свою очередь, магазины приложений должны проверять, как именно маркируется такой контент. Мера направлена на борьбу с дезинформацией.

В России обсуждение введения маркировки ИИ-систем началось еще в 2022 году: с инициативой в адрес Минцифры обратился руководитель рабочей группы Общественной палаты России по законодательству в сфере интернет-технологий и цифровизации Вадим Виноградов. Он отмечал, что это необходимо для обеспечения права человека на получение достоверной информации. В 2024 году в Госдуме началась разработка концепции закона о маркировке ИИ-контента. «Маркировка должна осуществляться при помощи графических или водяных знаков. Главное, чтобы она была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним, и мог более тщательно его анализировать», — говорил тогда член комитета Госдумы по информполитике Антон Немкин. В феврале этого года Андрей Свинцов вновь призвал ввести обязательную маркировку ИИ-контента.

Читайте РБК в Telegram.

Авторы
Теги
Видео недоступно при нулевом балансе


 

Лента новостей
Курс евро на 19 апреля
EUR ЦБ: 92,22 (-1,03)
Инвестиции, 18 апр, 18:01
Курс доллара на 19 апреля
USD ЦБ: 81,14 (-0,88)
Инвестиции, 18 апр, 18:01
В ДР Конго почти 150 человек погибли из-за крушения переполненной лодкиОбщество, 06:54
Эксперты посоветовали Британии нарастить военное присутствие в АрктикеПолитика, 06:38
В ЛНР рассказали об участии правнука Кантарии в военной операцииПолитика, 06:25
Госдеп заявил, что ресурсная сделка с Киевом не связана с урегулированиемПолитика, 06:02
Axios узнал, когда Трамп впервые допустил выход из переговоров по УкраинеПолитика, 05:38
ТАСС сообщил о проверке Иванова на причастность к еще трем преступлениямПолитика, 05:31
В российских школах появится единое расписание уроковОбщество, 05:04
Как собрать команду, которая не потеряет ваши деньги
Интенсив РБК Pro об ошибках основателя — присоединяйтесь
Подробнее
NYT узнала, что США не рассматривают всерьез новые поставки оружия КиевуПолитика, 04:42
Мелони выбрала «путь наименьшего сопротивления» в общении с ТрампомПолитика, 04:29
Politico узнало, что глава аппарата Пентагона покинет свой постПолитика, 03:54
WP узнала, кто в администрации Трампа поддерживает удары по ИрануПолитика, 03:41
Вильфанд сообщил, когда в Москве закончится летняя погодаОбщество, 03:23
Старший сын Кадырова Ахмат стал почетным гражданином ГрозногоПолитика, 03:13
WSJ узнала о разработке США плана мониторинга прекращения огня на УкраинеПолитика, 02:51