В середине марта 2026 года Минцифры РФ опубликовало проект федерального закона, который впервые на законодательном уровне закрепит понятие искусственного интеллекта, права и обязанности участников рынка, а также введет обязательную маркировку контента, созданного с помощью нейросетей. Чтобы разобраться в ключевых положениях и развеять возможные опасения, разберем основные новации. Комментирует руководитель Комитета по финансовым рынкам и банковским операциям Евразийской ассоциации бизнеса, заместитель председателя Правления Банка 131, к.с.н. Ольга Ярыгина.
Мы видим, как вслед за стремительным развитием технологий формируется системный регуляторный контур. Это отнюдь не попытка остановить прогресс, а необходимый этап зрелости рынка, когда у всех участников появляются понятные права и обязанности. Рассмотрим, кого и каким образом коснутся изменения.
Законопроект предлагает риск-ориентированный подход: требования к системам ИИ будут зависеть от степени их влияния на жизнь человека и общество. Вводятся понятия суверенной, национальной и доверенной моделей ИИ, при этом разработка и обучение таких моделей должны осуществляться на территории России. Ожидается, что документ вступит в силу с 1 сентября 2027 года.
Важным блоком становится защита прав граждан. Они смогут в досудебном порядке оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, а также получать компенсацию за вред, причинённый неправомерным использованием технологий.
Сейчас проект Федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» вынесен на публичное обсуждение, которое завершится 15 апреля 2026 года.
Проект закона задает четкие рамки для разработки, внедрения и использования ИИ на территории России.
1. Субъекты отношений в сфере ИИ-технологий
Законопроект выделяет четыре группы участников, помимо органов государственной власти:
2. Обязанности субъектов: зоны ответственности
Для каждой группы проектом предусмотрены конкретные требования:
3. Маркировка ИИ-контента и контроль
Владельцы ИИ-сервисов будут размещать предупреждения в составе сгенерированного аудиального, визуального и иного информационного контента. Требования к содержанию маркировки и порядку ее нанесения определит правительство. Владельцев соцсетей с суточной аудиторией на территории РФ более 100 тыс. пользователей обяжут проверять наличие маркировки на ИИ-контенте; при ее отсутствии такие материалы придется помечать самостоятельно или удалять.
4. Ответственность за результат
За противоправный результат использования искусственного интеллекта каждый субъект будет отвечать соразмерно степени своей вины. Речь идет об административной и уголовной ответственности. Разработчики, операторы и владельцы понесут ответственность за незаконный результат применения, если они заведомо знали или должны были знать о возможности его получения. Пользователей будут наказывать за использование преступного результата, если он возник из-за умышленных действий либо несоблюдения условий пользования.
Взгляд эксперта
Технологии ИИ становятся частью экономики, а вместе с прогрессом приходит и регуляторика. Четкие обязанности для всех участников – не ограничение, а основа безопасного внедрения инноваций. Мы на пороге нового технологического уклада, и прозрачные правила позволят пройти его с минимальными рисками. Для нас как для представителей банковской сферы в контексте цифровых технологий это особенно важно.
Мы видим, как вслед за стремительным развитием технологий формируется системный регуляторный контур. Это отнюдь не попытка остановить прогресс, а необходимый этап зрелости рынка, когда у всех участников появляются понятные права и обязанности. Рассмотрим, кого и каким образом коснутся изменения.
Законопроект предлагает риск-ориентированный подход: требования к системам ИИ будут зависеть от степени их влияния на жизнь человека и общество. Вводятся понятия суверенной, национальной и доверенной моделей ИИ, при этом разработка и обучение таких моделей должны осуществляться на территории России. Ожидается, что документ вступит в силу с 1 сентября 2027 года.
Важным блоком становится защита прав граждан. Они смогут в досудебном порядке оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, а также получать компенсацию за вред, причинённый неправомерным использованием технологий.
Сейчас проект Федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» вынесен на публичное обсуждение, которое завершится 15 апреля 2026 года.
Проект закона задает четкие рамки для разработки, внедрения и использования ИИ на территории России.
1. Субъекты отношений в сфере ИИ-технологий
Законопроект выделяет четыре группы участников, помимо органов государственной власти:
- Разработчик ИИ-модели – гражданин, ИП или юрлицо, которое проводит исследования, проектирование, обучение, тестирование или модификацию модели.
- Оператор ИИ-системы – лицо, эксплуатирующее систему искусственного интеллекта, в том числе обрабатывающее информацию из ее баз данных.
- Владелец ИИ-сервиса – лицо, обладающее правами на сервис искусственного интеллекта, включая исключительные или иные права на ИИ-систему.
- Пользователь ИИ-сервиса – лицо, использующее сервис.
2. Обязанности субъектов: зоны ответственности
Для каждой группы проектом предусмотрены конкретные требования:
- Разработчики обязаны обеспечивать безопасность моделей, а также документировать архитектуру, логику функционирования и ограничения в объеме, достаточном для проверки Минцифры.
- Операторов обяжут проводить тестирование, техническое обслуживание и вести учет инцидентов на объектах, где используется ИИ.
- Владельцы ИИ-сервисов должны информировать пользователей о взаимодействии с ИИ-системой (кроме случаев, когда это очевидно). Если сервисом в течение суток пользуются более 500 тыс. пользователей из РФ, владельцу придется выполнять обязанности организатора распространения информации в интернете.
- Пользователям предстоит соблюдать правила доступа и не использовать искусственный интеллект в противозаконных целях.
3. Маркировка ИИ-контента и контроль
Владельцы ИИ-сервисов будут размещать предупреждения в составе сгенерированного аудиального, визуального и иного информационного контента. Требования к содержанию маркировки и порядку ее нанесения определит правительство. Владельцев соцсетей с суточной аудиторией на территории РФ более 100 тыс. пользователей обяжут проверять наличие маркировки на ИИ-контенте; при ее отсутствии такие материалы придется помечать самостоятельно или удалять.
4. Ответственность за результат
За противоправный результат использования искусственного интеллекта каждый субъект будет отвечать соразмерно степени своей вины. Речь идет об административной и уголовной ответственности. Разработчики, операторы и владельцы понесут ответственность за незаконный результат применения, если они заведомо знали или должны были знать о возможности его получения. Пользователей будут наказывать за использование преступного результата, если он возник из-за умышленных действий либо несоблюдения условий пользования.
Взгляд эксперта
Технологии ИИ становятся частью экономики, а вместе с прогрессом приходит и регуляторика. Четкие обязанности для всех участников – не ограничение, а основа безопасного внедрения инноваций. Мы на пороге нового технологического уклада, и прозрачные правила позволят пройти его с минимальными рисками. Для нас как для представителей банковской сферы в контексте цифровых технологий это особенно важно.
Источник: https://plusworld.ru/articles/71225/