Весной 2026 года Минцифры представило законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Документ, вступление в силу которого запланировано на 1 сентября 2027 года, задаёт жесткие рамки для разработчиков нейросетей, вводит понятие «доверенных моделей» и обязывает маркировать синтезированный контент, одновременно предоставляя масштабные льготы для инфраструктурных проектов.
Законопроект закрепляет на законодательном уровне само понятие искусственного интеллекта, устанавливает комплексный подход к регулированию искусственного интеллекта (ИИ), охватывая весь жизненный цикл ИИ (от разработки до эксплуатации и ответственности). Ключевая идея документа — обеспечение технологического суверенитета страны.
Справка! Искусственный интеллект (согласно законопроекту) — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Кроме этого, в законодательство об ИИ впервые в явном виде вводятся требования соответствия технологий традиционным российским духовно-нравственным ценностям (перечислен широкий список: жизнь, достоинство, права и свободы человека, гуманизм, патриотизм, гражданственность, служение Отечеству, крепкая семья, приоритет духовного над материальным и другие).
«Доверенные» модели: что нужно знать о новых правилах допуска
Одно из центральных положений документа – категорирование моделей ИИ. Для использования в государственных информационных системах и на значимых объектах критической информационной инфраструктуры будут допускаться только так называемые «доверенные модели». Они должны быть включены в специальный реестр, обрабатывать данные исключительно на территории России и пройти сертификацию безопасности в органах ФСТЭК и ФСБ.
Справка! Доверенные модели искусственного интеллекта — модели искусственного интеллекта, соответствующие требованиям, установленным настоящим федеральным законом и включённые в реестр доверенных моделей искусственного интеллекта.
Законопроект обязывает владельцев сервисов ИИ маркировать аудио, видео и иной контент, созданный с помощью нейросетей. Маркировка должна быть как читаемой для человека, так и машиночитаемой. Крупные интернет-площадки с аудиторией более 100 тысяч пользователей в сутки будут обязаны самостоятельно проверять наличие такой маркировки и удалять «синтезированный» контент, если предупреждение отсутствует.
НЕ забыли и про права граждан. Согласно документу, лицо, продающее товары или оказывающее услуги с помощью ИИ без участия человека, обязано информировать об этом потребителя. Более того, в случаях, установленных Правительством, гражданин получит право отказаться от взаимодействия с ИИ и потребовать оказания услуги в «человеческом» формате.
Законопроект выделяет четыре основные роли:
Для каждого субъекта отношений определены обязанности и зоны ответственности. Разработчики обязаны документировать логику работы, моделировать риски и исключать функциональные особенности, ведущие к дискриминации. Операторы - приостанавливать работу системы при угрозе вреда жизни/здоровью, вести учет инцидентов и назначать ответственных за безопасность. Владельцы сервисов (с аудиторией >500 тыс. пользователей в сутки) получают обязанности, аналогичные для социальных сетей (по закону № 149-ФЗ), включая ограничение создания запрещенного контента.
Законопроект предусматривает принцип ответственности, соразмерной вине. При этом предусмотрена презумпция вины разработчика/оператора/владельца: они несут ответственность за нарушающий закон результат, если заведомо знали или должны были знать о возможности получения такого результата. Освобождение от ответственности возможно, если имели место обстоятельства непреодолимой, вред нанесён потерпевшим умышленно, сам субъект предпринял исчерпывающие меры для предотвращения нарушения и соблюдал все требования законодательства. Оператор, возместивший вред, может взыскать убытки с разработчика, если докажет, что вред возник исключительно из-за недостатков модели, которые нельзя было выявить при разумной осмотрительности.
В таблице 1 привели весь предложенный перечень обязанностей и мер ответственности для субъектов отношений с ИИ.
Таблица 1. Обязанность и ответственность субъектов отношений с ИИ
|
Субъект отношений |
Определение |
Обязанности |
Ответственность |
|
Разработчик модели |
Физическое или юридическое лицо, или ИП, осуществляющие исследования, проектирование, разработку, обучение, тестирование или модификацию, модели ИИ
|
Обеспечивает безопасность созданной модели, включая:
· исключение функциональных особенностей, способных привести
· информировать разработчика системы ИИ о невозможности её использования в запрещённых целях;
· документировать архитектуру, логику функционирования и ограничения применяемых моделей ИИ в объёме, необходимом для её проверки на соответствие нормативному правовому регулированию, установленному в соответствии с Федеральным законом;
· проводить моделирование потенциальных рисков, связанных с функционированием разрабатываемых технологий ИИ, с учётом их предполагаемого применения; · определить порядок обслуживания и контроля параметров функционирования объектов с использованием ИИ. |
Несёт ответственность в соответствии с законодательством РФ за результат, полученный с использованием ИИ, нарушающий законодательство РФ, при условии, что заведомо знал или должен был знать о возможности получения такого результата с использованием модели, системы или сервиса ИИ, разработчиком, оператором или владельцем которых они являются, если в результате следственных действий не будет доказано обратное. Освобождение от ответственности предусмотрено, если лицом предприняты исчерпывающие меры к предотвращению получения такого результата и соблюдены требования законодательства РФ при разработке модели, эксплуатации системы и предоставлении доступа к сервису ИИ.
|
|
Оператор системы |
Гражданин или юридическое лицо, осуществляющие деятельность по эксплуатации системы ИИ, в том числе по обработке информации, содержащейся в её базах данных
|
Обязан:
· включить в документацию руководство по безопасной эксплуатации, содержащее указание на недопустимость использования системы для манипуляции поведением и эксплуатации уязвимостей человека;
· проводить тестирование системы для выявления потенциальных возможностей её использования в целях, противоречащих законодательству РФ;
· предоставить пользователям информацию о функциональном назначении и ограничениях системы;
· обеспечивать техническое обслуживание и контроль параметров функционирования объектов с использованием ИИ в соответствии с требованиями, установленными владельцем и разработчиком;
· незамедлительно приостанавливать эксплуатацию объектов с использованием искусственного интеллекта при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу физических или юридических лиц, окружающей среде;
· обеспечивать учёт инцидентов, связанных с функционированием объектов с использованием ИИ; · назначать ответственных лиц за обеспечение безопасного функционирования объектов с использованием ИИ. |
|
|
Владелец сервиса |
Лицо, обладающее соответствующими правами на сервис ИИ, включая исключительные или иные права на такую систему, если иное не установлено договором или законом
|
Обязан:
· определить правила доступа к сервису ИИ и предусмотреть в них прямой запрет на использование такого сервиса в целях, противоречащих законодательству;
· принимать меры по недопущению использования сервиса в противоправных целях;
· информировать пользователей сервиса ИИ о том, что они взаимодействуют с системой ИИ, за исключением случаев, когда такое обстоятельство очевидно для пользователя исходя из назначения сервиса, характера его функций или условий использования;
· если к сервису в течение суток обращается более пятисот тысяч пользователей сети «Интернет», находящихся на территории РФ, выполняет обязанности, предусмотренные статьей 10.1 Федерального закона от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации»;
· определить порядок обслуживания и контроля параметров функционирования объектов с использованием ИИ; · внедрять механизмы, ограничивающие возможность создания с использованием сервиса ИИ информационного материала, противоречащего законодательству РФ. |
|
|
Пользователь |
Лицо, использующее сервис ИИ в соответствии с Федеральным законом
|
Обязан:
· соблюдать установленные правила доступа к сервису ИИ;
· использовать сервисы ИИ и модели ИИ целях, не противоречащих законодательству РФ; · не совершать действий, направленных на обход встроенных механизмов безопасности и контроля в нарушение установленных параметров функционирования объектов с использованием ИИ. |
Несёт ответственность в соответствии с законодательством РФ за использование результата, полученного с помощью искусственного интеллекта, нарушающего законодательство РФ, когда такой результат является следствием его умышленных действий либо несоблюдения им условий использования сервиса ИИ.
|
Законопроект устанавливает, что объекты, созданные с применением систем искусственного интеллекта, охраняются в порядке, предусмотренном ГК РФ. Исключительные права на указанные объекты определяются также согласно нормам Гражданского кодекса.
Объекты, созданные ИИ, охраняются, только если являются оригинальными творениями (критерий, традиционно требующий творческого вклада человека, остаётся размытым).
Вводится система сдержек и противовесов между тремя ключевыми субъектами: владельцем сервиса, разработчиком модели и пользователем.
Для владельцев сервисов вводятся обязанности:
Для пользователей законопроект закрепляет принцип «пользовательского суверенитета» в ответственности. Пользователь не вправе использовать результаты ИИ способами, нарушающими закон или условия договора. При этом ответственность за нарушение прав третьих лиц (например, плагиат) возлагается непосредственно на пользователя.
На разработчиков моделей возлагается обязанность «чистоты прав». Они обязаны гарантировать, что при обучении модели не были нарушены права третьих лиц. Использование чужих материалов допускается, но только при соблюдении требований закона или договора.
Не является нарушением авторских и (или) патентных прав извлечение информации из охраняемых объектов (включая книги, изображения) для формирования наборов данных и обучения ИИ, при условии, что у разработчика был правомерный экземпляр или объект был доведён до всеобщего сведения.
Документ также вводит понятие «трансграничные технологии искусственного интеллекта». К ним предлагают относить любые технологии, создание, разработка, использование или передача которых связаны с территориями или субъектами двух и более государств.
Согласно одной из статей законопроекта, работа таких технологий может быть запрещена или ограничена в случаях, установленных российским законодательством.
Для поддержки вычислительной инфраструктуры законопроект предусматривает беспрецедентные меры стимулирования для центров обработки данных (ЦОД) и суперкомпьютеров, включённых в специальный перечень. Им могут быть предоставлены:
Действие нового закона не будет распространяться на сферы обороны, безопасности государства, охраны правопорядка и предотвращения чрезвычайных ситуаций. Эти направления останутся в зоне ведомственного регулирования (актами Президента и профильных силовых структур).
Планируется, что закон вступит в силу 1 сентября 2027 года. Потребуется время для разработки масштабного массива подзаконных актов: порядка ведения реестра доверенных моделей, критериев соответствия «традиционным духовно-нравственным ценностям», а также отраслевых требований к качеству систем ИИ.
Эксперты отмечают, что законопроект направлен на создание замкнутого контура регулирования, стимулирующего локализацию технологий, но при этом может создать административные барьеры для использования зарубежных генеративных моделей в государственном и корпоративном секторах.
Ряд понятий в документе: «эксплуатация уязвимостей», «приоритет духовного над материальным» и «традиционные ценности» носят оценочный характер, что создаёт широкий простор для усмотрения регулирующих органов и может тормозить развитие генеративных нейросетей. А конструкция ответственности («должен был знать») может быть тяжела для применения на практике, особенно в отношении сложных моделей с эффектом эмерджентности (непредсказуемым поведением).
Обзор подготовлен на основе представленного текста законопроекта (по состоянию на 24 марта 2026 года) и не учитывает возможные поправки в ходе его рассмотрения на последующих этапах.
Цифровая личность: построение персонального бренда и цифровой идентичности с помощью нейросетей
Интенсив-практикум по созданию сильного, масштабируемого. узнаваемого и запоминающегося личного бренда в эпоху AI и цифровых двойников. В эпоху, когда присутствие в цифровой среде стало обязательным, личный бренд перестает быть просто ни́шей. Он превращается в актив, который работает на вас 24/7. Эта программа обучения — практический пятидневный интенсив, который помогает создать современную цифровую идентичность, уникальную медиа-платформу и персональный бренд, усиленный новейшими AI-инструментами.
Практикум: применение технологий искусственного интеллекта для анализа и прогнозирования данных
В эпоху цифровизации и больших данных искусственный интеллект и машинное обучение стали неотъемлемой частью бизнес-процессов. Компании всех масштабов активно внедряют технологии анализа данных для принятия обоснованных решений, оптимизации процессов и повышения конкурентоспособности.
Практикоориентированный интенсив, который научит использовать ИИ в повседневной работе госслужащего — без сложностей и лишней теории. За 2 дня слушатели научатся автоматизировать рутину: готовить письма, справки, таблицы, презентации, визуал и видео — с помощью российских и международных ИИ-инструментов, адаптированных под госсектор. Курс даст не только знания, но и конкретные шаблоны, готовые решения и уверенность в том, как ИИ может работать на вас.
Вы сможете выбрать только актуальные для вас темы.