07 мая 2026, 11:25

Можно ли засудить за ИИ-контент, выдаваемый за реальный? Отвечают юристы

Маркировки нет, а законы есть!
Закон о маркировке ИИ-контента с 2025 года активно обсуждается в России. Пока непонятно, заставят ли всех любителей выдавать себя за художников, музыкантов и писателей с помощью ИИ честно помечать свое творчество, но уже сейчас в некоторых ситуациях люди, которые зарабатывают с помощью ИИ, местами ходят по очень тонкому льду. В некоторых обстоятельствах их хитрость вполне может быть расценена законом как мошенничество. Где не стоит использовать ИИ как минимум без предупреждения и что за это грозит, разобрались вместе с юристами.
Можно ли засудить за ИИ-контент, выдаваемый за реальный? Отвечают юристы

© Создано при помощи нейросети

Что происходит с законом о маркировке ИИ

Пока закон о маркировке ИИ в России только находится в разработке. Еще в ноябре 2025 года депутаты Госдумы внесли инициативу, где предлагали обязать соцсети, видеохостинги и сайты помечать видео, фото, аудио и текст, созданные нейросетями. Требование о маркировке ИИ-контента даже вошло в рамочный законопроект о регулировании ИИ в России.

Однако 15 апреля 2026 года Комитет Госдумы по информационной политике рекомендовал отклонить законопроект об обязательной маркировке контента, сгенерированного ИИ.

Первый зампред IT-комитета Антон Горелкин пояснил решение так: «Учитывая, с какой скоростью появляется ИИ-контент, боюсь, что в момент принятия подобной нормы отмаркировать придется уже 90% всего интернета». Кроме того, отдельный законопроект якобы не нужен, если это требование таки будет в общем рамочном законе от правительства.

С учетом, что мошенники все равно не будут маркировать свои дипфейки, норма в любом случае кажется нереализуемой и утопичной.

Технические сложности тоже никто не отменял. Несмотря на то что появляются ИИ-инструменты, которые способны выявить руку нейросетей в тексте или изображении, не существует пока решений, которые могли бы это сделать со 100%-й точностью.

Бывает, доходит до абсурда: признаки нейросетевого текста находят в текстах, определенно написанных людьми. Все потому, что нейросети совершенствуются и все лучше копируют человеческий стиль, а люди все по старинке используют все те же обороты, ошибки и даже иногда смеют оформлять текст по всем правилам русского языка, что многими сейчас считывается как «ну точно нейросеть писала!».

То есть платформы физически не смогут отличить ИИ-картинку от настоящей, но их же и накажут, если они что-то пропустят.

Есть и другая проблема «гонки технологий»: современные ИИ-системы умеют накладывать фильтры, которые заметают следы генерации. Как только появляется алгоритм обнаружения — тут же находится фильтр, который его обходит. И очень может быть, что в этой битве не будет победителей.

«Прямого специального закона, запрещающего выдавать ИИ-контент за человеческий, в России пока нет», — констатирует юрист Магомедали Алиев. И когда такой закон появится — непонятно. Но это не значит, что с помощью нейросетей можно творить совсем уж что угодно.

Чем можно прикрыться уже сейчас

Даже без специального ИИ-закона в российском законодательстве уже давно есть статьи, которые отлично работают против недобросовестного использования нейросетей. Главное, понимать, как они работают. Главная из них — статья 14.7 КоАП «Обман потребителей». В ней есть два ключевых состава:

  • «Введение потребителей в заблуждение относительно потребительских свойств или качества товара». Юрлицам за нарушение в этой сфере грозит штраф до 500 тысяч рублей. Именно эту статью сейчас чаще всего применяют к ИИ-нарушениям, если с помощью нейросетей явно приукрашивают потребительские свойства товара или эксклюзивность услуги.
  • «Иной обман потребителей». Штрафы: гражданам — 3−5 тысяч рублей, должностным лицам — 10−30 тысяч, юрлицам — 20−50 тысяч рублей.

Закон не различает, был ли обман совершен «руками» или нейросетью. Важен сам факт: потребителя ввели в заблуждение. Каким инструментом — не важно.

Закон РФ «О защите прав потребителей» требует предоставлять достоверную информацию. Если продавец или сервис выдает ИИ-генерированный текст, фото, видео или «отзыв» за созданный человеком, и это влияет на решение покупателя — это введение в заблуждение. Пример: ИИ-картинка товара, которая сильно отличается от реальности, или «реальные фото клиентов», сгенерированные нейросетью. Это может быть расценено как нарушение потребительских прав.

Магомедали Алиев
юрист, партнер бюро «Палюлин и партнеры»

Но есть и менее однозначные ситуации, когда использование ИИ-контента прямо не декларируется и не отрицается, а аудитория все равно недовольна.

Например, когда в использовании ИИ уличают дизайнера или художника, чьи подписчики долгое время восхищались его талантом, а потом почувствовали себя обманутыми, когда им «раскрыли глаза».

Или когда рекламодатели заказывают статью или рекламу у популярного блогера, а он сам уже сто лет как таким сам не занимается — соцсеть ведет его пиарщик с помощью ИИ, зато деньги берут как за эксклюзивный контент от живого автора для живой аудитории.

Сегодня все подобные кейсы разбираются через смежные правовые институты, а не через специальную «ИИ-норму». И отсюда разные шансы у пострадавших в зависимости от ситуации. Хотя общей нормы нет, в действующем праве уже есть точечные нормы, которые на ИИ-контент распространяются.

Мирза Чирагов
юрист в сфере IT

Кейс 1: блогер на ИИ-контенте

Допустим, блогер генерирует картинки, тексты и видео через нейросети. Посты набирают просмотры, аудитория растет. Блогер принимает рекламу, размещает интеграции, зарабатывает на рекламных постах. И нигде не пишет, что контент создан искусственным интеллектом.

Вопрос: нарушает ли он закон?

Прямого запрета на публикацию ИИ-контента без маркировки нет. Закон еще не принят. Но есть другая проблема.

Когда блогер продает рекламу, он обязан информировать аудиторию, что это реклама, а также заключать какой-никакой контракт с рекламодателем, где обговаривается формат, количество рекламных интеграций, их стоимость и требования к ним.

Но если блогер создает иллюзию, что он сам пишет тексты, сам рисует картинки, сам снимает видео, а на самом деле все делает нейросеть, — это может быть расценено как введение в заблуждение относительно качества услуг.

Во многом тут, впрочем, зависит от позиции рекламодателя. Заказчик платит за охваты конкретного блога. Если охваты накручены ИИ-контентом, но сама аудитория живая — он может вполне удовлетвориться и этим.

Однако в некоторых случаях рекламодатель прямо требует именно «живые» тексты, видео и фото, вносит это в контракт и на основании этого платит деньги. Если деньги взяли за качественную «живую» работу, а выдали нейросетевую поделку, слепленную за полчаса на коленке, на блогера могут подать в суд за недобросовестную конкуренцию или обман.

Юрист Мирза Чирагов поясняет: в таких ситуациях есть два разных пострадавших и две разных линии защиты, которые нельзя смешивать. Рекламодатель (заказчик рекламы) самая «выигрышная» история для иска. Если в брифе или договоре было заявлено, что блогер ведет авторский контент, рисует/снимает сам, а по факту 90% постов генерация, это в теории:

  • основание для оспаривания договора по ст. 178 ГК РФ (сделка под влиянием существенного заблуждения относительно качеств) или для расторжения по ст. 723 ГК РФ (ненадлежащее качество работ);
  • возможный состав ст. 14.3 КоАП («нарушение законодательства о рекламе») и ст. 5 ФЗ «О рекламе» — недостоверная/недобросовестная реклама, если охваты, на которые ориентировался рекламодатель, формировались за счет скрытой ИИ-имитации «живого» автора;
  • в отдельных случаях ст. 159 УК РФ (мошенничество), но только при доказанном умысле и значительном ущербе. Планка высокая, в практике подобных дел против блогеров пока единицы.

В общем, пока прецедентов в России немного. Но это вопрос времени. Как только крупный рекламодатель подаст иск — правовая практика появится.

Кейс 2: ИИ-творец в найме

Тут вообще тонкая материя. Представьте: человек устраивается дизайнером в штат или берет заказы как фрилансер. В портфолио красивые работы. Клиент или наниматель впечатлен. Но потом выясняется: все «рисунки» сделаны нейросетью, сам художник-«специалист» от руки не рисует вообще.

Вопрос: это обман? Или без разницы, какие инструменты использует творец, если результат удовлетворяет заказчика и аудиторию?

По факту нет закона, который запрещает использовать ИИ в работе. Но есть закон, который запрещает вводить в заблуждение.

Согласно ст. 179 ГК РФ, сделка, совершенная под влиянием обмана, может быть признана судом недействительной. Обманом считается не только прямой обман, но и умолчание о существенных обстоятельствах. Если вы заплатили за «человеческую» статью, дизайн или консультацию, а получили ИИ-контент — договор можно оспорить, вернуть деньги и взыскать убытки.

Магомедали Алиев

Пример: дизайнер берет заказ на «рисованный портрет». Молчит про ИИ. Клиент думает, что ему рисуют живую работу от руки, и платит соответствующие деньги. А получает нейросетевую генерацию по фото за 2 минуты. Это введение в заблуждение относительно качества и способа оказания услуги — статья 14.7 КоАП.

С трудовыми отношениями все еще интереснее. Если работодатель нанимает художник и журналиста на основе его портфолио, которое вообще не отражает его реальные навыки, так как чуть менее чем полностью сгенерировано ИИ, налицо введение в заблуждение и несоответствие занимаемой должности. Всплывет — в суд не подадут, но могут уволить по статье, а это так себе строчка в резюме.

Если же сотрудник в штате генерирует контент через ИИ и сдает как свой, а работодатель об этом не знает — тут могут быть претензии по выполнению трудовых функций ненадлежащим образом. Но только если в трудовом договоре есть прямой запрет на это или требования работать строго определенным образом.

По словам Чирагова, это чисто договорная история, и здесь решающий фактор, что зафиксировано в ТЗ и договоре.

Если заказчик прямо оговорил «ручная иллюстрация», «оригинальная авторская графика», «без использования генеративных нейросетей», то это важное условие и его нарушение дает право:

  • требовать безвозмездного устранения недостатков, повторного исполнения или соразмерного уменьшения цены (ст. 723 ГК);
  • расторгнуть договор и взыскать убытки;
  • оспорить сделку по ст. 178 ГК как заключенную под влиянием заблуждения.

Но если в договоре про способ создания ничего не сказано, практика складывается не в пользу заказчика. Отдельный риск самого дизайнера — это претензии на авторские права. Чисто ИИ-генерация без существенной творческой переработки в РФ объектом авторского права не признается. Нужно будет доказывать степень участия в создании объекта.

Мирза Чирагов

Сейчас закон гарантирует защиту авторских прав только человеческому творчеству. Что будет дальше — вопрос интересный. Законопроект об ИИ, который сейчас обсуждается, вообще предлагает приравнять генеративный контент к человеческому — но это, по мнению юристов, противоречит ГК РФ и Конституции и обесценивает само понятие авторства.

Кейс 3: возмущенная аудитория

А вот тут хороших новостей для тех, кто возмущается в соцсетях и требует засудить за обман блогеров, художников и музыкантов, которые не вставляют везде дисклеймер «сгенерировано ИИ», у нас нет. Даже если вы чувствуете себя глупо, поверив, что собачка из соцсети умеет танцевать и говорить почти как человек, а это оказались нейросетевые ролики, это сугубо ваши проблемы и закон тут не поможет.

Подписка на блогера невозмездная услуга, прямого ущерба у читателей нет. Закон «О защите прав потребителей» не работает там, где нет договора возмездного оказания услуг или купли-продажи. Иск «обманутого подписчика» в суд просто не доберется.

Мирза Чирагов

Генеративного контента между тем становится все больше, ведь так проще привлекать аудиторию, чем надеяться, что жизнь подкинет вам интересный сюжет и топовую камеру, чтобы его заснять. Чтобы не завязнуть в нейрослопе и не покупаться на все, что видите в интернете, развивайте критическое мышление.

Итого: какие перспективы в суде против ИИ-контентщиков?

Все решают обстоятельства: был ли обман или прямое нарушение договора об услуге/публичной оферты/трудового договора. И немаловажно, был ли зафиксирован ущерб из-за этого обмана.

Юрист Магомедали Алиев перечислил, что можно требовать в суде:

  • Признания сделки недействительной и возврата денег.
  • Возмещения убытков: реальный вред + упущенная выгода.
  • Компенсации морального вреда — если обман затронул честь, достоинство или вызвал значительные переживания.
  • Штрафа 50% в вашу пользу по Закону о защите прав потребителей, если это потребительский спор).

Административная ответственность возможна по статье 14.7 КоАП РФ (обман потребителей) — штрафы для ИП и юрлиц. Уголовная ответственность — по статье 159 УК РФ (мошенничество), но только при значительном ущербе и доказанном умысле на хищение денег путем обмана. Для мелких случаев это редко.

Важные нюансы:

  • Если нет ущерба — шансы на успех ниже. Суду нужно доказать, что обман был существенным и повлиял на ваше решение.
  • Доказательства: скриншоты, переписка, экспертное заключение того, что контент сгенерирован ИИ.
  • Платформы и сервисы: крупные сервисы типа «Яндекса» часто сами предупреждают, что контент сгенерирован ИИ. Если платформа этого не делает и вводит в заблуждение — ответственность несет она.
  • Специального «закона об ИИ-маркировке» пока нет, поэтому работают общие нормы ГК, Закон о защите прав потребителей и Закон об информации.

Всегда фиксируйте, что именно вам обещали: «человеческий контент», «реальные фото» и т. д. В спорах с бизнесом сначала направляйте претензию в письменном виде, это обязательно для потребительских дел и часто решает вопрос до суда.

Магомедали Алиев

В целом же не исключено, что в ближайшее время появятся другие нюансы, которые сделают эту сферу чуть более зарегулированной, а сложные ситуации — чуть более ясными и решаемыми по понятным правилам. Держим руку на пульсе вместе с вами.