Рабочая группа Совета Федерации совместно с экспертами готовит законопроект, который установит в российских учебных заведениях систему контроля за использованием нейросетей. Согласно концепции, студенты и школьники будут обязаны раскрывать, какая доля их работы выполнена с помощью ИИ, а допустимый порог его применения предлагается ограничить тридцатью процентами. РАПСИ изучило актуальность этой инициативы, а также перспективы эффективности ее применения. 


Инициатива прозвучала 24 марта на заседании Общественного совета при Министерстве цифрового развития. Законопроект появился не в вакууме: буквально за неделю до этого, 18 марта, само Минцифры опубликовало для общественного обсуждения рамочный проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Россия, таким образом, вступает в фазу ускоренного регуляторного нормотворчества в сфере ИИ — и образование оказалось одним из первых приоритетов.

Озвученные на заседании сведения впечатляют: по данным системы «Антиплагиат», фиксирующей следы использования нейросетей в академических текстах, в 2025 году около 25% студенческих работ содержали признаки применения ИИ. Это примерно согласуется с более широким исследованием самой компании «Антиплагиат»: с января по сентябрь 2025 года, по данным системы, в 24% из более чем двух миллионов проверенных студенческих работ были обнаружены следы ИИ-генерации. Для сравнения: в 2024 году этот показатель составлял 17,8%, а в 2023-м — лишь 5,3%. Таким образом, за два года доля «нейросетевых» студенческих работ выросла почти в пять раз.

Причем, согласно опросам самих студентов, около 87% из них признаются, что так или иначе прибегают к помощи нейросетей. Директор проекта дирекции приоритетных образовательных инициатив Президентской академии (РАНХиГС) Пётр Отоцкий на том же заседании сообщил, что, по опросам Президентской академии, ещё в 2024 году более 80% студентов обращались к ИИ, а около 50% использовали его для списывания. За 2025 год доля преподавателей, применяющих технологию в своей работе, выросла с 20% до более чем 60%.

В этой связи эксперты выказывают тревогу, что вузы не понимают, кого они готовят, а работодатели — кого они нанимают. Предлагается ввести «санитарные правила», ограничивающие именно «бездумное» использование ИИ. 

Между тем Минцифры, опубликовавшее рамочный законопроект об ИИ, придерживается иной философии. Ведомство склоняется к более «мягкому» регулированию, которое затронет не саму технологию, а продукты, произведённые с её использованием. Как указал вице-премьер Дмитрий Григоренко, правительство опасается, что избыток госрегулирования на относительно небольшом российском рынке (около 2% мирового) может привести к утрате технологического лидерства.

Законопроект Минцифры устанавливает обязательную маркировку ИИ-контента, вводит понятия «суверенной» и «доверенной» моделей ИИ и должен вступить в силу с 1 сентября 2027 года.

Налицо регуляторный разрыв: общая рамка от Минцифры будет действовать ещё нескоро, тогда как Совфед явно намерен двигаться быстрее — хотя бы в образовательной плоскости.

Зарубежный опыт

Попытки урегулировать использование ИИ в учебном процессе — явление глобальное. В разных странах к этой проблеме подходят по-разному, и опыт зарубежных регуляторов весьма показателен.

Наиболее комплексным документом остаётся Регламент ЕС об искусственном интеллекте (EU AI Act), вступивший в силу 1 августа 2024 года и предусматривающий поэтапное введение норм. С февраля 2025 года начали применяться обязательства по грамотности в сфере ИИ (AI literacy), а полное действие большинства ключевых норм наступит в августе 2026 года. 

Примечательно, что Регламент прямо признаёт школы и вузы «операторами» систем ИИ, возлагая на них конкретные обязанности: обеспечивать человеческий контроль, обучать персонал, знать, какие инструменты ИИ применяются в учреждении. 

Европейские школы в ряде стран в 2025 году приняли отдельный внутренний регламент, прямо запрещающий педагогам приглашать учеников использовать генеративный ИИ в школьных занятиях, если это не санкционировано администрацией.

Однако Дания пошла принципиально иным путём: ряд старших школ не стал запрещать ChatGPT, а напротив, интегрировал его в учебный процесс как инструмент для улучшения навыков письма и исследовательской работы. Этот подход отражает консенсус, который постепенно складывается в европейской педагогической среде: полный запрет не только нереалистичен технически, но и контрпродуктивен педагогически.

В США единой федеральной политики в сфере ИИ и образования пока нет: университеты самостоятельно вырабатывают правила, как правило запрещая полное делегирование заданий нейросетям, но допуская вспомогательное использование. Ряд штатов в 2025 году ввёл соответствующее законодательство. 

Великобритания движется в сторону признания факта: по данным расследования газеты The Guardian, в 2023–2024 учебном году в британских университетах было официально зафиксировано почти 7 000 случаев мошенничества с использованием ИИ — втрое больше, чем годом ранее. Исследователи из университетов предупреждают, что реальные цифры значительно выше, поскольку большинство случаев остаётся невыявленным: по данным того же The Guardian, до 94% работ, написанных с помощью ИИ, успешно миновали системы обнаружения.

Мировые данные об использовании ИИ студентами рисуют картину, которую сложно назвать иначе как тотальной. По данным аналитической компании Digital Education Council, охватившей более 3 800 студентов из 16 стран, в 2025 году около 85–86% учащихся применяют ИИ-инструменты в учёбе. Британский Higher Education Policy Institute зафиксировал в 2025 году, что 88% студентов использовали генеративный ИИ при выполнении заданий — против 53% в 2024 году. Рост почти вдвое за год.

ChatGPT остаётся наиболее популярным инструментом: им пользуются около 66% студентов. Популярны также Grammarly и Microsoft Copilot. По данным американских опросов, к 2025 году около одной четверти подростков в США использовали ChatGPT для выполнения домашних заданий. При этом восприятие нейросетей у молодёжи принципиально иное, чем у педагогов старшего поколения: эти технологии воспринимаются как обыденный рабочий инструмент — так же, как калькулятор или поисковик.

RAND Corporation в 2025 году опросила американских школьников и студентов: почти 7 из 10 учащихся средней и старшей школы выражают обеспокоенность тем, что использование ИИ подрывает их критическое мышление. Иными словами, студенты и сами видят риски — но продолжают пользоваться инструментом, который доступен, бесплатен и удобен.

Что не работает: проблема детектора

Центральный технический вопрос для любого закона о контроле ИИ в образовании — как именно этот контроль осуществлять. 

Системы автоматического обнаружения ИИ-текстов уже несколько лет применяются в западных учебных заведениях, однако научные исследования неизменно выявляют их серьёзные ограничения. UCLA, одна из ведущих американских исследовательских площадок, отказалась внедрять систему обнаружения Turnitin, сославшись на «опасения и неотвеченные вопросы»относительно точности и ложных срабатываний. Сам OpenAI закрыл собственный детектор ИИ из-за неудовлетворительных показателей: инструмент правильно идентифицировал лишь 26% текстов, созданных ИИ, зато ошибочно помечал 9% работ, написанных людьми, как сгенерированные (напомним, что накануне и в России произошел небольшой скандал, когда ИИ-издательство идентифицировало фамилию писателя Виктора Драгунского как пропаганду наркотиков из-за созвучности с английским их наименованием).

Ключевая проблема — именно ложные срабатывания (false positives): ситуации, когда живой человеческий текст система определяет как сгенерированный. Исследования показывают, что этот риск существенно выше для студентов, не являющихся носителями языка, а также для тех, кто пишет в лаконичном или структурированном академическом стиле. Одно британское исследование зафиксировало, что при использовании перефразирующих инструментов (переформулировки текстов) точность детекторов падает с 70,3% до 4,6%. В практическом измерении: при миллионах проверяемых работ даже 1% ложных срабатываний означает тысячи несправедливо обвинённых студентов ежегодно.

Российская система «Антиплагиат» — один из ключевых инструментов, на данные которого опирается инициатива Совфеда, — также фиксирует следы ИИ статистически, а не судит о намерениях студента. Разница между «я использовал нейросеть как черновик, а потом переработал текст» и «я полностью делегировал написание ChatGPT» технически трудноуловима.

Педагогическое сообщество в разных странах всё активнее обсуждает не ограничение ИИ, а переосмысление самой системы оценивания. Суть этого подхода: не пытаться поймать студента на использовании нейросети, а строить задания так, чтобы их нельзя было просто делегировать ИИ.

Практически это означает переход к устным экзаменам, защитам, работам с реальными данными, которые студент собирает самостоятельно, заданиям на рефлексию личного опыта, групповым проектам с фиксируемым вкладом каждого участника. Американская организация ISTE+ASCD (Международное общество технологий в образовании) призвала именно к этому: «Нам нужно переосмыслить разговор и вовлечь студентов в обсуждение того, как ИИ может поддерживать их в обучении, а как — вредить».

Ряд университетов ввёл так называемую прозрачную политику: студентам разрешено использовать ИИ при условии обязательного раскрытия способа его применения — именно этот элемент перекликается с российской инициативой о раскрытии доли ИИ. В этом смысле международный тренд и российский законопроект имеют точки соприкосновения. Принципиальное расхождение — в жёстком процентном ограничении: большинство западных педагогических концепций избегают количественных порогов, считая их произвольными и технически непроверяемыми.

Принципиальный вопрос, который формулируют исследователи: изменила ли эпоха ChatGPT само понятие академической нечестности? Исследование Стэнфордского университета, охватившее 40 различных средних школ, установило: доля студентов, признающихся в списывании, не выросла с появлением ChatGPT и осталась на уровне 60–70% — том же, что был зафиксирован до 2022 года. Это предполагает, что ИИ не породил новую волну академической нечестности — он лишь изменил её инструменты.

Общее регулирование ИИ в России

Образовательный законопроект Совфеда возникает на фоне более широкого регуляторного движения. Минцифры в марте 2026 года представило рамочный законопроект, который впервые законодательно закрепляет само понятие искусственного интеллекта на федеральном уровне, вводит обязательную маркировку всего аудиовизуального контента, созданного с помощью ИИ, и формирует трёхуровневую систему: «суверенные», «национальные» и «доверенные» модели ИИ.

Принципиально важная оговорка минцифровского законопроекта: функционирование «трансграничных технологий» ИИ может быть запрещено или ограничено. На практике это означает потенциальную возможность заблокировать ChatGPT, Claude, Gemini и другие западные сервисы — при том, что открытые модели вроде DeepSeek или Qwen, которые можно развернуть в закрытом контуре, под ограничения, вероятнее всего, не подпадут.

Важно отметить, что каждое обновление языковых моделей делает их тексты всё менее отличимыми от человеческих. Детекторы, которые сегодня фиксируют 80% ИИ-текстов, завтра могут пропустить 95% — потому что модели продолжают развиваться. Студенты, в свою очередь, быстро осваивают способы обойти системы обнаружения: переформулировать, отредактировать, смешать с собственным текстом.

Существенно и другое: запретительная логика вступает в противоречие с потребностями рынка труда. РАНХиГС в исследовании 2025 года констатировал: массовое применение генеративного ИИ может принести российской экономике дополнительно 2,5% ВВП к 2030 году и компенсировать до 80% кадрового дефицита. Программа «Топ-ИИ» с 2025 года готовит специалистов в области ИИ в 22 ведущих вузах страны. На этом фоне запрет студентам использовать ИИ более чем на 30% в учебных работах выглядит как воспитание специалистов, профессиональный инструментарий которых заранее ограничен.

Исследование «Анкетолог» и Skillbox, охватившее студентов крупных российских городов, показало: 93% из них хотят изучать ИИ в рамках учебного процесса, 85% связывают своё будущее трудоустройство с уровнем цифровой грамотности и знаниями в области ИИ.

Подписаться на канал РАПСИ в MAX >>>