МОСКВА, 12 фев — РАПСИ. Баланс между максимальным извлечением пользы от искусственного интеллекта (ИИ) и предотвращением рисков от его использования обязателен при введении нейросетевых технологий в работу, считает заместитель директора департамента развития искусственного интеллекта и больших данных Министерства цифрового развития, связи и массовых коммуникаций РФ Сослан Габуев.
«Сегодня государства пытаются выстраивать такие правила, чтобы их системы и регуляторные подходы к ИИ могли без препятствий сочетаться друг с другом. При этом каждая страна по‑своему ищет баланс между безопасностью и развитием технологий. Россия здесь не исключение», — подчеркнул Габуев на конференции «Технологии искусственного интеллекта 2026».
При этом большинство юрисдикций сегодня находятся в точке поиска баланса между максимальным извлечением пользы от ИИ и предотвращением рисков от его использования. Формула «развитие VS безопасность» определяет эволюцию регуляторики в ведущих странах — от США до государств Азии, каждая из которых вырабатывает методику масштабирования новых технологий, отметил представитель ведомства.
Риск‑подходы
По словам Габуева, Россия должна отойти от европейской риск-классификации ИИ-систем по категориям «неприемлемый, высокий, ограниченный, минимальный». Вместо этого предлагается передать решения отраслевым регуляторам, которые определят правила в своих секторах. Однако такой подход несет риски фрагментации и формирования неравных стандартов для участников рынка.
«Даже при про‑инновационном подходе, когда в приоритете остается стимулирование разработок, одних лишь «мягких правил» — кодексов этики, рекомендаций и добровольных стандартов недостаточно для регулирования высокорисковых ИИ‑систем», — пояснил он. При этом, если говорить о стимулировании инноваций через регуляторные механизмы, необходимо выделить два базовых аспекта: доступ к данным для обучения ИИ и доступ к вычислительным мощностям. Они необходимы для обучения искусственного разума, добавил Габуев.
Представитель Минцифры уделил внимание правовым режимам работы с информацией. «Нужны понятные, прозрачные механизмы обезличивания — зашифровки или видоизменения сведений о конкретной личности, а также анонимизации данных — типа очистки сведений для конфиденциальности и предотвращения утечек», — пояснил он.
Относительно вопроса ответственности за вред, причиненный с использованием ИИ — не стоит забывать о четком разграничении ролей: разработчика, интегратора, оператора и заказчика. Ответственность должна быть связана с фактическим контролем над применением ИИ-системы, и она не должна быть «размытой», подчеркнул Габуев. «Обязательность страхования целесообразно вводить только для высокорисковых случаев, в остальном достаточно добровольных механизмов», — уточнил Габуев.
В этот четверг издание в сфере корпоративных информационных технологий CNews проводит в Москве конференцию «Технологии искусственного интеллекта 2026». Эксперты обсуждают российский рынок ИИ, развитие законодательной базы в области цифровых технологий и новые ниши их применения в России.



