МОСКВА, 29 янв — РАПСИ. Защита от манипулятивного искусственного интеллекта (ИИ) возможна при переводе права в понятный моделям код и создании для алгоритмов особой искусственной этики, считают эксперты «Инфофорума-2026».

Право должно быть не только для человека, но и для искусственного интеллекта, отметила магистр компьютерного права и информационной безопасности МГУ им. М.В. Ломоносова Де Апро Сона Вагановна в ходе тематической сессии на «Инфофоруме-2026».

«Действия ИИ должны регулироваться не традиционным правом, а нормативными регламентами, а точнее квазиправовым комплексом норм. Следует помнить, что уязвимости IT-инфраструктуры в целом вызваны ошибками в программном коде. Должно быть взаимодействие между юристами и инженерами для перевода правовых норм в технические параметры — на уровне программного кода», — считает Вагановна.

Эксперт предложила двухуровневую модель урегулирования искусственного интеллекта. На первом уровне «Право для человека» — представляет собой традиционную систему формальных правил, этических норм и стандартов, закрепленных «на бумаге» и адресованных людям и организациям. На втором уровне «Право для ИИ», которое подразумевает встраивание правил и ограничений в программный код алгоритмов. «Искусственная этика» определяет, как сама система должна реагировать на различные ситуации и оценивать последствия своих действий.

Программирование внимания 

«Современная медиасреда все меньше работает как среда информирования, и она скорее близка к программированию внимания», — поделился директор Института правового анализа проблем информационной и медиабезопасности, доцент кафедры информационного права и цифровых технологий Университета имени О.Е. Кутафина (МГЮА) Владимир Никишин.

Из-за развития алгоритмов, генеративного ИИ и нейротехнологий традиционные механизмы проверки информации перестают работать.

Пользователи с трудом отличают достоверный контент от сгенерированного, а персонализированные ленты формируют индивидуальные «информационные пузыри», добавил эксперт.

«Нужны специалисты, которые понимают, как устроена технология распространения рекомендаций, как работают когнитивные и эмоциональные механизмы в интернете. Здесь идет речь о «сквозных компетенциях», основанных на установлении источников, траектории распространения информации, проверке фактов, анализе контента, профилактике инфоатак и кризисных коммуникаций», — считает Никишин.

При этом для того, чтобы противодействовать гибридным угрозам, их нужно знать в лицо, добавил профессор факультета политологии МГУ им. М.В. Ломоносова Андрей Манойло. По его словам, современное информационное противоборство представляет собой особый вид противостояния, где основными инструментами становятся оперативные комбинации с использованием новейших технологий, включая анализ открытых источников (OSINT) и социальную инженерию. 

С 28 по 29 января в Москве проходит 28-й Большой Национальный форум информационной безопасности «Инфофорум-2026». Эксперты обсуждают стратегии защиты информации и безопасности значимых объектов критической информационной инфраструктуры, в том числе укрепление доверия к цифровым инструментам.

Подписаться на канал РАПСИ в MAX >>>