МОСКВА, 29 янв — РАПСИ. Защита от манипулятивного искусственного интеллекта (ИИ) возможна при переводе права в понятный моделям код и создании для алгоритмов особой искусственной этики, считают эксперты «Инфофорума-2026».
Право должно быть не только для человека, но и для искусственного интеллекта, отметила магистр компьютерного права и информационной безопасности МГУ им. М.В. Ломоносова Де Апро Сона Вагановна в ходе тематической сессии на «Инфофоруме-2026».
«Действия ИИ должны регулироваться не традиционным правом, а нормативными регламентами, а точнее квазиправовым комплексом норм. Следует помнить, что уязвимости IT-инфраструктуры в целом вызваны ошибками в программном коде. Должно быть взаимодействие между юристами и инженерами для перевода правовых норм в технические параметры — на уровне программного кода», — считает Вагановна.
Эксперт предложила двухуровневую модель урегулирования искусственного интеллекта. На первом уровне «Право для человека» — представляет собой традиционную систему формальных правил, этических норм и стандартов, закрепленных «на бумаге» и адресованных людям и организациям. На втором уровне «Право для ИИ», которое подразумевает встраивание правил и ограничений в программный код алгоритмов. «Искусственная этика» определяет, как сама система должна реагировать на различные ситуации и оценивать последствия своих действий.
Программирование внимания
«Современная медиасреда все меньше работает как среда информирования, и она скорее близка к программированию внимания», — поделился директор Института правового анализа проблем информационной и медиабезопасности, доцент кафедры информационного права и цифровых технологий Университета имени О.Е. Кутафина (МГЮА) Владимир Никишин.
Из-за развития алгоритмов, генеративного ИИ и нейротехнологий традиционные механизмы проверки информации перестают работать.
Пользователи с трудом отличают достоверный контент от сгенерированного, а персонализированные ленты формируют индивидуальные «информационные пузыри», добавил эксперт.

«Нужны специалисты, которые понимают, как устроена технология распространения рекомендаций, как работают когнитивные и эмоциональные механизмы в интернете. Здесь идет речь о «сквозных компетенциях», основанных на установлении источников, траектории распространения информации, проверке фактов, анализе контента, профилактике инфоатак и кризисных коммуникаций», — считает Никишин.
При этом для того, чтобы противодействовать гибридным угрозам, их нужно знать в лицо, добавил профессор факультета политологии МГУ им. М.В. Ломоносова Андрей Манойло. По его словам, современное информационное противоборство представляет собой особый вид противостояния, где основными инструментами становятся оперативные комбинации с использованием новейших технологий, включая анализ открытых источников (OSINT) и социальную инженерию.

С 28 по 29 января в Москве проходит 28-й Большой Национальный форум информационной безопасности «Инфофорум-2026». Эксперты обсуждают стратегии защиты информации и безопасности значимых объектов критической информационной инфраструктуры, в том числе укрепление доверия к цифровым инструментам.



