В связи с развитием технологии искусственного интеллекта все чаще встает вопрос о его правовом статусе: является ли ИИ только​ специфическим объектом права или его уже​ можно рассматривать в качестве самостоятельного субъекта правоотношений, пусть и с определенными оговорками? Эксперты РАПСИ порассуждали о том, могут ли роботы иметь права и нести обязанности наравне с человеком, а также разобрали основные проблемы, связанные с предоставлением правосубъектности искусственному интеллекту.​


Источник повышенной опасности​

Искусственный интеллект не может иметь правосубъектности, точно так же как ей не могут обладать домашние животные, считает Управляющий партнер Адвокатского бюро ЕПАМ Илья Никифоров.

«Умной машине нечем отвечать, у нее нет активов и имущественной базы. Ответственность за вред, причиненный такой машиной, должен нести пользователь, либо оператор с возможным регрессом к создателю. В каждом конкретном случае следует изучать вопрос о том, что послужило причиной разрушительных действий – неправильный конструктив (тренировка, обучение) нейронной сети, либо некорректные вводные задачи, которые поставил перед ней эксплуатант», — отмечает адвокат.​

По его мнению, искусственный интеллект должен быть приравнен к источникам повышенной опасности, где эксплуатант несет ответственность даже за случайное причинение вреда.​

Отрыв от реальности​

В свою очередь заведующий кафедрой уголовного процесса, правосудия и прокурорского надзора юридического факультета МГУ имени М.В.Ломоносова Леонид Головко охарактеризовал как лженауку концепцию о правовой ответственности роботов.​ ​

«Возникают сюжеты, которые, по моему мнению, являются откровенной лженаукой, например, о правовой ответственности роботов, беспилотных автомобилей, хотя даже хорошему студенту-юристу понятно, что ответственность всегда несет человек, то есть оператор того или иного устройства, в каких-то случаях программист, выгодоприобретатель и т.д.», — уточнил Головко.​

По его словам, в этом смысле наука в целом и науки уголовно-правового цикла в частности не должны отрываться от реальности. ​

«Сегодня в информационном пространстве очень много «мусора», и задача подлинной науки заключается в том, чтобы научиться испытывать к нему иммунитет», — подчеркнул эксперт.​

Степени правосубъектности​

В​ настоящее время ответственность за вред, причиненный искусственным интеллектом, обычно несет лицо или организация, которая его контролирует или им владеет. Но также есть области, где законодательство еще не полностью разработано, и ответственность может быть неоднозначной, отмечает адвокат Александр Бурчук.​

По его словам, в теории степень правосубъектности роботов может варьироваться от установления определенных прав и обязанностей до полного равенства прав с человеком.​

«Правосубъектность предполагает ответственность субъекта. А к какой ответственности​ можно привлечь кофеварку с программным обеспечением? Или бот в телеграмме, если он выдаст неверную сводку погоды или прогноз курса валют? Деньги, принесенные ботом на бирже, принадлежат его собственнику. Злонамеренный умысел программиста, чей бот причинит вред, является субъективной стороной преступления, предусмотренного статьёй 273 УПК РФ (создание, использование и распространение вредоносных компьютерных программ)», — поясняет Бурчук.​

Мнение ИИ​

Как указывает адвокат, сам искусственный интеллект на вопрос о наделении его правосубъектностью ответил так: «возможность признания роботов правовыми субъектами зависит от законодательства каждой страны и изменяется в соответствии с развитием технологии искусственного интеллекта. На данный момент большинство стран не признают роботов или машины правовыми субъектами».​

«Однако, некоторые юридические системы уже сделали шаги в этом направлении. Например, в Японии в 2017 году был принят закон, признающий роботов «электронными лицами», имеющими определенные права и обязанности. Это открывает возможности для дальнейшего развития признания роботов как правовых субъектов», — считает Бурчук.​

Зарубежный опыт​

В свою очередь доцент кафедры международного права РГУП, преподаватель департамента международного и публичного права Финансового университета при правительстве РФ Петр Чувахин напомнил, что в феврале 2017 года Европарламент отказался от​ идеи предоставления правосубъектности искусственному интеллекту. ​

«В Эстонии предложение о принятии специального закона об ИИ, направленного на предоставление ИИ правосубъектности, также было отклонено. Это говорит о том, что европейские страны в целом выступают против данной идеи. Однако, хотелось бы привести ряд иных примером. В течение очень долгого времени в Великобритании правосубъектность предоставлялась морским судам, а в ряде других государств (например, в Индии) в иных регионах мира – идолам, рекам или даже всей экосистеме, что говорит о том, что в теории правосубъектность может быть предоставлена чему угодно», — отмечает Чувахин.​

Он также упомянул случай предоставления саудовского гражданства роботу по имени София и участия робота в выборах на пост мэра японского города Тама в 2018 году.​

Вместе с тем эксперт констатирует, что существование таких примеров ещё не позволяет говорить о наличии правосубъектности у искусственного интеллекта.​

«С теоретической точки зрения ничто не мешает наделить ИИ правосубъектностью. Правосубъектность – это «лишь понятие», обозначающее способность лица иметь права, обязанности и нести ответственность. Однако, это не означает, что, например, юридическое лицо сродни человеку, что оно имеет свободную волю или совесть или что оно должно пользоваться всеми правами, предоставленными людям. Предоставить ИИ правосубъектность в теории не сложнее, чем компании», — считает эксперт.​

Возможные риски​

В то же время Чувахин​ подчеркивает, что введение особого статуса для искусственного интеллекта​ само по себе не должно освобождать его производителей от ответственности. ​

«Надо признать, столкнувшись со сложностью установления виновной стороны, может возникнуть соблазн переложить вину только на ИИ. Именно поэтому вопрос о признании правосубъектности ИИ чаще всего возникает в дискуссиях об ответственности, поскольку способности ИИ к самообучению затрудняют применение правил об ответственности за качество продукции из-за того, что сложно найти грань между присущими продукту дефектами и ущербом, причиненным ИИ в процессе разработки этого продукта, тем самым делая традиционные правила недостаточными», — указывает​ Чувахин.​

По его мнению, пока у искусственного интеллекта​ нет материальных активов в наличии и он не может выплачивать денежную компенсацию, судебное решение, вынесенное против ИИ, будет бесполезным. ​

«При этом если ИИ сможет приобретать и накапливать материальные активы, какими бы ни были краткосрочные выгоды от предоставления ИИ правосубъектности и разрешения им владеть активами, их быстро перевесит опасность того, что ИИ сможет начать контролировать экономику всего государства.​

Таким образом, стоит отметить, что предоставление ИИ правосубъектности вполне возможно, однако это не решило бы никаких проблем, возникших в результате его развития, и, скорее всего, создало бы новые проблемы, начиная от риска перекладывания ответственности на ИИ до опасности неправомерного использования ИИ или даже того, что в далеко идущем сценарии, ИИ будет злоупотреблять своими возможностями», — резюмирует эксперт.​