МОСКВА, 13 дек — РАПСИ. В своей практике судьям не стоит отказываться от использования технологии искусственного интеллекта (ИИ), впрочем, соблюдая при этом должную осторожность и учитывая возможные риски нарушения конфиденциальности, достоверности и справедливости, цитирует заявление главного судьи Англии и Уэльса по гражданским делам сэра Джеффри Воса издание The Law Society Gazette.

«Судебная система должна принять развивающиеся технологии в нашей системе правосудия, обеспечивая при этом безопасное и ответственное использование ИИ», – сказал Вос. «[Технология – прим. ред.] ИИ обеспечит возможности и позволит нам разработать систему цифрового правосудия, которая будет эффективной и доступной для всех», – дополнил глава гражданской юстиции Англии и Уэльса.

Заявление было сделано по поводу публикации разработанного «межюрисдикционной группой судей» «своевременного и важного» руководства по генеративному искусственному интеллекту, машинному обучению и другим технологиям искусственного интеллекта, содержание которого будет своевременно корректироваться по мере необходимости.

Отметив, что ряд инструментов ИИ-технологии уже используются юристами, главный судья Англии и Уэльса по гражданским делам указал, что судьям, тем не менее, возможно, придется предупреждать отдельных юристов об обязанности последних представлять подтверждение того, что они независимо проверили точность любых исследований или цитат, полученных с помощью ИИ.

Более того, Вос напомнил, что судьи обязаны учитывать то обстоятельство, что любые сведения, которые они вводят в общедоступный чат-бот с искусственным интеллектом, могут стать достоянием гласности, а также о том, что никакие технологии не снимают с судей личной ответственности за принимаемые ими решения.

The Law Society Gazette отмечает, что руководство по ИИ было опубликовано всего через несколько дней после того, как в ходе одного из разбирательств были выявлены факты представления истцом в поддержку своей позиции ссылок на «авторитетные источники», которые, как выяснилось, были сгенерированы системой языковых моделей. Между тем в новое руководство было включено предостережение, что инструменты ИИ могут «создавать вымышленные дела, цитаты или выдержки, а также ссылаться на несуществующие законы, статьи или юридические тексты».