МОСКВА, 1 дек — РАПСИ. Доступный обществу искусственный интеллект опирается только на текущие знания человечества, не умея фантазировать и предполагать появление «черных лебедей», заявил первый вице-президент Федеральной палаты адвокатов РФ Михаил Толчеев.
Предположения о будущем, по словам адвоката, зачастую вытекают из эмпирического опыта конкретного человека и поэтому ограничены. «Черный лебедь» — концепция, предложенная учёным Нассимом Талебом, — с помощью этой птицы он описывает события, которые очень редко случаются и которые невозможно предсказать. Юристам и адвокатам приходится иметь дело с большим количеством разных предположений и безоговорочно доверять советам искусственного интеллекта в них не стоит, считает представитель палаты.
«По большому счёту, ChatGPT — слияние двух процессов: статистического среза и больших языковых моделей. В нём видна зависимость нашего мышления от речевых конструктов. Статистика представляется только о том, что уже было написано и связано. Пока что это сущность, которую мы не понимаем. Она похожа на ИИ, но она только пытается выдавать себя за разум.
Сейчас существующие системы ИИ проходят тест Тьюринга — доказывают, что они не робот. Но в них нет личности, которая что-то понимает или что-то хочет», — сказал Толчеев на научно-практической конференции «Адвокатура-2033».
Человек накапливает ограниченно количество знаний и по своей природе не способен постоянно предсказывать будущее. Искусственный интеллект способен анализировать большие пласты информации, чем человеческий мозг, отмечает Толчеев, но не способен более качественно предсказывать грядущие события.
«Анализируя наш опыт, мы не можем выйти за его рамки, и мы попадаем в «Эффект индюшки». Фермер её кормит каждый день и она живёт без ощущения, что на 500-ый день попадёт в кастрюлю. Такого опыта в её голове нет», — иронизирует представить ФПА РФ.