Недавно появилась информация, что искусственный интеллект якобы успешно прошел тест Тьюринга, призванный определить «разумность» компьютерной системы. О том, как и когда люди стали проверять машины на наличие разума и не обманывает ли человечество себя, присваивая компьютерам человеческие свойства, мы расскажем в новой статье.
В 1950 году британский математик и криптограф Алан Тьюринг разработал тест, получивший его имя - «Тест Тьюринга». До недавнего времени считалось, что с его помощью можно оценить способности машины (компьютера) демонстрировать разумное поведение, неотличимое от человеческого.
Суть теста в том, что человек-судья общается с двумя невидимыми собеседниками: другим человеком и машиной. Задача судьи - определить, кто из собеседников человек, а кто нет. Если судья не может надежно отличить машину от человека, считается, что искусственная система успешно прошла тест.
В середине 1960-х годов, когда компьютеры представляли из себя огромные агрегаты и доступ к ним был лишь у специалистов, в Массачусетском технологическом институте создали программу ELIZA, навсегда изменившую представление о взаимодействии человека с машиной.
Имя для программы позаимствовали у главной героини пьесы «Пигмалион» Бернарда Шоу - уличной цветочницы Элизы Дуллитл. В знаменитом произведении великого писателя молодую и необразованную девушку за полгода на спор обучили произношению, принятому в высшем обществе, чтобы на светском приёме представить как герцогиню. Кстати, название пьесы — это ироничная аллюзия на античный миф о скульпторе Пигмалионе, полюбившем своё творение и в итоге уговорившим Афродиту оживить созданную им скульптуру.
Конечно, ELIZA в сравнении с современными программами была настоящей простушкой, как и героиня пьесы Шоу. Цифровая «Элиза» использовала базовые шаблоны и ключевые слова для анализа того, какие запросы писал пользователь, а затем переформулировала их в вопросы, имитируя технику активного слушания, характерную для психотерапевтов.
Однако ELIZA общалась с собеседниками на таком уровне, что создавалась иллюзия понимания и сочувствия, и поэтому ее появление в эпоху, когда идея «разговора» с компьютером казалась фантастикой, было поистине революционным. У программы был простой алгоритм сопоставления с образцом, отсутствовала встроенная база знаний о мире, она не обладала способностью к обучению, но многие, общавшиеся с «Элизой» люди, приписывали ей глубокое понимание диалога.
Фактически в данной ситуации человечество впервые столкнулось с феноменом антропоморфизации, то есть очеловечивания компьютерной программы. Ее создатель, в отличие от античного Пигмалиона, был очень обеспокоен тем фактом, что люди легко устанавливали эмоциональную связь с его цифровым творением. Возможно, благодаря появлению ELIZA впервые в научном сообществе возникла дискуссия об этических последствиях использования искусственного интеллекта в чувствительных для человечества областях.
ELIZA оказала огромное влияние на развитие искусственного интеллекта и интерфейсов человек-компьютер и считается предшественницей современных чат-ботов и виртуальных ассистентов.
И вот совсем недавно был проведен еще один эксперимент с тестом Тьюринга. Пять сотен добровольцев общались с четырьмя различными собеседниками: тремя ИИ-системами и одним человеком. Среди искусственных интеллектов были ChatGPT-4, ChatGPT-3.5 и, что удивительно, ELIZA. На разговор давалось пять минут, за это время надо было выяснить, с кем идет диалог.
Результаты оказались ошеломляющими: ChatGPT-4 удалось убедить участников в своей «человечности» в 54% случаев. Это значит, что более половины времени люди не могли отличить ответы ИИ от ответов реального человека. Для сравнения, ChatGPT-3.5 достиг 50% успеха, а ELIZA - лишь 22%. Однако самым неожиданным открытием стало то, что участники правильно идентифицировали реальных людей только в 67% диалогов.
Конечно, GPT в любом случае не мыслят, как люди. Да и можно ли глагол «мыслить» в полной мере применить к определению того, как функционируют современные ИИ?
В текстовом обмене искусственный интеллект еще может обмануть человека, но, к примеру, еще один тест - «Корпус абстрагирования и рассуждения» пока не могут пройти даже самые продвинутые на сегодня системы. Участникам этого теста показывали несколько визуальных демонстраций, в которых один узор на матрице из квадратов преобразовывался в другой по определенным правилам, и им предлагалось определить, как будет выглядеть следующая трансформация. В 2020 году было организовано соревнование между ботами, где победила ИИ-система, специально обученная решать такие задачи, но и она справилась лишь с 21% задач, тогда как люди в среднем справлялись с 80% таких головоломок.
Многим ученым становится все более очевидным, - универсального метода определения «разумности» машин, нового более точного «теста Тьюринга» не существует и, вероятно, никогда не появится. Идея о едином тесте, способном однозначно установить интеллектуальность ИИ, постепенно уходит в прошлое.
Вместо этого, эксперты призывают к многогранному подходу в оценке ИИ-систем. Каждая технология требует тщательного анализа с использованием широкого спектра методов, выявляющих как сильные, так и слабые стороны. Этот подход позволяет создать более полную картину возможностей и ограничений искусственного интеллекта.
Ирония современного этапа развития ИИ заключается в том, что, создав сложные лингвистические модели, человечество оказалось не в состоянии полностью постичь их внутренние механизмы. «Черный ящик» современного ИИ остается загадкой даже для его создателей. К тому же наша склонность «очеловечивать» все, что кажется разумным, может привести к ошибочному пониманию природы и возможностей искусственного интеллекта. Несмотря на это, мы наблюдаем стремительное внедрение ИИ-систем в различные сферы жизни, включая те, где на карту поставлены человеческие жизни.
Ученые подчеркивают острую необходимость разработки надежных инструментов аудита и мониторинга ИИ. Создание средств контроля за ИИ должно стать приоритетной задачей, сравнимой по важности с установлением правил дорожного движения или стандартов качества продукции.
Некоторые считают склонность к «очеловечиванию» машин своего рода проклятием современной технологической эпохи. Люди часто интерпретируют поведение неодушевленных систем через призму человеческого опыта, но неверное понимание природы ИИ может привести к печальным и драматичным последствиям. Именно об этом нас предупреждают многие известные ученые и разработчики искусственного интеллекта, и к их мнению стоит прислушаться.
Андрей Кибернович
*Мнение редакции может не совпадать с мнением автора
**Стилистика, орфография и пунктуация публикации сохранены