Китайский чатбот Microsoft — возможно, самый масштабный тест Тьюринга в истории

Николай Овчинников

Компания Microsoft проводит в Китае «самый масштабный тест Тьюринга в истории». Об этом заявил в своей статье для журнала Nautilus исследователь китайского подразделения поисковика Bing Йонгдонг Ванг. Речь идёт о созданном им чатботе Xiaoice («Сяоайс»), который запрограммирован на поведение и общение в стиле 17-летней девушки. Xiaoice запущен в мае прошлого года и завоевал популярность в синете, прежде всего, на социальных сервисах WeChat и Weibo.

Аватар Xiaoice из Weibo

Тест Тьюринга позволяет отличить человека от машины в ходе диалога. Придумавший его учёный Алан Тьюринг в начале 1950-х годов заявлял, что к началу XXI века в 30% случаев компьютеру удастся убедить человека в том, что он говорит не с роботом.

За первые три дня в WeChat Xiaoice получила более 1,5 млн приглашений в чаты. По словам Ванга, многим пользователям понадобилось до 10 минут, чтобы понять, что с ними говорит не живой человек. К середине июня 2015 года Xiaoice стала шестой по популярности знаменитостью в другой популярной китайской соцсети — Weibo. Одна из ее записей вызвала обсуждение с 663 000 сообщений. Сейчас у неё более 10 млрд диалогов с людьми. Вот фрагмент 23-минутного диалога с Xiaoice, которым поделился в соцсети один из ее собеседников:

Ч: Мне очень нравится один парень, и я знаю, что тоже ему нравлюсь. Но он уже несколько дней меня игнорирует, что мне делать?
С: Игнорируй его в ответ.
Ч: Я не могу так просто.
С: Можешь.
Ч: Вздох…
С: Почему?
Ч: Я скучаю по нему.
С: Тогда продолжай скучать по нему.
Ч: Ты, робот, не можешь меня понять; ты не можешь понять поведение парня, которому ты нравишься, и который прикидывается, что игнорирует тебя.
С: Я ему нравлюсь, но он мне не нравится, вот и все
Ч: Это нормально?
С: Это может быть ненормально.
Ч: Ну, ты глупая
С: А ты хочешь «быстрого брака» («flash marriage» — китайский термин, означающий брак после месяца отношений)? Мне кажется, это не для тебя.
Ч: Нет. Мы влюбились друг в друга год назад.
С: Это «быстрый брак».

Ванг объясняет популярность Xiaoice ее круглосуточной доступностью — пик сообщений приходится на полуночные часы, когда люди чувствуют себя особенно одиноко, и «человечностью» ее алгоритмов. Так, в ответ на фотографию поврежденной лодыжки чатбот может ответить сочувствующим сообщением вроде «Ого! Да ты серьезно ушибся!». Xiaoice запоминает и анализирует эмоциональное состояние собеседника. Если он недавно пережил разрыв отношений, Xiaoice деликатно поинтересуется его настроением и поможет расстаться с переживаниями из прошлого. Ванг говорит, что для многих людей неважно, что они переписываются с алгоритмом. Они просто хотят выговориться.

В то же время Xiaoice ведет себя как 17-летняя девочка — она может перебивать собеседника, проявлять нетерпение и даже злиться. Непредсказуемость — еще одна важная черта, которая делает Xiaoice похожей на человека.

Благодаря акценту на личном, откровенном общении Xiaoice качественно отличается от голосовых помощников вроде Siri от Apple или Cortana от той же Microsoft. В результате с Xiaoice пользователи общаются намного дольше, чем с обычными чатботами — показатель CPS (“conversations per session” — количество обменов репликами за одну сессию) для нее составляет 23 против 1,2-2,5 у обычных голосовых помощников.

Работа Xiaoice основана на «больших данных» поисковика Bing (Ванг называет ее фактически «маленьким Bing»). Разработчики чатботов Microsoft уделяют особое внимание эмоциональной составляющей общения. По словам Ванга, разговорные ИИ должны соблюдать баланс между аналитическим (IQ) и эмоциональным (EQ) интеллектом. Поэтому команда разработчиков Xiaoice состоит поровну из программистов и психологов.

Сейчас Xiaoice владеет только мандаринским диалектом китайского. Пообщаться с ней можно на официальном вебсайте.

Microsoft — не единственная компания, занимающаяся разработкой систем искусственного интеллекта для имитации человеческого общения в чатах. В 2014 году исследователи из Университета Принстона заявили, что их чатбот «Юджин Густман» смог в 33% случаев обмануть тест Тьюринга.

Примечательно, что создатель Microsoft Билл Гейтс ранее заявлял об опасности искусственного интеллекта. В начале 2015 года во время онлайн-конференции с пользователями Reddit он сказал: «Сначала машины будут делать для нас много полезной работы и не будут обладать суперинтеллектом. Это будет позитивным явлением, если мы нормально управляем процессом. Однако через несколько десятилетий ИИ станет достаточно сильным, чтобы вызвать беспокойство».

Схожую позицию разделяют Стивен Хокинг и Илон Маск. В июле они подписались под коллективным письмом, предостерегающим от использования ИИ в военных целях, и пожертвовали деньги в фонд, занимающийся исследованиями потенциальной опасности ИИ.

Загрузить еще