Чатботы в очередной раз не справились с тестом Тьюринга

Илья Олегов

В Великобритании прошел ежегодный конкурс на приз Лёбнера (разновидность теста Тьюринга), сообщает Sky News. Ни одна из программ, участвующих в конкурсе, не смогла обмануть судей, выдав себя за человека.

Финальный раунд соревнования на премию Лёбнера проходил в Блетчли-парке, где во время Второй мировой войны работал над взломом немецких шифров британский математик Алан Тьюринг.

В ходе соревнования судьи ведут переписку с парами собеседников, обмениваясь с ними текстовой, визуальной и аудио-информацией. Пообщавшись со всеми участниками, судьи оглашают, кто из собеседников, по их мнению, является программой, а кто — человеком, а также оценивают «человечность» программ.

Фото: Sky News

Корреспондент Sky News выступил в роли одного из судей. По его словам, один из чатботов сказал, что является фанатом английской футбольной команды Лидс, второй заявил, что американский музыкант Снуп Дог — вульгарный. Третий под давлением вопросов журналиста сознался, что он чатбот. Четвертый не сказал вообще ничего.

Самой человечной судьи признали программу Стива Уорсвика Mitsuku, которая уже становилась лучшей в 2013 году. «Мы всё еще в сотнях лет от того, что видим в фильмах. Такие вещи как робот С3РO из «Звездных войн» и умный автомобиль из «Рыцаря дорог» — по-прежнему лишь вымыслы сценаристов», — говорит Стив.

Mitsuku - чатбот, признаный самым человечным на конкурсе Лёбнера

Уорсвик объясняет: одно из главных преимуществ его чатбота — обширная база знаний о повседневных объектах и их свойствах. «Если вы спросите у программы, можно ли съесть дом, она ответит, что дом нельзя съесть, потому что он сделан из кирпичей, а кирпичи — несъедобны. Это база здравого смысла».

В августе в Нью-Йорке впервые состоялся Winograd Schema Challenge — конкурс ИИ, обрабатывающих естественный язык. Его результаты показали, что машинам пока далеко до понимания человеческого языка. Лучшие из алгоритмов показали результат, сравнимый с рандомным выбором ответов. Оказалось, «загрузить» ИИ очень просто: достаточно задать ему вопрос типа «Мужчина не мог поднять своего сына, потому что он был слишком слаб. Кто был слаб, мужчина или его сын?»

Загрузить еще