Я вот всегда хотел спросить: а что делать, если само жюри или отдельные его члены не проходят… как бы это назвать? — допустим: обратный тест Тьюринга? В том смысле, что они подозрительно часто (ну хотя бы статистически чаще, чем другие) ошибаются, считая людей машинами, а машин — людьми? Как понять, что жюри адекватное?
Ну жюри это все же человек, если человек ошибается в распознавании между машиной и человеком — это скорее + в карму разработчиков бота.
Когда-нибудь настанет время и ботов уже никто не сможет отличить методом «общения».
Думаю что тут не подходит понятие «адекватно», адекватный тут любой живой человек.
Да? А по этой статье сложилось обратное впечатление.
Ну и не могли бы вы, если вам не сложно, указать, где в статье сказано, что чатботы от Наносемантики не принимают участие в конкурсе? Я проглядел статью еще раз, но не увидел подобной оговорки.
Должен признать, я невнимательно прочитал. Из фразы «Команда проекта Лекси тоже примет участие в мероприятии, но вне конкурса, поскольку мы являемся партнёрами Наносемантики.» не вытекает, что чатботы Наносемантики вне конкурса.
А почитав комментарии по вашей ссылке становится совсем грустно. Регресс.
Это верно, но не совсем. Вот если к вам на улице подойдёт незнакомый человек и начнёт вам задавать вопросы, например, ваш вопрос, вы ему ответите «Буква бэ»? Вряд ли. Скорее всего, вы постараетесь закончить разговор. Это показывает, что ответы на конкретные вопросы зависят от контекста происходящего диалога. И именно здесь лежит возможность пройти тест Тьюринга — необходимо управлять контекстом диалога, как Женя Густман и делал.
Этот пример открывает нам еще одно направление в разработке роботов — создание роботов, способных успешно общаться с милицией (куда они будут доставлены за приставание к гражданам).
Робот-помощник Ашманова на русскоязычном тесте Тьюринга. Технология Инфов