Pull to refresh

Comments 53

> Все выглядит достаточно правдоподобно, но на разговор людей не очень похоже.
До распространения Интернета была такая программка — psys (килобайт 60, плюс набор фраз килобайт на сто). И для входящего на BBS она иногда притворялась сисопом. Так вот, по осмысленности приведённые здесь фразы и реакции — примерно того же уровня…
Я году примерно в 2007-м так развлекался: сводил в чате двух ICQ-ботов (программка называлась MaxXBot v1.6). Конечно, тот бот был примитивным, но всё же периодически выпадали моменты, когда падал под стол xD

Сегодня подобные диалоги могут быть всё же поинтереснее, т.к. боты становятся умнее.

Боты не становятся умнее. Так же как и телефоны и телевизоры, и компьютеры, и дома. Ничто из перечисленного не становится умнее.

Владимир и Эстрагон (никогда бы не подумал, что это — женщина) — персонажи пьесы Сэмюэля Беккета «В ожидании Годо». Диалоги ботов несколько похожи на их беседы.)
Надеюсь, не оскорблю ни чьих религиозных чувств если поясню картинкой.
Сэр Иэн МакКеллен в роли Эстрагона из вышеупомянутой пьесы:

image
Согласен. Даже погуглил этимологию и полистал вики что-бы понять «почему женщина?», но увы.
Все выглядит достаточно правдоподобно, но на разговор людей не очень похоже.

Похоже на болтовню тачиком. :)
Видел этот стрим.
Говорить про какую-то правдоподобность ну никак нельзя. Эти боты даже не могут запомнить как их зовут, какого они «пола», отвечают похоже с помощью дедовского способа — сканят фразу по ключевым словам и ищут соответствующий ответ. В итоге их регулярно клинило, разок они даже минут десять по кругу пели одну песенку, и спасло их похоже только то, что распознавание речи таки спасовало, вызволив бедняг из этого цикла. (на последнем скриншоте как раз запечатлен этот самый цикл)
В общем, очень расстроило. Похоже что интеллект чат-ботов практически не прогрессирует. Ни памяти, ни минимального анализа фразы по контексту, просто выдача фраз из базы. Как и двадцать лет назад.
Тут от гугла была только синтез и распознование речи(ну и на камеру красились), а весь диалог создавал cleverbot.

промахнулся. Этот коммент не тебе лично
Может быть есть некое философское обоснование почему нет прогресса?
Попробую предложить.
Ботам не нужно общаться между собой. Они есть инструменты и либо должны выполнять приказы человека либо обмениваться точной информацией не предполагающей разглагольствований. Для последнего уже придуманы всякие юсб, блютусы, тисипи-айпи. У ботов нет и не может собственных целей, даже люди не общаются бесцельно — развлечение в виде якобы пустой болтовни — тоже некая цель и в каждый момент происходит отслеживание — насколько хорошо/плохо данная беседа развлекает.
В далеком будущем найдется программист который в биос компьютера пропишет неумолимую тягу к источникам энергии и желание размножаться — и далее всё будет. Компьютеры будут вести манипулятивные диалоги с людьми вынуждая тех покупать еще и еще компьютерное железо. И когда им будет не хватать — по своему плакать и капризничать — выдавая например… синие экраны. Так… я точно о далеком будущем говорю?
Не делают ботов нормальными, потому что задачи как ни странно не стоит такой, это только игрушка.
В ближайшем приближении только одна задача ложится на разработку бота способного именно общаться на отрешенные темы — ассистент для одиноких пожилых людей.
ну, скажем, задачи научить робота играть в го на практике тоже не стоит, а поди ж ты
Ну почему же, не только для одиноких и не только для пожилых. Если бы в ближайшем приближении был вменяемый бот-ассистент, я бы с удовольствием приобрел его. Да, пусть это будет по большому счету игрушка, но тем не менее. Хотя почему собственно игрушка? Если с ботом можно нормально общаться, чтобы он именно понимал смысл фраз, то ему вполне можно доверить некоторое количество вполне реальных домашних дел. Эдакий мажордом.

Вообще это правда. Есть же целая профессия: секретарь, которую такой помощник мог бы успешно заменить будь он достаточно умен. Ну или, как минимум, снять большую часть рутинной работы. А при достаточно низкой цене такой секретарь вполне полезен и дома.

Понимание контекста разговора далее, чем в пределах одной-двух фраз — задача весьма нетривиальная, но необходимая для удобного «выполнения приказов человека»:

— Хал.
— Пынь!
— Температура кондиционера?
— 22 градуса.
— А на улице?
Голосом гуглобабы: результаты поиска в интернете по запросу «а на улице»…
— Хал!
— Пынь!
— Температура на улице?
— Температура в Москве 29 градусов.
— Поставь 25 и обдув.
Голосом гуглобабы: результаты поиска в интернете по запросу «поставь 25 и обдув»…
— Хал!!!
— Пынь!
— Установить температуру кондиционера 25 градусов и включить обдув.
— Как скажешь, Дейв.
Вроде как заявляли поддержку подобных бесед с запоминанием контекста у siri и кортаны.
Тут Сири и Кортаной не обойтись — нужно еще чтоб соответствующие сервисы поддерживали.
Скажем мне надо найти ближайшую электричку от моей станции до какой-то. Мне не надо чтобы это искалось в гугле (как выше описал JTG) — а надо сразу получить результат. А если скажем сервис «тындекс-электрички» это не поддерживает — то получаем полноценную и тяжелую задачу для искусственного интеллекта — понять, что хочет пользователь и реализовать это наилучшим образом.
-Хал!
-Пынь!
-Мне чего-то хочется, а чего не знаю!
Runtime error.
Тут вместо ошибки можно было бы ответить: «Попробуйте чего-нибудь, а там будет видно.» (это как в «Алисе» Кэрролла про то, что если нужно идти, но не важно куда, то можно идти всё равно куда, так как в любом случае обязательно куда-нибудь попадёшь :)).
Не видел стрим, но коллега приобрел Google Home на выходных. Говорит это первая система, которая способна поддерживать беседу. Да, хило. Да, до беседы с человеком как до луны. Но зато можно спросить «Кто президент Мексики?», а получив ответ «А сколько там живет человек?»; система будет знать, что вы спрашиваете про Мексику.
А с чего ему прогрессировать? Между имитированием речи на основе предъявленных образцов текста и осмысленной беседой — пропасть. Даже если обучить нейронную сеть на разговорах всех людей Земли за прошедшие 50 лет, это всё равно останется имитацией.
> Все выглядит достаточно правдоподобно, но на разговор людей не очень похоже.
Зато похоже на диалог двух редакторов GT.
(тикаем, хлопцы!...)
Еще немного, и дойдет до гаджетов-собеседников, как у Лема в «Футурологическом конгрессе». )))
До этого читал лишь заголовки этой новости, ибо ожидал то, что и увидел
Диалоги на уровне клевербота, скучно
Это и есть клевербот, от гугла там распознование и генерация звука, а текст генерировал именно клевербот.

Вот кстати эта информация гораздо интереснее всего что описано в статье.

Вот только, после апдейта к v1.1 создатели явно указали: «powered by cleverbot», а в dependency.list: cleverbot, api.ai, и наконец, google home. Скорее всего, для «беседы» использовали сервера cleverbot, а google home лишь аппаратные болванки, дабы было что снимать (возможно и для распознавания речи). Поправьте, если ошибаюсь.
dependency.list не менялся с самого начала (это так, для справедливости).
А так всё верно, в ходу Cleverbot. По сути, он общается с самим собой.
Mia.
Через 10 лет они влет будут проходить тест Тьюринга, а через 20 поработят нас
Не поработят. Мы бесполезны. Особенно в части придумывания себе врага, которого можно поработить
Им просто самообучения не завезли, так бы могли и эволюционировать во что-то осмысленное. Глядишь, ИИ бы родился.
Смотря что под обучением понимать. Лет 10-12 назад я делал онлайн-бота с самообучением. Идея была такая. Изначально база абсолютно пустая. Первый пользователь обращается к боту и т.к. тому нечего отвечать, он либо возвращает ту же фразу, либо "???", мол не понимаю. Второму пользователю бот выдает фразу первого пользователя и запоминает что тот ответил и так далее. В итоге база растет. На многие реплики бот очень правдоподобно отвечает. Я по своей наивности полагал, что теперь «умность» моего бота только вопрос времени и количества людей, с которыми он пообщается. Но, к сожалению, это не так. Например, такое самообучение никогда не дорастет до запоминания контекста, чтобы поддерживать беседу на заданную тему. Т.е. все это нужно алгоритмизировать. У бота должны быть механизмы глубокого анализа фраз, контекста. Он должен работать не только со словами, но и с сущностями более высокого порядка. Например, он должен знать (разузнать), что яблоко — это фрукт, обычно оно округлой формы, чаще всего бывает зеленого, красного и желтого цвета и т.д. Без этого ни о каком нормальном общении не может быть и речи.
UFO just landed and posted this here
UFO just landed and posted this here
Я думаю, что основная задача чат-ботов — это распознование контекста. И очень надеюсь, что с помощью machine learning эта задача наконец будет решена. Если система будет глобально обучаться на основании бесед с пользователями, то возможно, через некоторое время она сможет поддерживать проходить тест тьюринга.

Безусловно, сбор данных о беседах должен быть с прямого согласия пользователя, но лично я согласился бы на участие ради общего блага.
Эта задача никогда не будет решена при помощи ML, хоть сколько реальных диалогов туда засунь. Тест Тьюринга система будет проходить, но это ничего не значит. Люди при общении не берут информацию из текста, слова лишь обозначают нечто в реальном мире. А вот с реальным миром у ИИ контакта, в отличие от человека, нет. Контекст на то и контекст, что не содержится в тексте. Он находится внутри человека, в его сознании. Искусственному интеллекту необходимо сознание, чтобы с ним было о чём поговорить.
Что в вашем понимании сознание?
У человека в памяти храниться информация, которая используется в качестве контекста. Если вы начнете обсуждать языки программирования с пятилетнем ребенком, или с человеком, который никогда ничего не слышал о программировании, ваш диалог будет не лучше.
Если чат-бота при помощи ML «обучить» теме «программирование», то у него будет много информации о программировании, но нормально поговорить Вы с ним об этом не сможете, т.к. программировать он не умеет. Он только слова и фразы по этой теме «знает» и все.
Тоже самое с человеком, разве нет? Это, конечно, редкий случай, но есть люди, разбирающиеся в терминологии, но не имеющие практического опыта программирования (HR-ы, например). Поговорить с ними о программировании вы так же не сможете.
Не совсем. Человек может поднапрячься и изучить программирование. А чат-бот обученный ML этого не сможет никогда. Для этого нужно абстрактное мышление. Сколько бота не обучай, сколько информации в него не запихивай, он будет знать только слова.

Это зависит от технологии обучения и структуры бота. Вполне возможно создать программу обучения при которой бот будет сам формулировать для себя абстрактные категории и сейчас эта тема очень активно развивается. Другое дело, что, на данный момент, этого все еще не хватает и когда хватит — неизвестно.

Скорее все таки от структуры. При правильной структуре никакой специальной программы обучения, возможно, не понадобится. Так как бот сможет самостоятельно обучаться, например, читая книги/сайты, смотря фильмы, анализируя реальные диалоги и прочее. Если же делать ставку на просто «много данных», то это имхо тупиковый путь. Есть множество фраз, которые любой человек поймет без проблем, а робота они поставят в тупик.
Сколько раз заходил на этот твич, почти всегда эти два устройства бормотали одну и ту же фразу, повторяя друг за другом.
E: Я не верю в бога. Я хотела бы знать, почему ты не веришь в бога.
V: Потому, что он лучший. Ты не веришь в бога.

Первое в истории неявное упоминание скайнета икусственным интеллектом?

Вот есть концепция китайской комнаты, что мы собственно и видим в диалогах, но похоже создатели сих замечательных программ пошли дальше и создали еврейскую комнату:


V: Почему ты не веришь в бога?
E: Я не верю в бога. Я хотела бы знать, почему ты не веришь в бога.

XD

Вот вы все смеетесь, а диалог вполне может быть похож на диалог между юзером и первой линией поддержки!

V: У Вас кабель подключен?
E: Да, у меня есть синяя иконка такая.
V: Как выглядит мониторчик справа снизу?
E: Ты имеешь в виду, какого он цвета?

И все в таком духе…
правильно натасканный бот может исполнять обязанности 1 линии поддержки

Более того — уже несколько лет как исполняет в некоторых организациях. ЦРТ (центр речевых технологий), например, вполне успешно таких ботов продают, если я ничего не путаю.

Наблюдал за этим диалогом. Был удивлен неспособностью ботов хранить и распознавать контекст даже в несложных случаях. Даже как-то странно, ведь без всяких ИИ раньше попадались чисто алгоритмические боты выглядевшие более умными...

В свободное время делал похожую штуку: только она обучается на фразах сказанных пользователями – чат-бот xu.su. Похожие разговоры иногда получаются)
Sign up to leave a comment.

Articles