Не могли бы рассказать, собственно, про технологии. Не очень понял. Она едет просто по навигационным точкам по картчайшему расстоянию, или самостоятельно выбирает маршрут?
>> Я прекрасно понимаю, что для создания действительно чего то похожего на Siri, нужны гигантские ресурсы и много средств.
Ресурсы на что? Вообще, что у сири уникального, своего? Распознавание — ньюанс. Парсинг — вольфрам. Поиск — гугл, бинг и еще кто-то там. Не знаю, правда, на счет генерации, но не удивлюсь если тоже не их. Так что в них такого инновационного? :)
Спасибо за ответы. Все равно чувствую что не очень понимаю, я не силен в обработке сигналов. Нужно банально почитать книжки :)
>> Что вы понимаете под «декодинг начиная с морфем»?
Заговорился :). С фонем.
В моей картине мира весь декодер состоит из аккустической модели, которая мапится на фонемную модель, которая мапится на модель слов и языка. Обычно такой маппинг делается через HMM или какие-нибудь вероятностные структуры. Есть очень интересные варианты построения декодера, к примеру тут — www.google.ru/url?sa=t&rct=j&q=&esrc=s&source=web&cd=8&ved=0CG0QFjAH&url=http%3A%2F%2Fwww.cs.nyu.edu%2F~mohri%2Fpub%2Fcsl01.pdf&ei=tV1zT4_pOJDltQazpLH3DQ&usg=AFQjCNEvN9AcP1PTUL_wltEt3OxhnpundQ&sig2=l09LL1Nij7sCFkjNy_JjfA
Но я очень слабо представляю себе начальный этап обработки сигнала.
Раза два прочел. Многое не понятно.
Не могли бы пояснить:
— Почему все же кепрстральные коэффициенты полезны. В чем их преимущество по сравнению со спектрограммами? Почему они позволяют получать «дикторонезависимый» эффект?
— Что такое мел-ось? Что такое окно и оконная функция?
Спрашиваю не из занудтсва — мне эта тема интересна. Я много знаю продекодинг начиная с морфем, но слабо представляю начальные стадии обработки сигнала.
Зависит от задачи. Если бы я проектировал игру жизнь, я бы сделал нечто такое:
>> import life
>> b = life.simulate(a, 1)
a, b — двумерные массивы интов или булианов. a — исходное поле, b — после симуляции за 1 шаг. simulate — функция, которая бы обсчитала поле N шагов.
Все предельно ясно. Не нужно описывать поле десятью параметрами, не нужно задавать методы для клетки, отдельные свойтва для проверки — есть значение, нет значения — зачем?
Знаете, я бы очень хотел в моих проектах использовалось как можно меньше классов. Это заставляет писать проще и не впадать в истерику overengineering'га. Большинство проектов которые у меня были — были необоснованно сложные.
Могу привести пример из текущего проекта. Я тренирую классификаторы. Они вызываются одной функцией. Чтобы подключить их мне бы хватило пары строк кода. Но у босса были далекоидущие планы, и это все было обернуто в систему плагинов. +500 строк кода. Планы не оправдались. Но теперь, чтобы подключить его и отладить работу — мне нужен целый день. Вместо пяти минут.
Классы — это не всегда плохо. Необоснованная сложность — это плохо всегда.
И хорошо, что я не начал. Так оформить у меня бы не хватило терпения.
А по содержанию. Очень хотел чтобы эта штука появилась на хабре. Все проекты с которыми работал за последнее время сложны. А могли бы быть простыми. Over-engineering и избыток классов это зло.
Я ожидал перевода этого доклада! Думал, не дождусь и сяду за перевод сам. Ан, нет, он появился. Спасибо вам, автор :)
Могу подписаться под каждым словом. По моему опыту, все еще гораздо хуже. Как будто у программистов психологический дискомфорт, если в коде нет класса. Думается, ООП лучше учить после двух-трех лет процедурного или функционального программирования. Чтобы гвозди в мозг загонялись постепенно, и инструмент не превращался в религию.
У SVM геометрическая трактовка. У логист. регрессии — вероятностная. У ИНС — попытка воссоздать нервную систему живого организма.
Но все это статистические модели. И тот факт, что ИНС ближе к живым организмам не делает их лучше или эффективней. Честно говоря, я вообще не думаю что сильный ИИ, если и будет создан, будет копировать нервную систему человека.
вы не могли бы пояснить, о чем статья? Я чувствую здесь эмоции, но не пойму, к чему это. Вы считаете, что перцептрон Розенблата незаслуженно обделен вниманием? Ну так опишите его преимущества по сравнению с другими видами ИНС. В статье что-то есть, но очень размазано.
Со своей колокольни я считаю, что ИНС в принципе получили незаслужено большое внимание. Я занимаюсь классификацией текста, и модели опорных векторов или логистическая регрессия работают для меня гораздо лучше, чем нейронные сети. По этому холивар в отношении, какой вид ИНС лучше, для меня выглядит надуманым.
Есть чувство, что автор статьи немного уклонился от темы. Тьюринговская трясина — это о языках и вычислимости. Другими словами, есть много «языков», на которых можно реализовать все, что и на обычном языке программирования типа С. Строго говоря — тьюринг-полных языков. Но делать это непрактично, хотя иногда и интересно.
Хороший пример — брейнфак.
Еще один пример — клеточный автомат, та же игра «жизнь». Выставляя определенным образом значения на поле мы можем просчитать любую (вычислимую) функцию.
Но решать с помощью этого практические задачи нет смысла.
Интересно. Но есть чувство, что это те же автоматы и грамматики, только под другим углом. Для последних есть сильная формальная база. Интересно, почему автор книги стал вводить свою алгебру.
Promt и Abbyy я бы послушал, но i-free, наносемантика несколько смущают.
ps и да, спасибо за nlpseminar
Ресурсы на что? Вообще, что у сири уникального, своего? Распознавание — ньюанс. Парсинг — вольфрам. Поиск — гугл, бинг и еще кто-то там. Не знаю, правда, на счет генерации, но не удивлюсь если тоже не их. Так что в них такого инновационного? :)
Большая проблема нашего образования. По-хорошему, матан должен быть for fun. А статья хорошая, да.
>> Что вы понимаете под «декодинг начиная с морфем»?
Заговорился :). С фонем.
В моей картине мира весь декодер состоит из аккустической модели, которая мапится на фонемную модель, которая мапится на модель слов и языка. Обычно такой маппинг делается через HMM или какие-нибудь вероятностные структуры. Есть очень интересные варианты построения декодера, к примеру тут — www.google.ru/url?sa=t&rct=j&q=&esrc=s&source=web&cd=8&ved=0CG0QFjAH&url=http%3A%2F%2Fwww.cs.nyu.edu%2F~mohri%2Fpub%2Fcsl01.pdf&ei=tV1zT4_pOJDltQazpLH3DQ&usg=AFQjCNEvN9AcP1PTUL_wltEt3OxhnpundQ&sig2=l09LL1Nij7sCFkjNy_JjfA
Но я очень слабо представляю себе начальный этап обработки сигнала.
Не могли бы пояснить:
— Почему все же кепрстральные коэффициенты полезны. В чем их преимущество по сравнению со спектрограммами? Почему они позволяют получать «дикторонезависимый» эффект?
— Что такое мел-ось? Что такое окно и оконная функция?
Спрашиваю не из занудтсва — мне эта тема интересна. Я много знаю продекодинг начиная с морфем, но слабо представляю начальные стадии обработки сигнала.
>> import life
>> b = life.simulate(a, 1)
a, b — двумерные массивы интов или булианов. a — исходное поле, b — после симуляции за 1 шаг. simulate — функция, которая бы обсчитала поле N шагов.
Все предельно ясно. Не нужно описывать поле десятью параметрами, не нужно задавать методы для клетки, отдельные свойтва для проверки — есть значение, нет значения — зачем?
Могу привести пример из текущего проекта. Я тренирую классификаторы. Они вызываются одной функцией. Чтобы подключить их мне бы хватило пары строк кода. Но у босса были далекоидущие планы, и это все было обернуто в систему плагинов. +500 строк кода. Планы не оправдались. Но теперь, чтобы подключить его и отладить работу — мне нужен целый день. Вместо пяти минут.
Классы — это не всегда плохо. Необоснованная сложность — это плохо всегда.
А по содержанию. Очень хотел чтобы эта штука появилась на хабре. Все проекты с которыми работал за последнее время сложны. А могли бы быть простыми. Over-engineering и избыток классов это зло.
Могу подписаться под каждым словом. По моему опыту, все еще гораздо хуже. Как будто у программистов психологический дискомфорт, если в коде нет класса. Думается, ООП лучше учить после двух-трех лет процедурного или функционального программирования. Чтобы гвозди в мозг загонялись постепенно, и инструмент не превращался в религию.
Но все это статистические модели. И тот факт, что ИНС ближе к живым организмам не делает их лучше или эффективней. Честно говоря, я вообще не думаю что сильный ИИ, если и будет создан, будет копировать нервную систему человека.
вы не могли бы пояснить, о чем статья? Я чувствую здесь эмоции, но не пойму, к чему это. Вы считаете, что перцептрон Розенблата незаслуженно обделен вниманием? Ну так опишите его преимущества по сравнению с другими видами ИНС. В статье что-то есть, но очень размазано.
Со своей колокольни я считаю, что ИНС в принципе получили незаслужено большое внимание. Я занимаюсь классификацией текста, и модели опорных векторов или логистическая регрессия работают для меня гораздо лучше, чем нейронные сети. По этому холивар в отношении, какой вид ИНС лучше, для меня выглядит надуманым.
Хороший пример — брейнфак.
Еще один пример — клеточный автомат, та же игра «жизнь». Выставляя определенным образом значения на поле мы можем просчитать любую (вычислимую) функцию.
Но решать с помощью этого практические задачи нет смысла.