Pull to refresh
0
0
mozgi @mozgi

User

Send message
Так и дают. И частенько, чтобы не теряли, на цепочку рядом с компьютером крепят. Я серьёзно.)
«Но писала гуманитарий, поэтому будьте готовы к тому, что с логикой, порядком и последовательностью изложения не всё хорошо.»

Смущает предвзятость у гуманитарным наукам. Стройности систематизации в лингвистике, например, можно только позавидовать. Думаю, здесь имелось в виду, что у конкретного автора не в порядке с логикой и прочим, обобщение до целой научной области излишне.
«Маленькие дети прекрасно понимают, что будет, если перевернуть стакан с соком. А вот машины нет.»

Маленькие дети понимают это только после обучения. В чём здесь принципиальная разница с машиной?
По идее, чисто автоматическая разметка может дать лишь вероятности того, что фрейм принадлежит тому или иному сенону.

Правильно ли я понимаю, что в качестве целевого выхода нейросети (при итоговом обучении градиентным спуском) подается не конкретный сенон (единичка на одном выходе, и нули на всех остальных 4-х тысячах выходов), а вероятности для каждого сенона (полученные на базе статистического моделирования)? Т.е. по сути производится не дискретная — а вероятностная разметка сенонов (точнее даже не разметка — а статистическое предположение о принадлежности данного фрейма к тому или иному сенону)?

Или всё-таки целевой выход бинарный — единичка для конкретного сенона, нули для всех остальных?
Если второе — то интересно, насколько качественной получилась автоматическая разметка. Т.е. вы же в таком случае наверняка проверяли качество (выборочными проверками), каков де-факто получился % ошибочной разметки сенонов (т.е. по сути — каков теоретический предел результата работы нейросети при такой разметке)? На моём опыте, автоматическая разметка работает относительно неплохо, пока речь идет про десятки объектов с резко различными фичами. А когда их 4к — качество автоматической разметки по идее будет весьма посредственным, что ессно резко лимитирует качество обучения/работы нейросети — а, значит, и работы всей системы.
Тренировка итоговой нейросети градиентным спуском (где на входе поданы фичи полученные от MFCC) требует соответствующей разметки, т.е. гигантской базы данных — со звуковым потоком, размеченным на эти 4000 сенонов.
Собственно, основная проблема — это не обучение нейросетей (или других алгоритмов), а собственно создание и корректная разметка такой БД. Это как раз и есть ключевой этап, и если он выполнен хорошо — то даже посредственные алгоритмы дадут приемлемый результат, а если выполнен плохо — то не помогут никакие ухищрения.
Какой размер (т.е. какое кол-во размеченных сенонов) используется при тренировке градиентным спуском итоговой нейросети? Если сенонов 4к, то БД должна быть как минимум на 3 порядка больше (т.е. 1000 образцов каждого сенона), т.е. это минимум — миллионы размеченных фреймов… Вы эту БД вручную размечали, или как? )))

Вопросы вызван тем, что есть у меня в загашнике разработанный алгоритм, который по сути формирует нейросеть — но такую, что ей не важна размерность входных данных (входной вектор может быть хоть в 10 000 цифр, не существенно — и отсутствует пресловутое «проклятие размерности»), и такую, у которой принципиально нет проблем с локальными экстремумами — гарантированно сходится в глобальный экстремум. Так что и нет необходимости в костылях типа MFCC, и как следствие — нет потерь информации (при редуцировании размерности входных данных — чему и служит MFCC), так что качество распознавания приближается к теоретическому пределу. Но всё это — требует соответственно гигантского набора размеченных образцов (иначе обобщение может носить произвольный характер — далекий от реальности). Так что в своё время я этим алгоритмом наигрался (на базе TIMIT — получал отличные результаты, но база явно была слишком мала для меня), понял что потребные мне БД размеченных образов просто не существуют в природе, и забросил эту тему… Но вы как-то решили проблему разметки гигантской БД для обучения сети. Как, если не секрет?
Ребята, считать пространство Минковского удачным примером объяснения СТО человеку, не имеющего о ней представления — это полный пипец. Вы только запутаете человека ещё больше.

Для этой задачи нет ничего лучше, чем книжка Ломизе Л.Г. «Из школьной физики — в теорию относительности: Книга для внеклассного чтения учащихся 9-11 классов средней школы». Как раз для человека без спец. образования, но с наличием простого здравого смысла.
Ну, я думаю, это какие-то переводческие вольности последнего времени.

Из классического описания paragraph явно следует, что имеется ввиду абзац, в то же время русский параграф либо обозначается специальным символом, либо по сути является синонимом главы.
Paragraph с английского переводится как «абзац», а не как «параграф». Уж коли подводят ложные друзья переводчика, пользуйтесь здравым смыслом, в тексте же нет параграфов.
Да, ролик странный. Достаточно избитый приём с музыкальными предметами занимает столько времени в начале, что начинаешь думать, а то ли вообще подгрузилось, где продукт-то? Я бы сократил прелюдию, а то, извините, но больше половины ролика — не о продукте.
Это кошмарное решение, надо сделать один хороший вариант.
Боже ж мой, я наконец-то играю в Master of Orion II на айпаде!

Information

Rating
Does not participate
Registered
Activity