Pull to refresh
4K+
346
Alexander Veysov@snakers4

Machine Learning / Data Science

1,1
Rating
446
Subscribers
Send message

А какой голос вы использовали?

Вообще вашей тематике подходит голос overmind, т.е. сверхразум Зегов из Старкрафта. У него в OG-игре аватарка это похожий на ваш звонок адский глаз.

Тоже обратил на это внимание. На этом моменте потерял нить повествования. Наверное такое лучше делать в виде видео по типу 3B1B.

Интересно, мне было не очевидно, что данных так мало. Тогда логично.

А почему не остановились на простой линейной регрессии с дамми-признаками?

Тренд, дамми-переменные на месяц-квартал, какие-то внешние переменные типа числа SKU в категории или числа работающих магазинов (чтобы убрать всплески от открытия новых). Сезонность это просто к-т регрессии.

В зависимости от формы регрессии он имеет прямую и понятную интерпретацию, без синусов.

А как автору напрямую задонатить за игру, минуя посредников и не занимаясь обходом санкций? Искал на страничках - не нашёл.

Внесли следующие правки и перезалили пакеты для моделей языков РФ и СНГ:

  • Исправили конвертацию двухсимвольных ключей с латиницы на кириллицу для узбекского;

  • Добавили недостающие символы: 'ı' в азербайджанский и 'և' в армянский;

  • Избавились от лишних зависимостей scipy и numpy в пакетах самих моделей (numpy всё равно осталась в списке библиотек для pip-пакета, т.к. пользователи могут делать .numpy());

Спасибо за упоминание нашего синтеза в вашей статье!

Тут есть одна нестыковочка только:

Это аудио длительностью примерно 10–15 секунд.

Silero (v5_ru)

Latency (CPU), сек

2.62

То есть если я верно понял, 10-15 секунд аудио у вас синтезируется около 2+ секунд на CPU. Скорее всего это первый запуск модели. В реальности синтез такой фразы должен занимать где-то 100ms после прогрева модели. Обратите внимание, что также нужно выставить оптимальное количество потоков CPU - 4 штуки.

Также обращаю внимание на пару вещей ещё:

Спасибо!

Балаболка по идее должа числа уметь нормализовать

Ну будто бы на x64 систему надо ставить x64 либу. У нас из 5 человек это нужно было у 1 при тестировании. Почему так - никто не знает.

Спасибо, что не заленились написать follow-up комментарий. Вообще не думал, что нужна какая-то конкретная версия, кроме последней.

В планах есть поддержка языков Кавказа в рамках отдельной модели.

Ещё в таких тредах принято советовать Sunlust =)

Имхо первая Eviternity как-то сильно повкуснее. Вторая показалась очень скучной после первой.

Когда нужно было хардкодить такие формулы, люди советовали открыть доку уже неиспользуемой либы для DL theano, там эти все вычисления с анимацией прямо в доке конв слоёв описаны.

Мы также добавили в проект silero-stress:

  • Акцентор для белорусского языка на основе словаря в 1.8M слов;

  • Акцентор для украинского языка на основе словаря в 3M слов.

Для справки - акцентор это очень маленькая модель (мегабайт), которая ставит ударения со 100% точностью (с точностью до имеющегося словаря).

Почему именно модель, а не просто словарь? Сжатие примерно в 10 раз больше, плюс акцентор генерализуется на новые и несуществующие слова с точностью около 60-70%. То есть ставит чаще верно, чем неверно. Словарь или архив так не умеет =)

Мы также добавили:

  • Акцентор для белорусского языка на основе словаря в 1.8M слов;

  • Акцентор для украинского языка на основе словаря в 3M слов.

Для справки - акцентор это очень маленькая модель (мегабайт), которая ставит ударения со 100% точностью (с точностью до имеющегося словаря).

Почему именно модель, а не просто словарь? Сжатие примерно в 10 раз больше, плюс акцентор генерализуется на новые и несуществующие слова с точностью около 60-70%. То есть ставит чаще верно, чем неверно. Словарь так не умеет =)

Мы также добавили:

  • Акцентор для белорусского языка на основе словаря в 1.8M слов;

  • Акцентор для украинского языка на основе словаря в 3M слов.

Для справки - акцентор это очень маленькая модель (мегабайт), которая ставит ударения со 100% точностью (с точностью до имеющегося словаря).

Почему именно модель, а не просто словарь? Сжатие примерно в 10 раз больше, плюс акцентор генерализуется на новые и несуществующие слова с точностью около 60-70%. То есть ставит чаще верно, чем неверно. Словарь так не умеет =)

Information

Rating
2,002-nd
Registered
Activity