Собственно Virtual bass и является одной из реализаций "Missing fundamental". По такому названию проще найти детали конкретного алгоритма. Но спасибо за ссылку на более подробную информацию по теме, будет полезно для тех, кому захочется разобраться подробнее.
Как вы и описали, для такого устройства не сильно важно выровнять АЧХ в струну, а часто даже вредно. Большая неравномерность тут обусловлена как раз акустическим оформлением, имеем работу излучателей на отражатели, а при попытке выровнять мы получали плохой пользовательский опыт по прослушиваниям. Если у вас есть взгляд, как можно реализовать такую коррекцию без ущерба для пользовательского опыта, пишите, буду рад обсудить и протестировать.
Мы постоянно работаем над улучшением звучания. В статье описано текущее состояние звука в прошивке устройства, если есть комментарии по балансам, рад буду выслушать, чтобы потом учесть в подготовке нового апдейта, по возможности.
Усилители выбираются по состоянию рынка компонентов на момент разработки, чтобы попасть в таргет на нашем рынке устройств. В таких условиях не всегда возможно использовать другие усилители с более гибким DSP и лучшим звуком. Но команда работает над тем, чтобы обеспечить максимально хороший пользовательский опыт в данной нише, с учётом ограничений рынка.
А путешествие в плавучку NTP было достаточно забористым)
Если есть, какие нибудь ещё вопросы, всегда рад обсудить.
Максимальная громкость это экстремальная ситуация для распознавания звука, но мы научились очищать сигнал с микрофонов так, чтобы даже на макс громкости распознавание работало. Стоило больших усилий
Никто не спорит, что задача сведения стерео сигнала в моно непростая для звукорежисера, знаем, плавали. Но у тут мы решали задачу с точки зрения производителя акустики, а тут и получается, что с одной точки(колонки) создать равномерное звуковое поле лучше, чем пытаться играть стерео. Даже если взять кубы dmax, которые практически прецизионный инструмент сведения, у них есть только одна точка в пространстве, где должна находиться голова слушателя. Мы такого себе позволить не можем, а задача в среднем обеспечить хороший пользовательский опыт.
Да, неизбежно будут попадаться треки, которые в моно не будут так хорошо звучать, хотя большая часть звукорежисеров все таки беспокоится о звучании в моно, особенно в наше время.
Еще и поэтому сделали возможность сделать стереопару на двух колонках.
В смысле? Всего 15 штук на весь хакатон? Там ведь уже 47 человек участников.
Это пока всего 10 команд на 15 комплектов железа.
По MQTT? В принципе можно, но она там не очень нужна — предполагается работать с Tarantool, а не напрямую с MQTT.
Т.е. на UMDK-EDISON в БД кладем данные, на сервере данные забираем?
Tarantool общается с MQTT брокером через данную библиотечку:
https://github.com/tarantool/mqtt
Соответственно можно писать на Lua сбор, сохранение, обработку и все что душе угодно относительно MQTT.
На UMDK-EDISON будет софт, который осуществляет трансляцию вызовов MQTT в пакеты внутри mesh сети.
Так что если нужно запросить состояние некоторого датчика, это делается через соответствующий вызов MQTT, так же как и изменение состояния GPIO.
Приносить свое не только можно, но и приветствуется. Если рассмотреть конкретный вариант протокола UART, то тут все ровно так же, данные с оконечного UART будут падать в MQTT и ловиться Tarantool. В обратную сторону Tarantool -> MQTT->(mesh-сеть)->UMDK-RF->UART
В документации действительно много нетривиальных мест, хотя по сути все описано. Зачастую по периферии приходится смотреть документацию по предыдущему поколению СС2538, периферия совпадает процентов на 60 и лучше описана в уже отработанном TI документе.
Как видите у меня на линуксе все завелось, хотя отладкой и средой не пользуюсь практически. За пару месяцес только раз понадобилось.
Да, тут нет решения работающего из коробки, особенно это касается новых разработок. Если раньше перейти на Linux для разработки под всевозможные микропоцессоры было невозможно, то сейчас есть примеры и готовые пути. Но тут конечно на вкус и цвет все фломастеры разные. Smart RF Studio не особо нужен, а снифер есть на основе Wireshark.
1) Пока не пробовали, и не особо нужно с учетом наших задач.
2) Такие измерения будем проводить, и будет отдельная статья.
Собственно Virtual bass и является одной из реализаций "Missing fundamental". По такому названию проще найти детали конкретного алгоритма. Но спасибо за ссылку на более подробную информацию по теме, будет полезно для тех, кому захочется разобраться подробнее.
Как вы и описали, для такого устройства не сильно важно выровнять АЧХ в струну, а часто даже вредно. Большая неравномерность тут обусловлена как раз акустическим оформлением, имеем работу излучателей на отражатели, а при попытке выровнять мы получали плохой пользовательский опыт по прослушиваниям. Если у вас есть взгляд, как можно реализовать такую коррекцию без ущерба для пользовательского опыта, пишите, буду рад обсудить и протестировать.
Мы постоянно работаем над улучшением звучания. В статье описано текущее состояние звука в прошивке устройства, если есть комментарии по балансам, рад буду выслушать, чтобы потом учесть в подготовке нового апдейта, по возможности.
Усилители выбираются по состоянию рынка компонентов на момент разработки, чтобы попасть в таргет на нашем рынке устройств. В таких условиях не всегда возможно использовать другие усилители с более гибким DSP и лучшим звуком. Но команда работает над тем, чтобы обеспечить максимально хороший пользовательский опыт в данной нише, с учётом ограничений рынка.
А путешествие в плавучку NTP было достаточно забористым)
Если есть, какие нибудь ещё вопросы, всегда рад обсудить.
Максимальная громкость это экстремальная ситуация для распознавания звука, но мы научились очищать сигнал с микрофонов так, чтобы даже на макс громкости распознавание работало. Стоило больших усилий
Никто не спорит, что задача сведения стерео сигнала в моно непростая для звукорежисера, знаем, плавали. Но у тут мы решали задачу с точки зрения производителя акустики, а тут и получается, что с одной точки(колонки) создать равномерное звуковое поле лучше, чем пытаться играть стерео. Даже если взять кубы dmax, которые практически прецизионный инструмент сведения, у них есть только одна точка в пространстве, где должна находиться голова слушателя. Мы такого себе позволить не можем, а задача в среднем обеспечить хороший пользовательский опыт.
Да, неизбежно будут попадаться треки, которые в моно не будут так хорошо звучать, хотя большая часть звукорежисеров все таки беспокоится о звучании в моно, особенно в наше время.
Еще и поэтому сделали возможность сделать стереопару на двух колонках.
Это пока всего 10 команд на 15 комплектов железа.
Tarantool общается с MQTT брокером через данную библиотечку:
https://github.com/tarantool/mqtt
Соответственно можно писать на Lua сбор, сохранение, обработку и все что душе угодно относительно MQTT.
На UMDK-EDISON будет софт, который осуществляет трансляцию вызовов MQTT в пакеты внутри mesh сети.
Так что если нужно запросить состояние некоторого датчика, это делается через соответствующий вызов MQTT, так же как и изменение состояния GPIO.
Приносить свое не только можно, но и приветствуется. Если рассмотреть конкретный вариант протокола UART, то тут все ровно так же, данные с оконечного UART будут падать в MQTT и ловиться Tarantool. В обратную сторону Tarantool -> MQTT->(mesh-сеть)->UMDK-RF->UART
Как видите у меня на линуксе все завелось, хотя отладкой и средой не пользуюсь практически. За пару месяцес только раз понадобилось.
1) Пока не пробовали, и не особо нужно с учетом наших задач.
2) Такие измерения будем проводить, и будет отдельная статья.