Хорошая дискуссия на совершенно другую тему, нежели статья)
Меня это тоже интересует, но хотелось бы найти золотую середину между английской википедией и медэнциклопедией, напичканной латынью. С экспериментами и картинками.
Очень интересно. Представьте себе начального школьника, слишком много играющиего в игры с такой технологией. Может ли он превратиться в «акустического идиота» за год? :)
Тут дело не столько в просто разнесенных микрофонах, сколько в повторении формы ушного канала
На самом деле важно все. И не стоит забывать про полости черепа, они резонируют.
Все эти вещи, кстати, параметризуются тоже. Представьте, вы вводите в программу свой возраст (можно еще и национальность), она подгоняет бинауральную модель под среднестатистические параметры черепа человека конкретного возраста (и конкретной национальности). Только пожалуйста, не надо про закон Годвина =)
Или еще проще — сделать трехмерную МРТ и ввести в программу.
Я думаю, это не сравнимо с графикой. В несколько раз меньше.
Естественно, при условии грамотного подхода. Если бессмысленно, маниакально точно моделировать водопад, то тут только на чем-то из TOP500. Если с головой — то на планшетах все будет гладко. А если с отдельным звуковым чипом работать, то совсем замечательно.
Подход к обработке и синтезу звука в целом заключается к быстрому прямому и обратному преобразованию Фурье, плюс не запредельная математика. Короче, о ежесекундной обработке огромных массивов данных типа вершин многополигональных моделей и шейдеров речи вообще не идет :)
Рад, что статья понравилась :)
Насчет синтезаторов — согласен, чтобы учесть все нелинейные тонкости и получить теплый ламповый муг, действительно нужны ресурсы, да еще желательно препарировать оригинальный инструмент. Хотя взять тот же Diva, — не особо ресурсоемкий, а звучит очень хорошо и имитирует много всего. Противоположный пример — Massive, который как раз собран в Reaktor. Сколько пытался сделать сам и сколько пресетов перерыл — тепла в нем действительно нет.
Касательно качества модулей — это зависит от «искусства апроксимировать». Действительно, еще много чего надо смоделировать и написать, чтобы результат был легче и качественнее.
Спасибо за ссылки.
Интересно, спасибо за ссылку. Насколько мне представляется, это как раз один из шагов в сторону вычислительного аудио. Как я понял из оригинала статьи, упор в частности будет делаться как раз на пространственные эффекты. Это как раз одни из наиболее затратных вычислений — множественные отражения сигнала, диффузия и т.д.
Так речь не о каком-то конкретном стандарте. Смысл описанного стека в этом и заключается. VST так VST. Тут главное — концепция. Аудио уже встроено в объекты мира, оно является его «природной» легко управляемой частью.
Даже Massive и Zebra имеют ограниченные (хоть и непревзойденные среди VSTi) возможности параметризации. Множество требуемых результатов намного мощнее множества результатов, которые могут выдавать эти синты. Плюс, потенциальный доступ к низкоуровневым параметрам синтеза извне.
Это будет ад X) В высоких обществах создателя EMI многие уже давно хотят четвертовать. Искушенные слушатели не в состоянии отличить партитуру EMI от партитуры Вивальди. А когда узнают правду, воспринимают это как плевок в душу. Что уж говорить о композиторах o_O
На самом деле нет. BFXR — это ничем не обусловленное сочетание разных базовых элементов синтеза и обработки. Но штука занятная — для создания очередного Марио сэкономит время.
Меня это тоже интересует, но хотелось бы найти золотую середину между английской википедией и медэнциклопедией, напичканной латынью. С экспериментами и картинками.
На самом деле важно все. И не стоит забывать про полости черепа, они резонируют.
Все эти вещи, кстати, параметризуются тоже. Представьте, вы вводите в программу свой возраст (можно еще и национальность), она подгоняет бинауральную модель под среднестатистические параметры черепа человека конкретного возраста (и конкретной национальности). Только пожалуйста, не надо про закон Годвина =)
Или еще проще — сделать трехмерную МРТ и ввести в программу.
Естественно, при условии грамотного подхода. Если бессмысленно, маниакально точно моделировать водопад, то тут только на чем-то из TOP500. Если с головой — то на планшетах все будет гладко. А если с отдельным звуковым чипом работать, то совсем замечательно.
Подход к обработке и синтезу звука в целом заключается к быстрому прямому и обратному преобразованию Фурье, плюс не запредельная математика. Короче, о ежесекундной обработке огромных массивов данных типа вершин многополигональных моделей и шейдеров речи вообще не идет :)
Насчет синтезаторов — согласен, чтобы учесть все нелинейные тонкости и получить теплый ламповый муг, действительно нужны ресурсы, да еще желательно препарировать оригинальный инструмент. Хотя взять тот же Diva, — не особо ресурсоемкий, а звучит очень хорошо и имитирует много всего. Противоположный пример — Massive, который как раз собран в Reaktor. Сколько пытался сделать сам и сколько пресетов перерыл — тепла в нем действительно нет.
Касательно качества модулей — это зависит от «искусства апроксимировать». Действительно, еще много чего надо смоделировать и написать, чтобы результат был легче и качественнее.
Спасибо за ссылки.
Собрать кустарно несложно. Но на качество влияет куча мелочей, которые кустарно сложно сделать.
Есть программа EMI, которая проанализировала тысячи партитур, созданных известными композиторами, и может имитировать стиль любого из них.
И есть Continuator, которая может, основываясь на стиле исполнения, подсказывать музыканту, как продолжить произведение.