Как стать автором
Обновить

Комментарии 11

Меня удивило в свое время, что звукари при создании стерео разводят инструменты и разные микрофоны исключительно громкостью. Небольшая задержка во времени сразу создаёт объем, но они этого не делают!

При раздвоении с задержкой однородного сигнала возникает реверберация, может быть ее и можно назвать объемом, но все-таки считается одним из эффектов и совсем не обязательно автор хочет ее задействовать. А объем скорее дают гармоники — ну так принято считать (объем понятие субъективное).
Ну это как бы логично. Вы когда сидите перед сценой слышите звуки поступающие от инструментов с разной громкостью в правом и левом ухе. И в том числе с разной фазой. Но компьютер мозга к этому адаптирован и не бывает такого что звук очень сильно задерживается. Это алогично с точки зрения слухового восприятия. К тому же подобные эффекты не приживаются потому-что это звучит неодинаково на разной аппаратуре. А звукоинженеры добиваются всегда сходного звучания.

Ну и зря вы так думаете. Достаточно посмотреть видосики звукоинженеров про MID/SIDE. Просто это не совсем очевидно при прослушивании, скорее имеет отношение к восприятию трека.

Вы сегодня не найдёте микса, в котором задержка не была бы использована. Реверберация, delay, chorus — это и есть задержка.


И панорамирование (с пом.громкости одного канала относительно другого), и задержка (задержка одного канала относительно другого) — инструменты, у каждого свои контексты и области применения, со своими плюсами и минусами.


Самой задержкой и всеми основанными на ней эффектами (chorus, flanger, всевозможные "стереорасширители" на основе эффекта Хааса) неудобно контролировать ширину микса (с задержкой до 24мс разлетается почти непредсказуемо, "посадить" инструмент в определенную точку трудно), тяжелее добиться хорошей моносовместимости.


Если источник один, например, один тейк гитары в моно, и есть задача сделать эту гитарку "широкой" — без задержки в том или ином виде с задачей не справиться. Если дублей несколько — удобнее панорамировать.

Не делают, потому что тогда микс не сведётся адекватным образом в моно. Более того, они специально следят за фазой.

Считаю себя меломаном и имею неплохой слух, есть довольно хорошие динамики и наушники и отдельный неплохой усилитель. Послушал сигналы на всем что только можно — результат: разница еле уловима только на 20Гц (и то учитывая что я ее жду). На телефоне что характерно легкая разница заметна еще на последнем 40Гц файле, но эта разница на грани плацебо.
PS это если конечно разница должна быть не только в силе сигнала…

В хороших наушниках на компе очень хорошо услышал разницу на 20 и 40 Гц. Для одного случая и очень небольшую разницу на 200 Гц. На 20 ГЦ так вообще совсем разные звуки получаются...

ХЗ, в наушниках на компе разница уловима даже моему побитому слуху (служил в артеллерии)

У вас там какая-то беда, хорошо слышно, что сигнал 40 Гц явно модулирован более низкой частотой (10 Гц или ниже).

Где-то читал теорию, что на низких частотах работает не разложение в спектр, а анализируется частота нервных импульсов.
Даже есть эффект фантомной частоты основного тона (не помню, как правильно называется), когда убирают основную гармонику, но она всё равно как бы слышится за счёт взаимодействия остальных гармоник. И вроде бы даже на этом принципе эмулируют низкие частоты в пищалках.

Согласно общепринятой теории фазовые соотношения в спектре звука не важны для восприятия тембра.

Да, это теория Андрея Александровича Володина, создателя знаменитых ЭМИ Экводин. Самый низ звукового диапазона он не исследовал.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории