Похоже, что в Cubase возможность изменять высоту фрагмента без изменения длительности появилась с версии SX 3.01.
Но Melodyne идет гораздо дальше даже сейчас — он сначала анализирует партию, автоматически разбивает ее на фрагменты и показывает на фоне из фортепианной клавиатуры. Как следствие, не нужно мучительно выделять нужные фрагменты и определять их высоту — даже дилетант сможет поправить ноту просто визуально.
Ну а в видео речь идет о дальнейшем развитии технологии. Если раньше можно было проанализировать только одноголосный материал, то теперь Melodyne будет способен разбивать и аккорды, позволяя редактировать ноты по отдельности. Этого нет в Cubase вообще.
Это позволяет, например, взять гитарный луп в мажоре и переделать его в минор, или вовсе изменить его структуру, что и показано в видео.
Кубейс — рекординг/мастеринг станция
Мелодайн же инструмент для! умного! тюнинга и шифтинга нот, кстати мелодайн можно засунуть в кубейс ибо он еще есть в виде vst плагина
В трекеры загружается уже вырезанный из какого-то материала (или сделанный руками) семпл. Дальше можно изменять его высоту. Но обычно высота в семплерах изменяется с помощью убыстрения/замедления семпла (знаете еще такие смешные голоса можно получить), что сделать просто.
Технология же изменения высоты при сохранении темпа сложнее, поэтому ее довели до уровня приемлемого в продакшене не так уж давно.
В Sound Forge эта функция была давным давно. Т.е. раскладывать на ноты аккорд не умела, но весь аудио файл так сказать можно было шифтить без ускорения или замедления
Ага и в Cool Edit (Audition) тоже. Просто ребята сделали в дополнение к этой возможности удобный анализатор и авторазбивку на фрагменты, что очень удобно по сравнению с ручным выделением. Этим и брали. А теперь вот еще такие интересные возможности добавляют…
Ну и до кучи в Cakewalk Sonar) да и вообще питч шифтерам сто лет в обед, но как вы правильно сказали берут именно удобством
К тому же, я так понял, на каждую ноту идет анализ частоты, а не обычный «сдвинуть на полутон» (как было в том же Cool Edit) без учета начальной тональности или когда приходилось сдвигать на 123 мгц чтобы попало
По идее с этой штукой достаточно даже одной ноты :)
Другое дело, что на реальных инструментах при изменении высоты звучания изменяется еще и сам тембр (одна и та же нота на 5 и 6 струне гитары звучит по-разному), поэтому звучать будет очень не натурально. Ну а вот если гитарист лажанул и сыграл ноту на пол тона-тон выше, то поправить можно — будет не заметно.
Уже можно ожидать засилья поп-звезд, теперь из любого можно сделать мадонну за 20 секунд
Можно делать будки album-o-matic куда можно зайти, повыть и выйти с платиновым альбомом
Ну а вот если гитарист лажанул и сыграл ноту на пол тона-тон выше, то поправить можно — будет не заметно.
Заметно-заметно будет. Даже еще при записи. Даже самому гитаристу. Даже уборщице бабе Любе которая стоит в коридоре. Такие лажи они очень сильно выпирают из общей картины. Это тоже самое, что в картине написанную черно-белыми красками, подрисовать что-то зеленым цветом.
В таких ситуациях обычно гитарист даже не доигрывает партию, и под маты звукорежисеря начинает писать все заново.
Ну там все таки работают только над одним голосом, полностью его, даже не вытягивая, а создавая. В итоге получается пластик, который из колонок за 200 рублей на каком-нибудь рынке или тв слышеца ничо так, тем более в оружении синтов и прочего. А при ближайшем расслушивании — вообще как миди какое-то.
А вообще, я не понял, мне показалось или он сам разбивает дорожку на ноты? блин, это также круто как фильм на 3d объекты с анимацией разбить — никогда не думал, что это возможно
Конечно, не думаю, что туда можно будет загрузит трек целиком — с барабанами, басом, гитарами, вокалом и он все это отлично распознает, но даже то, как он распознает ноты в отдельных аккордах и дает их редактировать уже как-то сюрреалистично.
Катя: привет, я с уга вернулась!
Ромка: прив! как оно там?
Катя: да замечательно! прикинь, я на нудистском пляже загорала!!! У меня даже фотка одна есть…
Ромка: вах)))Фстудию!
Катя: АГА! Хитрец! Ну ладно, я щас только все прикрой черными квадратиками!!!
Ромка: Ну давай…
Катя: Слуш, я тут не до конца с фотошопом разобралась… В какой формат лучше сохранить?
Ромка: Ну… Конечно же в PSD
Катя: А, хорошо, щас кину!!!
Ромка: Давай, жду с нетерпением!!!
Идет, идет, если сдвигать на небольшие интервалы. Собственно изначально-то прога для этого и задумывалась — вокалистов мажущих править с чем она уже много лет отлично и справляется.
Ну а если на октаву зафигачить, то искусственно будет, конечно, но если двигать на чем-то второстепенном, то даже это будет не так уж заметно в миксе.
Плюс можно для эффектов использовать, как в демо — чтобы одним и тем же голосом целый аккорд пропеть например.
НЛО прилетело и опубликовало эту надпись здесьНЛО прилетело и опубликовало эту надпись здесь
Это и понятно. Там у них так и сказано, что можно попробовать в качестве эксперимента композицию целиком, но для этого программа не предназначена.
Я так понимаю, что с этой штукой целятся они в первую очередь именно на работу с лупами и семплами. Когда есть вот почти то, да нужно немного подправить… Ну или записали гитариста, а у него одна струна уехала, а он уже пива нажрался и перезаписать не сможет)) Мало ли что при записи бывает.
Файл-то у них может и есть, вот только они же не пишут каждую ноту на отдельную дорожку. Вот если на этой дорожке что-то нужно немного поменять, а возможности перезаписать уже нет (бывает часто), то тут и пригодится Мелодин.
Ну а уж для правки питча в вокале его использует очень много народу.
Но, к сожелению — звук даже одного инструмента — штука очень сложная, и работать с ней надо аккуратно. Иначе получица пластиковое рафинированное гавнецо от которого будет тянуть блевать.
А если мы начинаем говорить уже про какой-то микс. То тут начинаются уже настоящие сложности, в том плане, что инструмент, какой-бы он ни был, звучит в очень широком диапазоне частот. И все они значимы (бархатистость, объем, яркость...), и все они переплетаются друг с другом. Поэтому дернув что-то одно и исправив до более-мение адекватного значения, в гавнецо уедет все остальное. И это в хорошем случае…
Все правильно, отделить в смикшированном один инструмент от другого, если это не тривиальный меандр например, в общем случае невозможно, равно как разделить 2 фотографии, наложенные друг на друга с 50% прозрачностью.
Ну а касательно того, что при изменении питча изменяется и темп и тут «более сложный алгоритм» — это вообще смешно: разложение Фурье (на частотные составляющие), их последующий сдвиг и «сборка» в waveform существует очень давно, и реализовано даже в самых древних аудиоредакторах и трекерах.
Для целых миксов она пока и не предназначена… Может быть в следующей версии ;)
Хотя согласен, конечно — полностью идеально вытащить все инструменты из микса будет нельзя никогда. А вот построить более-менее точное миди по треку, пожалуй, реально.
Был случай когда работал на радио. Нужно было из одной из песен Булановой сделать минусовку. Первым делом решили программным способом убить ее голос и оставить только музыку. Какого было наше удивление, когда под ее вокалом был обнаружен голос мужчины, который ей подпевал. В Самой песне мужской воокал вообще не слышал. Видимо без этой подложки ее голос совсем плох.
Реально не помню, я ее творчеством не увлекаюсь, это наши маркетологи решили эту песню передалать ко дню рождения шефов, вот мы и делали минус. Но когда услышали, то и я и звукорежиссер были в шоке.
Давно витала идея про такой редактор.
Видео можно сейчас редактировать «на лету». (например Sony Vegas) Долго думал, почему нельзя с Аудио делать тоже самое.
Я не буду говорить, что это боян (хотя это действительно боян, и в узких кругах муз. продюсеров, в которые я вхожу, об этом говорят уже очень давно), но справедливости ради стоит отметить, что правильнее говорить не «многополосное», а «полифоническое». Да, в роликах очень плохой звук, но всё ж хотелось бы хотя бы MP3 320kbps чтоб оценить потери при расчленении парти… А они будут, эти потери, спектральный анализ — штука грубоватая.
Я абсолютно точно уверен, что в программе Melodyne (мы говорим именно про неё, а не про гипотетическую идеальную программу) всё-равно на выходе будут помехи и/или искажения.
Тут проблема не в частоте дискретизации, а в том что невозможно разложить сигнал на частоты одновременно с высокой детализацией и по времени и, собственно, по частотам. Плюс к этому, есть ещё несколько неприятных артефктов, которые увеличивают ошибку.
И вот из этого приблизительного спектра выдираются его части, видимо, с помощью каких-то адаптивных моделей полифонического звучания. Сомневаюсь, что в программе имеется достаточно точная, развёрнутая в обратную сторону, физическая модель звучания, например, гитарного аккорда, следовательно разложение на составные должно быть весьма приблизительным, а точнее сказать символическим. Нарисован аккорд может быть правильно, но что там окажется для каждой струны после разложения?!
С другой стороны, человеческий слух не настолько тонкий инструмент, чтобы слышать все «заусенцы» преобразований и благодаря психоакустичиским эффектам мы имеем некоторую свободу в погрешностях. Главное не переусердстовать :)
З. Ы. Интересно было бы послушать, как при редактировании технология справляется с задачей сохранения текстуры (послезвучая, касания струн, т.д.) и разделения близких/одинаковых гармоник разных нот.
Кстати, я думал насчет работы именно с атакой, послезвучиями, касаниями и т. д.
Если бы у меня стояла задача сделать алгоритм репитча, который звучит натурально, то я бы как раз уделил основное внимание именно этим вещам, ведь именно их модификация и приводит к ненатуральности. Sustain и Decay-стадии более-менее равномерны и их растяжение/сжатие не столь заметно.
Как минимум, я бы, пожалуй, попытался растягивать attack и release в меньшей степени и разделить их на шумовую и тоническую составляющую, чтобы шумовую не питчить. Думаю в какой-то мере это все реально и возможно этим путем и идут разработчики (или уже ушли далеко вперед).
Штука безусловно любопытная. Пока непонятно какой будет масштаб профессионального применения. Ближайшая по концепции к мелодину штука (если смотреть по потенциальному эффекту на поп-музыку) — автотюн, знаменитый по шеровской Believe. Важный недостаток таких вот фишек в том, что сперва они звучат свежо и интересно, но очень быстро теряют новизну и их становится слышно везде, вплоть до оскомины.
Что касается чисто аудиофонических качеств, то для демо, конечно, взяли относительно безопасный пример. В реальности всё связанное с time stretch даёт слышимые (иногда едва слышимые, иногда навязчивые) звуковые огрехи и артефакты, и ни Кубейс, ни Sound Forge, ни синтриллиумовский Cool Edit тут не исключение. Даже на профессиональной и уважаемой продукции конца 90-ых, типа Skyray, слышны артефакты тайм стретча. Причём изначально на них никто внимания особо не обращал, даже именитые звукопродюсеры. Ухо должно приноровиться такое слышать, а это занимает некоторое время.
Вообще если кто музыкой занимается, за этой технологией однозначно надо следить, она имеет все шансы стать модной.
Ага. Может получиться вообще как с Line6. Гитарный звук у него достаточно далек от оригинала, но эта цифровая сухость и характерные призвуки настолько многим пришлись по душе в тяжелой музыке, что народ послезал с дорогущих реальных усилителей и стал играть на Line6.
Манипуляции с аудио, как с MIDI