Comments 75
Похоже, что в Cubase возможность изменять высоту фрагмента без изменения длительности появилась с версии SX 3.01.
Но Melodyne идет гораздо дальше даже сейчас — он сначала анализирует партию, автоматически разбивает ее на фрагменты и показывает на фоне из фортепианной клавиатуры. Как следствие, не нужно мучительно выделять нужные фрагменты и определять их высоту — даже дилетант сможет поправить ноту просто визуально.
Ну а в видео речь идет о дальнейшем развитии технологии. Если раньше можно было проанализировать только одноголосный материал, то теперь Melodyne будет способен разбивать и аккорды, позволяя редактировать ноты по отдельности. Этого нет в Cubase вообще.
Это позволяет, например, взять гитарный луп в мажоре и переделать его в минор, или вовсе изменить его структуру, что и показано в видео.
Но Melodyne идет гораздо дальше даже сейчас — он сначала анализирует партию, автоматически разбивает ее на фрагменты и показывает на фоне из фортепианной клавиатуры. Как следствие, не нужно мучительно выделять нужные фрагменты и определять их высоту — даже дилетант сможет поправить ноту просто визуально.
Ну а в видео речь идет о дальнейшем развитии технологии. Если раньше можно было проанализировать только одноголосный материал, то теперь Melodyne будет способен разбивать и аккорды, позволяя редактировать ноты по отдельности. Этого нет в Cubase вообще.
Это позволяет, например, взять гитарный луп в мажоре и переделать его в минор, или вовсе изменить его структуру, что и показано в видео.
Кубейс — рекординг/мастеринг станция
Мелодайн же инструмент для! умного! тюнинга и шифтинга нот, кстати мелодайн можно засунуть в кубейс ибо он еще есть в виде vst плагина
Мелодайн же инструмент для! умного! тюнинга и шифтинга нот, кстати мелодайн можно засунуть в кубейс ибо он еще есть в виде vst плагина
а как действовали трекеры mod/xm?
В трекеры загружается уже вырезанный из какого-то материала (или сделанный руками) семпл. Дальше можно изменять его высоту. Но обычно высота в семплерах изменяется с помощью убыстрения/замедления семпла (знаете еще такие смешные голоса можно получить), что сделать просто.
Технология же изменения высоты при сохранении темпа сложнее, поэтому ее довели до уровня приемлемого в продакшене не так уж давно.
Технология же изменения высоты при сохранении темпа сложнее, поэтому ее довели до уровня приемлемого в продакшене не так уж давно.
В Sound Forge эта функция была давным давно. Т.е. раскладывать на ноты аккорд не умела, но весь аудио файл так сказать можно было шифтить без ускорения или замедления
Ага и в Cool Edit (Audition) тоже. Просто ребята сделали в дополнение к этой возможности удобный анализатор и авторазбивку на фрагменты, что очень удобно по сравнению с ручным выделением. Этим и брали. А теперь вот еще такие интересные возможности добавляют…
Ну и до кучи в Cakewalk Sonar) да и вообще питч шифтерам сто лет в обед, но как вы правильно сказали берут именно удобством
К тому же, я так понял, на каждую ноту идет анализ частоты, а не обычный «сдвинуть на полутон» (как было в том же Cool Edit) без учета начальной тональности или когда приходилось сдвигать на 123 мгц чтобы попало
К тому же, я так понял, на каждую ноту идет анализ частоты, а не обычный «сдвинуть на полутон» (как было в том же Cool Edit) без учета начальной тональности или когда приходилось сдвигать на 123 мгц чтобы попало
да… теперь «гамму сыграй а я нарежу» воистину не шутка
По идее с этой штукой достаточно даже одной ноты :)
Другое дело, что на реальных инструментах при изменении высоты звучания изменяется еще и сам тембр (одна и та же нота на 5 и 6 струне гитары звучит по-разному), поэтому звучать будет очень не натурально. Ну а вот если гитарист лажанул и сыграл ноту на пол тона-тон выше, то поправить можно — будет не заметно.
Другое дело, что на реальных инструментах при изменении высоты звучания изменяется еще и сам тембр (одна и та же нота на 5 и 6 струне гитары звучит по-разному), поэтому звучать будет очень не натурально. Ну а вот если гитарист лажанул и сыграл ноту на пол тона-тон выше, то поправить можно — будет не заметно.
Уже можно ожидать засилья поп-звезд, теперь из любого можно сделать мадонну за 20 секунд
Можно делать будки album-o-matic куда можно зайти, повыть и выйти с платиновым альбомом
Можно делать будки album-o-matic куда можно зайти, повыть и выйти с платиновым альбомом
Ну а вот если гитарист лажанул и сыграл ноту на пол тона-тон выше, то поправить можно — будет не заметно.
Заметно-заметно будет. Даже еще при записи. Даже самому гитаристу. Даже уборщице бабе Любе которая стоит в коридоре. Такие лажи они очень сильно выпирают из общей картины. Это тоже самое, что в картине написанную черно-белыми красками, подрисовать что-то зеленым цветом.
В таких ситуациях обычно гитарист даже не доигрывает партию, и под маты звукорежисеря начинает писать все заново.
Заметно-заметно будет. Даже еще при записи. Даже самому гитаристу. Даже уборщице бабе Любе которая стоит в коридоре. Такие лажи они очень сильно выпирают из общей картины. Это тоже самое, что в картине написанную черно-белыми красками, подрисовать что-то зеленым цветом.
В таких ситуациях обычно гитарист даже не доигрывает партию, и под маты звукорежисеря начинает писать все заново.
это не мешает нашей эстраде пользоваться автотюном
Ясень пень эта фишка не для Роберта Планта и Ареты Франклин)
Ясень пень эта фишка не для Роберта Планта и Ареты Франклин)
Ну там все таки работают только над одним голосом, полностью его, даже не вытягивая, а создавая. В итоге получается пластик, который из колонок за 200 рублей на каком-нибудь рынке или тв слышеца ничо так, тем более в оружении синтов и прочего. А при ближайшем расслушивании — вообще как миди какое-то.
То что заметно — понятно, но может он настолько криворукий, что даже такой вариант дался ему с трудом и вот все хорошо, но одна нота мимо))
А вообще, я не понял, мне показалось или он сам разбивает дорожку на ноты? блин, это также круто как фильм на 3d объекты с анимацией разбить — никогда не думал, что это возможно
Да, в том-то и вся соль.
Конечно, не думаю, что туда можно будет загрузит трек целиком — с барабанами, басом, гитарами, вокалом и он все это отлично распознает, но даже то, как он распознает ноты в отдельных аккордах и дает их редактировать уже как-то сюрреалистично.
Конечно, не думаю, что туда можно будет загрузит трек целиком — с барабанами, басом, гитарами, вокалом и он все это отлично распознает, но даже то, как он распознает ноты в отдельных аккордах и дает их редактировать уже как-то сюрреалистично.
И надиктуй алфавит… Недавно «пел» таким образом для модных исполнителей :-)
Ждите кучу ремиксов и ремиксов на ремиксы :)
дизассемблирование аудио :)
«восстановить исходные слои по итоговой картинке» — вот от этого я бы точно не отказался
Почему-то напомнило историю с баша:
Катя: привет, я с уга вернулась!
Ромка: прив! как оно там?
Катя: да замечательно! прикинь, я на нудистском пляже загорала!!! У меня даже фотка одна есть…
Ромка: вах)))Фстудию!
Катя: АГА! Хитрец! Ну ладно, я щас только все прикрой черными квадратиками!!!
Ромка: Ну давай…
Катя: Слуш, я тут не до конца с фотошопом разобралась… В какой формат лучше сохранить?
Ромка: Ну… Конечно же в PSD
Катя: А, хорошо, щас кину!!!
Ромка: Давай, жду с нетерпением!!!
:)
Катя: привет, я с уга вернулась!
Ромка: прив! как оно там?
Катя: да замечательно! прикинь, я на нудистском пляже загорала!!! У меня даже фотка одна есть…
Ромка: вах)))Фстудию!
Катя: АГА! Хитрец! Ну ладно, я щас только все прикрой черными квадратиками!!!
Ромка: Ну давай…
Катя: Слуш, я тут не до конца с фотошопом разобралась… В какой формат лучше сохранить?
Ромка: Ну… Конечно же в PSD
Катя: А, хорошо, щас кину!!!
Ромка: Давай, жду с нетерпением!!!
:)
Технология потрясающая, на мой взгляд даже более интересная чем тот-же liquid resize для фото.
А что за трек (с голосом девушки) играет в примерах?
А что за трек (с голосом девушки) играет в примерах?
Идет, идет, если сдвигать на небольшие интервалы. Собственно изначально-то прога для этого и задумывалась — вокалистов мажущих править с чем она уже много лет отлично и справляется.
Ну а если на октаву зафигачить, то искусственно будет, конечно, но если двигать на чем-то второстепенном, то даже это будет не так уж заметно в миксе.
Плюс можно для эффектов использовать, как в демо — чтобы одним и тем же голосом целый аккорд пропеть например.
Ну а если на октаву зафигачить, то искусственно будет, конечно, но если двигать на чем-то второстепенном, то даже это будет не так уж заметно в миксе.
Плюс можно для эффектов использовать, как в демо — чтобы одним и тем же голосом целый аккорд пропеть например.
Это и понятно. Там у них так и сказано, что можно попробовать в качестве эксперимента композицию целиком, но для этого программа не предназначена.
Я так понимаю, что с этой штукой целятся они в первую очередь именно на работу с лупами и семплами. Когда есть вот почти то, да нужно немного подправить… Ну или записали гитариста, а у него одна струна уехала, а он уже пива нажрался и перезаписать не сможет)) Мало ли что при записи бывает.
Я так понимаю, что с этой штукой целятся они в первую очередь именно на работу с лупами и семплами. Когда есть вот почти то, да нужно немного подправить… Ну или записали гитариста, а у него одна струна уехала, а он уже пива нажрался и перезаписать не сможет)) Мало ли что при записи бывает.
дорогие друзья, а никто не может идентифицировать музыку, которая звучит в этом клипе?
Этот бородатый дядька, похожий на Карла Маркса — гений!
Программа потрясная, жаль нет ничего подобного на любимой FL Studio
Эх, если бы все было так идеально…
Но, к сожелению — звук даже одного инструмента — штука очень сложная, и работать с ней надо аккуратно. Иначе получица пластиковое рафинированное гавнецо от которого будет тянуть блевать.
А если мы начинаем говорить уже про какой-то микс. То тут начинаются уже настоящие сложности, в том плане, что инструмент, какой-бы он ни был, звучит в очень широком диапазоне частот. И все они значимы (бархатистость, объем, яркость...), и все они переплетаются друг с другом. Поэтому дернув что-то одно и исправив до более-мение адекватного значения, в гавнецо уедет все остальное. И это в хорошем случае…
Но, к сожелению — звук даже одного инструмента — штука очень сложная, и работать с ней надо аккуратно. Иначе получица пластиковое рафинированное гавнецо от которого будет тянуть блевать.
А если мы начинаем говорить уже про какой-то микс. То тут начинаются уже настоящие сложности, в том плане, что инструмент, какой-бы он ни был, звучит в очень широком диапазоне частот. И все они значимы (бархатистость, объем, яркость...), и все они переплетаются друг с другом. Поэтому дернув что-то одно и исправив до более-мение адекватного значения, в гавнецо уедет все остальное. И это в хорошем случае…
Все правильно, отделить в смикшированном один инструмент от другого, если это не тривиальный меандр например, в общем случае невозможно, равно как разделить 2 фотографии, наложенные друг на друга с 50% прозрачностью.
Ну а касательно того, что при изменении питча изменяется и темп и тут «более сложный алгоритм» — это вообще смешно: разложение Фурье (на частотные составляющие), их последующий сдвиг и «сборка» в waveform существует очень давно, и реализовано даже в самых древних аудиоредакторах и трекерах.
Ну а касательно того, что при изменении питча изменяется и темп и тут «более сложный алгоритм» — это вообще смешно: разложение Фурье (на частотные составляющие), их последующий сдвиг и «сборка» в waveform существует очень давно, и реализовано даже в самых древних аудиоредакторах и трекерах.
Для целых миксов она пока и не предназначена… Может быть в следующей версии ;)
Хотя согласен, конечно — полностью идеально вытащить все инструменты из микса будет нельзя никогда. А вот построить более-менее точное миди по треку, пожалуй, реально.
Хотя согласен, конечно — полностью идеально вытащить все инструменты из микса будет нельзя никогда. А вот построить более-менее точное миди по треку, пожалуй, реально.
Теперь Music Fonts будут называться: Pink Floyd, Queen, Emma Shapplin…
Был случай когда работал на радио. Нужно было из одной из песен Булановой сделать минусовку. Первым делом решили программным способом убить ее голос и оставить только музыку. Какого было наше удивление, когда под ее вокалом был обнаружен голос мужчины, который ей подпевал. В Самой песне мужской воокал вообще не слышал. Видимо без этой подложки ее голос совсем плох.
Не подскажете, каким образом вы убрали ее голос?
Названия софтины не помню, но брали точно в разделе софт на этом сайте websound.ru
Реально не помню, я ее творчеством не увлекаюсь, это наши маркетологи решили эту песню передалать ко дню рождения шефов, вот мы и делали минус. Но когда услышали, то и я и звукорежиссер были в шоке.
Давно витала идея про такой редактор.
Видео можно сейчас редактировать «на лету». (например Sony Vegas) Долго думал, почему нельзя с Аудио делать тоже самое.
Отлично, что появились такие программы.
Видео можно сейчас редактировать «на лету». (например Sony Vegas) Долго думал, почему нельзя с Аудио делать тоже самое.
Отлично, что появились такие программы.
Я не буду говорить, что это боян (хотя это действительно боян, и в узких кругах муз. продюсеров, в которые я вхожу, об этом говорят уже очень давно), но справедливости ради стоит отметить, что правильнее говорить не «многополосное», а «полифоническое». Да, в роликах очень плохой звук, но всё ж хотелось бы хотя бы MP3 320kbps чтоб оценить потери при расчленении парти… А они будут, эти потери, спектральный анализ — штука грубоватая.
Я абсолютно точно уверен, что в программе Melodyne (мы говорим именно про неё, а не про гипотетическую идеальную программу) всё-равно на выходе будут помехи и/или искажения.
Тут проблема не в частоте дискретизации, а в том что невозможно разложить сигнал на частоты одновременно с высокой детализацией и по времени и, собственно, по частотам. Плюс к этому, есть ещё несколько неприятных артефктов, которые увеличивают ошибку.
И вот из этого приблизительного спектра выдираются его части, видимо, с помощью каких-то адаптивных моделей полифонического звучания. Сомневаюсь, что в программе имеется достаточно точная, развёрнутая в обратную сторону, физическая модель звучания, например, гитарного аккорда, следовательно разложение на составные должно быть весьма приблизительным, а точнее сказать символическим. Нарисован аккорд может быть правильно, но что там окажется для каждой струны после разложения?!
С другой стороны, человеческий слух не настолько тонкий инструмент, чтобы слышать все «заусенцы» преобразований и благодаря психоакустичиским эффектам мы имеем некоторую свободу в погрешностях. Главное не переусердстовать :)
З. Ы. Интересно было бы послушать, как при редактировании технология справляется с задачей сохранения текстуры (послезвучая, касания струн, т.д.) и разделения близких/одинаковых гармоник разных нот.
И вот из этого приблизительного спектра выдираются его части, видимо, с помощью каких-то адаптивных моделей полифонического звучания. Сомневаюсь, что в программе имеется достаточно точная, развёрнутая в обратную сторону, физическая модель звучания, например, гитарного аккорда, следовательно разложение на составные должно быть весьма приблизительным, а точнее сказать символическим. Нарисован аккорд может быть правильно, но что там окажется для каждой струны после разложения?!
С другой стороны, человеческий слух не настолько тонкий инструмент, чтобы слышать все «заусенцы» преобразований и благодаря психоакустичиским эффектам мы имеем некоторую свободу в погрешностях. Главное не переусердстовать :)
З. Ы. Интересно было бы послушать, как при редактировании технология справляется с задачей сохранения текстуры (послезвучая, касания струн, т.д.) и разделения близких/одинаковых гармоник разных нот.
Кстати, я думал насчет работы именно с атакой, послезвучиями, касаниями и т. д.
Если бы у меня стояла задача сделать алгоритм репитча, который звучит натурально, то я бы как раз уделил основное внимание именно этим вещам, ведь именно их модификация и приводит к ненатуральности. Sustain и Decay-стадии более-менее равномерны и их растяжение/сжатие не столь заметно.
Как минимум, я бы, пожалуй, попытался растягивать attack и release в меньшей степени и разделить их на шумовую и тоническую составляющую, чтобы шумовую не питчить. Думаю в какой-то мере это все реально и возможно этим путем и идут разработчики (или уже ушли далеко вперед).
Если бы у меня стояла задача сделать алгоритм репитча, который звучит натурально, то я бы как раз уделил основное внимание именно этим вещам, ведь именно их модификация и приводит к ненатуральности. Sustain и Decay-стадии более-менее равномерны и их растяжение/сжатие не столь заметно.
Как минимум, я бы, пожалуй, попытался растягивать attack и release в меньшей степени и разделить их на шумовую и тоническую составляющую, чтобы шумовую не питчить. Думаю в какой-то мере это все реально и возможно этим путем и идут разработчики (или уже ушли далеко вперед).
Штука безусловно любопытная. Пока непонятно какой будет масштаб профессионального применения. Ближайшая по концепции к мелодину штука (если смотреть по потенциальному эффекту на поп-музыку) — автотюн, знаменитый по шеровской Believe. Важный недостаток таких вот фишек в том, что сперва они звучат свежо и интересно, но очень быстро теряют новизну и их становится слышно везде, вплоть до оскомины.
Что касается чисто аудиофонических качеств, то для демо, конечно, взяли относительно безопасный пример. В реальности всё связанное с time stretch даёт слышимые (иногда едва слышимые, иногда навязчивые) звуковые огрехи и артефакты, и ни Кубейс, ни Sound Forge, ни синтриллиумовский Cool Edit тут не исключение. Даже на профессиональной и уважаемой продукции конца 90-ых, типа Skyray, слышны артефакты тайм стретча. Причём изначально на них никто внимания особо не обращал, даже именитые звукопродюсеры. Ухо должно приноровиться такое слышать, а это занимает некоторое время.
Вообще если кто музыкой занимается, за этой технологией однозначно надо следить, она имеет все шансы стать модной.
Что касается чисто аудиофонических качеств, то для демо, конечно, взяли относительно безопасный пример. В реальности всё связанное с time stretch даёт слышимые (иногда едва слышимые, иногда навязчивые) звуковые огрехи и артефакты, и ни Кубейс, ни Sound Forge, ни синтриллиумовский Cool Edit тут не исключение. Даже на профессиональной и уважаемой продукции конца 90-ых, типа Skyray, слышны артефакты тайм стретча. Причём изначально на них никто внимания особо не обращал, даже именитые звукопродюсеры. Ухо должно приноровиться такое слышать, а это занимает некоторое время.
Вообще если кто музыкой занимается, за этой технологией однозначно надо следить, она имеет все шансы стать модной.
Ага. Может получиться вообще как с Line6. Гитарный звук у него достаточно далек от оригинала, но эта цифровая сухость и характерные призвуки настолько многим пришлись по душе в тяжелой музыке, что народ послезал с дорогущих реальных усилителей и стал играть на Line6.
Отличная вещь, не раз спасала.
Sign up to leave a comment.
Манипуляции с аудио, как с MIDI