Задание, где они из карамельки вырезали фигурки ничем не лучше - они так же случайно выбирали для себя фигуры, не зная, что им предстоит делать, как в задании со стеклянными плитками они выбирали номер.
Круто. Один момент хотелось бы уточнить: из первой формулы следует, что вероятность игроку принести информацию об одной плитке рана 0.5, но ведь это не так - каждый игрок достоверно приносит информацию об одной плитке, не важно, какую он выбирает. (В допущении, конечно, что игроки не забывают информацию, полученную от предыдущих игроков, и не прыгает в сторону).
Вот тут уж точно чистой воды дорисовывание. По одному кадру безо-всякого блендинга картинка подается в нейронку и на выходе получается та размазня, что в примере с птицей на картинке справа. Да, в статье продемонстрированы впечатляющие результаты и предлагаются интересные, на мой взгляд, идеи, но немного поигравшись с их моделями я был несколько разочарован. Да, результат апсемплинга выглядит лучше любых интерполяций, но при увеличении большем, чем авторы использовали при обучении, получается треш (хотя авторы в качестве одного из преимуществ их подхода приводят возмодность апскейлить далеко за пределы масштабов, использованных при обучении)
А при чем тут Colab? В смысле, зачем делать на нем акцент в КДПВ и введении, если далее по тексту нет ни ссылок, ни туториалов конкретно касательно колаба, ни вообще чего бы то ни было релевантного?
Можно ещё так сделать: пробурить скважину через землю насквозь, кинуть туда рельс и разгоняться туда-сюда - это избавит от многих проблем. Правда, насчёт Кориолиса не уверен, но тут нужна расчёты.
Приведу весьма утрированный пример, объясняющий, на мой взгляд, почему аугментировать лучше, чем приводить в одну тональность. Повторюсь, пример утрированный, и может показаться неубедительным, но я попытаюсь. Предположим, у нас есть датасет, в котором всего две мелодии. В одной из мелодий встречается паттерн, состоящий из трех нот, скажем, XYZ. В другой мелодии нет ни одного фрагмента, где бы за нотой X следовала бы нота Y. В таком случае, модель выучит, что после нот XY должна следовать нота Z, и никак иначе. Далее, предположим, что во второй мелодии есть паттерн X'Y'W', где ноты X' и Y' отличаются от нот X и Y на одинаковое число полутонов, а W' никак не коррелирует с Z. Если мы аугментируем выборку, транспонировав вторую мелодию на соответствующее число полутонов, то получим паттерн XYW, который тоже благозвучен, как и XYZ, и теперь модель способна выучить распределение для XYZ и XYW, а также для X'Y'W' и X'Y'Z'.
движение по полутонам ведь не добавляет «новых мелодий»
Аугментации нужны не для того, чтобы добавлять "новые паттерны", а, скорее напротив, чтобы нивелировать влияние не значимых признаков. Вы пишете, что "Повышение на 1-2 тона вообще ничего не меняет с точки зрения сочинения и восприятия музыки." - т.е. тональность как раз относится к не значимым признакам.
3.5k примеров - маленький датасет для обучения. Видимо, другого способа расширить выборку, не зааффектив при этом мелодичности, кроме как подвигать тональности, автор не придумал. Что бы Вы могли предложить?
Так в том-то и дело, что если "Повышение на 1-2 тона вообще ничего не меняет с точки зрения сочинения и восприятия музыки." то для модели такая аугментация нужна, чтобы она не оверфитилась на определенную тональность (если я правильно употребил этот термин) и могла генерировать одинаковые паттерны в разном диапазоне.
А Вы случайно ничего не слышали про "бабки"? Не исключаю искажения воспоминаний, но, помнится, примерно как раз в период популярности фишек в наших школах (я был как раз возраста ЦА) мой дед, 1908 года рождения, рассказывал, что когда он учился в школе, они играли в "бабки". Хоть убей не помню, что из себя представляли эти самые бабки, но описанная механика игры почти в точности повторяла механику фишек, кажется, с битой. Меня тогда поразила мысль, что в начале века играли в то же, что и в конце.
Задание, где они из карамельки вырезали фигурки ничем не лучше - они так же случайно выбирали для себя фигуры, не зная, что им предстоит делать, как в задании со стеклянными плитками они выбирали номер.
Круто. Один момент хотелось бы уточнить: из первой формулы следует, что вероятность игроку принести информацию об одной плитке рана 0.5, но ведь это не так - каждый игрок достоверно приносит информацию об одной плитке, не важно, какую он выбирает. (В допущении, конечно, что игроки не забывают информацию, полученную от предыдущих игроков, и не прыгает в сторону).
Знатно, наверное, британцы при**ели, что теперь Путин решает, какими им приложениями пользоваться Х)))
Интересно, а носителей фамилии Лях тоже блокирует?
constraint - это не константа, это - ограничение.
Вот тут уж точно чистой воды дорисовывание. По одному кадру безо-всякого блендинга картинка подается в нейронку и на выходе получается та размазня, что в примере с птицей на картинке справа. Да, в статье продемонстрированы впечатляющие результаты и предлагаются интересные, на мой взгляд, идеи, но немного поигравшись с их моделями я был несколько разочарован. Да, результат апсемплинга выглядит лучше любых интерполяций, но при увеличении большем, чем авторы использовали при обучении, получается треш (хотя авторы в качестве одного из преимуществ их подхода приводят возмодность апскейлить далеко за пределы масштабов, использованных при обучении)
-- Василий Иванович, а что такое эротика?
-- Эротика, Петька, это когда на порно уже сил нет.
А при чем тут Colab?
В смысле, зачем делать на нем акцент в КДПВ и введении, если далее по тексту нет ни ссылок, ни туториалов конкретно касательно колаба, ни вообще чего бы то ни было релевантного?
Спасибо большое за статью - очень кратко и доходчиво!
Вот в этом месте не очень понятно, что такое лямбда, в том смысле, что в формулах выше этот параметр под таким обозначением не фигурировал.
Можно ещё так сделать: пробурить скважину через землю насквозь, кинуть туда рельс и разгоняться туда-сюда - это избавит от многих проблем. Правда, насчёт Кориолиса не уверен, но тут нужна расчёты.
В принципе, резонное замечание. Я в архитектуру сети не вникал, но если она оперирует эмбеддингами нот, то ни о каких dXdY речи идти не может.
Ответил в треде выше.
Приведу весьма утрированный пример, объясняющий, на мой взгляд, почему аугментировать лучше, чем приводить в одну тональность. Повторюсь, пример утрированный, и может показаться неубедительным, но я попытаюсь.
Предположим, у нас есть датасет, в котором всего две мелодии. В одной из мелодий встречается паттерн, состоящий из трех нот, скажем, XYZ. В другой мелодии нет ни одного фрагмента, где бы за нотой X следовала бы нота Y. В таком случае, модель выучит, что после нот XY должна следовать нота Z, и никак иначе.
Далее, предположим, что во второй мелодии есть паттерн X'Y'W', где ноты X' и Y' отличаются от нот X и Y на одинаковое число полутонов, а W' никак не коррелирует с Z. Если мы аугментируем выборку, транспонировав вторую мелодию на соответствующее число полутонов, то получим паттерн XYW, который тоже благозвучен, как и XYZ, и теперь модель способна выучить распределение для XYZ и XYW, а также для X'Y'W' и X'Y'Z'.
Безусловно, это (почти) всегда лучший вариант.
Аугментации нужны не для того, чтобы добавлять "новые паттерны", а, скорее напротив, чтобы нивелировать влияние не значимых признаков. Вы пишете, что "Повышение на 1-2 тона вообще ничего не меняет с точки зрения сочинения и восприятия музыки." - т.е. тональность как раз относится к не значимым признакам.
3.5k примеров - маленький датасет для обучения. Видимо, другого способа расширить выборку, не зааффектив при этом мелодичности, кроме как подвигать тональности, автор не придумал. Что бы Вы могли предложить?
Так в том-то и дело, что если "Повышение на 1-2 тона вообще ничего не меняет с точки зрения сочинения и восприятия музыки." то для модели такая аугментация нужна, чтобы она не оверфитилась на определенную тональность (если я правильно употребил этот термин) и могла генерировать одинаковые паттерны в разном диапазоне.
ну а что дают аугментации яркости для картинок? Сюжет-то тот же остается:)
КДПВ из оригинала, но да, подмечено верно)
Ну среди этих вообще сложно выбрать один любимый.
А Вы случайно ничего не слышали про "бабки"? Не исключаю искажения воспоминаний, но, помнится, примерно как раз в период популярности фишек в наших школах (я был как раз возраста ЦА) мой дед, 1908 года рождения, рассказывал, что когда он учился в школе, они играли в "бабки". Хоть убей не помню, что из себя представляли эти самые бабки, но описанная механика игры почти в точности повторяла механику фишек, кажется, с битой. Меня тогда поразила мысль, что в начале века играли в то же, что и в конце.