отдельная большая история = отличная статья, где всё по полочкам ;)
на самом деле мне, например, как новичку, очень интересно сравнение фрэймворков с OpenGL. Еще интересно сравнение производительности, удобства и прочего у канваса и OpenGL. Я прекрасно понимаю, что канвас далеко позади, но в определенных кейсах не хочется подключать большие либы к проекту.
Когда я сделал свою первую сеть на Tensorflow, она была корявой, но на 10 классах изображений я смог добиться 50% точности распознавания (было примерно по 1000 образов на класс). Тогда мне стало интересно визуализировать первый слой фича-экстрактора. Сделал. Там было что-то похожее на шумы. Я задумался, почему же там нет таких красивых картинок как в примерах? Стал искать инфу, оказалось что те примеры и были сгенерены человеком, а при обучении всего лишь немного видоизменяется рандомно инициализированная матрица. Тогда я поставил эксперимент, применив к первому уровню фильтры со второй картинки Kernel в статье. Результат остался примерно таким же. Может только скорость обучения немножечко выросла.
Я сделал для себя вывод:
не стоит пытаться подбирать кернелы, это занимает много моего времени, к тому же их размер очень сильно зависит от размера входа. При размере 28*28 — это матрица 3*3 или 5*5, при 256*256 — лучше работает 7*7. Можно, конечно иметь разные заготовленые размеры, но зачем? На скорость обучения это хоть и влияет, но не так чтоб прям сильно. Да и для каждой задачи лучше подбирать оптимальное количество кернелов. Для MNIST достаточно 16-ти, а то и 8-ми, для сложных образов 32 и выше.
Если не хочется тратить время на это, а хочется взять что-то готовое, то как вариант взять Inception-v3, её фича экстрактор очень даже хорош, и добавить нужных классов без переобучения экстрактора, такой метод называется fine-tuning.
На своем опыте прочувствовал, что скрам порождает, как следствие, анти-паттерн «Аналитики-паралитики».
Все начинают много говорить… как те цыгане на базаре.
Так а в чем же профит использования двух типов сетей в данном случае? Рекуррентность предполагает память, что же сеть помнит?
Имхо, теги можно получить просто используя обученную модель GoogleNet, а данную связку наглядно продемонстрировать можно было бы, например, научив сеть играть в простенькую игрульку, используя на входе картинку с экрана
Возможно это как-то настраивается?
на самом деле мне, например, как новичку, очень интересно сравнение фрэймворков с OpenGL. Еще интересно сравнение производительности, удобства и прочего у канваса и OpenGL. Я прекрасно понимаю, что канвас далеко позади, но в определенных кейсах не хочется подключать большие либы к проекту.
Хотелось бы продолжения про игровую анимацию.
Я сделал для себя вывод:
не стоит пытаться подбирать кернелы, это занимает много моего времени, к тому же их размер очень сильно зависит от размера входа. При размере 28*28 — это матрица 3*3 или 5*5, при 256*256 — лучше работает 7*7. Можно, конечно иметь разные заготовленые размеры, но зачем? На скорость обучения это хоть и влияет, но не так чтоб прям сильно. Да и для каждой задачи лучше подбирать оптимальное количество кернелов. Для MNIST достаточно 16-ти, а то и 8-ми, для сложных образов 32 и выше.
Если не хочется тратить время на это, а хочется взять что-то готовое, то как вариант взять Inception-v3, её фича экстрактор очень даже хорош, и добавить нужных классов без переобучения экстрактора, такой метод называется fine-tuning.
Вот линка на инструкцию:
https://www.tensorflow.org/tutorials/image_retraining
Все начинают много говорить… как те цыгане на базаре.
«Не люблю, б@я, цыган!»
«Большой куш»
Имхо, теги можно получить просто используя обученную модель GoogleNet, а данную связку наглядно продемонстрировать можно было бы, например, научив сеть играть в простенькую игрульку, используя на входе картинку с экрана
Разговорить его сможет только здоровая конкуренция.
Хотя, на самом деле, по-человечески, думаю ему просто обидно, что никто не читает тысячи страниц его стараний, вот и молчит.
за едубесплатно и всё такое.Возможно вам повезло, что не связались с ним, не факт что вы уложились бы в сроки, тогда бы прочувствовали все его методы на себе.