Думаю, что крупные румы не грешат такими вещами, но то, что Вы говорите, что хорошая карта выпала два раза из такого количества раздач - тут стоит задуматься)
Нужно знать фреймворки, которые приняты в команде. Если вы до этого делали fit на керасе, а потом внезапно пришли в команду, которая работает на pytorch, уйдет много времени на обучение работе с новыми инструментами
@Emelian и @Javian , не нужно к этому проекту относится как к коммерческому. Я знаю, что эту задачу можно решить гораздо проще и качественнее( в начале статьи даже пример указал), я просто хотел показать, что данную задачу можно решить используя компьютерное зрение
Разработка парсера заставит разобраться с тем, что такое, зачем нужны и как работают сетевые протоколы HTTP/HTTPS.
Я когда начинал программировать, то тоже писал парсера, при чём на заказ. Но, к сожалению, это не дало мне понимания как работают сетевые протоколы(только прям уж очень базовые знания). Другое дело, написать свою библиотеку для парсинга, но это не для начинающих:)
Что касается веб-фреймворка, то я бы начал изучение с фласка. Всё-таки у джанго уже много чего из коробки. В целом подборка хорошая:)
Да, я понимаю, что это ограничительные рамки для первичной детекции, но всё равно выглядит как оптимистичный сценарий, как по мне. Хотя, если прям не отрываться от компьютера и нет высоких требований к разметке, то 500 фотографий, наверное, вполне реально. В любом случае, это мелочи, а статья действительно классная - спасибо большое автору!
Ещё можно было и размер картинки меньше передавать на вход , что тоже , скорее всего, уменьшило время работы алгоритма, но в конце статьи я написал, что все вычисления проводились на основании дефолтных параметров. Под этим имелось также, что никаких оптимизаций с точки зрения времени не делалось)
Справедливо)
Но всё могло быть куда хуже)
Почему?)
Суть вашего алгоритма такая же как и у меня, только у вас, наверное, было куда больше эвристик
Согласен, на маленьких ставках оппоненты часто ведут себя непредсказуемо)
Хммм...
Думаю, что крупные румы не грешат такими вещами, но то, что Вы говорите, что хорошая карта выпала два раза из такого количества раздач - тут стоит задуматься)
А что за рум?
Не знал, но догадывался про существование таких программ. Они же платные?
Я это учитывал, поэтому написал абстрактный класс, чтобы в дальнейшем была возможность написать решение для других румов
На данный момент из аналитики имеется только эквити, если добавить ещё пару вкусностей, то вполне увеличит:)
Потому что если вы хорошо знаете керас, а потом переходите на торч, то много сил у вас это не займёт. Говорю, исходя из личного опыта
Не уйдёт.
Спасибо большое за статью! Вот, кстати, статья на похожую тему - https://habr.com/ru/post/508700/
@Emelian и @Javian , не нужно к этому проекту относится как к коммерческому. Я знаю, что эту задачу можно решить гораздо проще и качественнее( в начале статьи даже пример указал), я просто хотел показать, что данную задачу можно решить используя компьютерное зрение
Нет, моделька обучалась детектировать именно текст ютубовских субтитров
если брать авито, то так и будет)
Что ж, предлагаю тогда написать сначала свой сайтик на джанге, а потом всю инфу с него спарсить
Я когда начинал программировать, то тоже писал парсера, при чём на заказ. Но, к сожалению, это не дало мне понимания как работают сетевые протоколы(только прям уж очень базовые знания). Другое дело, написать свою библиотеку для парсинга, но это не для начинающих:)
Что касается веб-фреймворка, то я бы начал изучение с фласка. Всё-таки у джанго уже много чего из коробки. В целом подборка хорошая:)
За мемчики лайк:)
https://www.youtube.com/watch?v=xfH2QMdCvWA - вот видео близкой тематики. Также на этом канале можно ещё парочку видео найти похожего содержания
Да, я понимаю, что это ограничительные рамки для первичной детекции, но всё равно выглядит как оптимистичный сценарий, как по мне. Хотя, если прям не отрываться от компьютера и нет высоких требований к разметке, то 500 фотографий, наверное, вполне реально. В любом случае, это мелочи, а статья действительно классная - спасибо большое автору!
Сотку бы за час разметить - уже было бы хорошо
Ещё можно было и размер картинки меньше передавать на вход , что тоже , скорее всего, уменьшило время работы алгоритма, но в конце статьи я написал, что все вычисления проводились на основании дефолтных параметров. Под этим имелось также, что никаких оптимизаций с точки зрения времени не делалось)
Жду Pull Request:)