Pull to refresh
4
0
Дмитрий @pdima

User

Send message
если версию на питоне обернуть в @numba.jit, работает сравнимо с Nim, ускорение в 15 раз.
не очень удобно работать и переносить алгоритмы между питоном и большинством других языков когда индексация отличается. Ну и диапазоны / разделения более понятные когда верхняя граница не включается (например отбросить последние 2 элемента a[:-2], длина диапазона равна разнице между индексами)
Кричать на площади например про Тяньмэнь — никак не оскорбление, 100% цензура.
Вот за что нетривиальные скрипты баш не люблю, ну как такое читать.
${!arr[*]} против например arr.keys()
Не тратьте свое и мое время. Я отвечу на большинство «заумных вопросов» простыми словами, как и нужно делать профессионалу. И даже опишу более сложные концепции.


Пока единственный ответ который я увидел был «Заигрались вы». А хотелось бы узнать что в оригинальной публикации по retinanet такого выбросили авторы:
Автор сделал жесткий dropout ТОПовых сетей для ImageNet. Убрал кучу нужных ветвей и слоев и говорит об эффективности на порядок.
Retinanet там внутри либо нет уже делали реализации, Retinanet используют но такие подробности уже под NDA
Извините, но какой-то бардак в голове. Откуда мысль про жесткий dropout (прунинг наверное)? Желательно цитатой с оригинального пейпера по retinanet.
расскажите конечно
Ауги не в архитектуре сети а в подготовке данных при тренировке. Независимо от архитектуры.
именно retinanet? Неплохая архитектура для любых задач detection (нахождения объектов). Очень простая архитектура, с ней просто работать и затачивать под задачи, хотя с времени публикации появились и более сильные решения. Лично я последний раз использовал для определения пневмонии на рентгеновских снимках: arxiv.org/pdf/2005.13899.pdf
Я возможно не правильно понял вопросы, они о ретинанет либо о мозге? Во время тренировки обычно картинки случайно преобразовываются (как раз случайные аффинные преобразование, случайные преобразования цветных каналов, шум итд), так что очень существенного падения метрик при сравнимых изменениях тестовых картинок (например поворотах на 20 град, 1.5х масштаб, умеренном шуме) не должно быть.

Возможно специально подобрать шум (изменения) который будет сильно влиять на результат, но я не думаю что вопрос был про adverserial атаки.
В Тесле фундаментально такой же подход, один похожий backbone + разные декодеры/выходы под разные задачи.
Мозг натренировался на огромном датасете, с чем не встечался то и плохо распознает (произношение других народов например, перевернутый текст), с реснетами такая же история.
CNN дают инвариантность только по сдвигу, и то не любому (после пулинга будет инвариантность только по шагу последнего слоя например), все остальное достигается грубой силой — увеличение сети и датасета, включая аугментации как раз по перечисленным изменениям. В результате работает. Мозг так же не всегда инвариантен к таким изменениям, читать по вертикали чибо перевернув текст не так удобно например.
Навеное ворос ближе к «А почему Израиль» получил бы менше (имхо незаслуженных) минусов в стравнении «А что вы имеете против Израиля?» (немного агресивная формулировка, предполагает что автор имеет что-то против Израиля).
Собрали отличный датасет, многим было бы интересно использовать. Eсли лицензия позволяет стоит загрузить например на www.kaggle.com/datasets

А почему решили использовать именно классические подходы? Сюда CNN так и просится, потом ембединги очень интересно анализировать.
С Австралией и Новой Зеландией неплохо сравнить, для полноты картины.
Пример для Австралии, пенсионные фонды приблизительно так и работают, 9.5% зарплаты работодатель переводит в твой фонд (с пониженной налоговой ставкой, выгодно и самому делать доналоговые переводы, правда доступ к деньгам будет только после 65).

Доходность одного из основных фондов за последние 10 лет: www.australiansuper.com/compare-us/our-performance

Уровень инфляции: tradingeconomics.com/australia/inflation-cpi

Information

Rating
Does not participate
Location
Queensland, Австралия
Date of birth
Registered
Activity