Как стать автором
Обновить
40
0
Tyantov Eduard @EdT

Машинное обучение

Отправить сообщение
Headspace
Есть еще waking up и 10% happier
Это индивидуально, и многие находят для себя эффективный тип музыки. Для меня идеально — тишина, т.к. в любом случае звуки отвлекают и снижают производительность. Для работы в случае шума использую звуки природы www.noisli.com (шум ветра).
По поводу первой части — комментов нет, это специфика, и она мне незнакома.
15-20 лет горизонт нынче слишком далекий, чтобы быть в чем-то уверенным, стараюсь сохранять открытость и постоянно учиться.
Эффективность будет снижаться разумеется (есть даже концепция 80,000 часов отведенных на карьеру), но опыт и широта взглядов при должном умении постоянно познавать новое должны оставаться ценными.
План отхода — капитал, который будет все больше значить по мере автоматизации труда.

> Как вы считаете, с точки зрения руководителя, стоит ли повышать сотрудника который очень хорошо справляется со своей работой?
Развивать своих сотрудников (говорю про IT) — очень важная часть работы руководителя.

>Есть ли у вас собственный проект в котором вы являетесь СЕО или вы больше исполнитель?
не-а
Согласен с вами.
Я так сделал изначально, потому что у меня в моменты усталости начала срабатывать автоматика на новости/фейсбук, после этого паттерн сломан. Потом я заметил, что иногда я более сознательно хочу что-то почитать, но в процессе ввода пароля и комментирования строк, иногда понимаешь, что это не то, что нужно в этот момент, и закрываешь.
Я не артикулировал позицию напрямую, но разумеется я не согласен, что экспертность самое важное. Но тем не менее гораздо эффективнее управляется, если ты понимаешь детали происходящего, тогда ты сможешь почелленжить в нужных местах, лучше направить и определить приоритеты.
Можно и так, и так. Смотря как проект хранит у себя фотки. В Облаке@Mail.ru по файлам, т.к. детект и рикогнишен спарены в backend'е.
Привет,
Миграция. Можно сделать совместимым вектора разных моделей, если примешивать вовремя обучения embedding из предыдущей версии модели использовать во время обучения новой (Harmonic regularization). Но мы так не делаем, т.к. качество, разумеется, страдает у новой модели.
Мы версионируем свои модели, и при выпуске новой модели (это редкое событие на самом деле) делаем влоб: репарс всего. Логика репарса на стороне клиента.
Пороги. Там, где мы сами рекомендовали конкретные значения, то выдаем новыми. Мы их подбираем на основе распределения на выборках, поэтому просто запускаем скрипт подбора еще раз.
1. Если использовать softmax + crossentropy, то это обеспечивает нам только лишь разделимость пространства, нет никакого сигнала для «сжимания кластера». Можно глянуть как это выглядит с и без center loss в оригинальной статье image
Почему это важно? а) мы фитимся на данные, на тесте/проде могут быть произвольные данные, и в таком случае чем компактнее наши классы в метрическом пространстве, тем меньше вероятность ошибки или пограничного случая на новых данных. б) на самом деле улучшается разделимость, т.к. граница прочищается

2) С косинусом есть проблема у оригинального SphereFace (AngularSoftmax), лосс которого модифицировали, чтобы он был монотонным, image. И из-за перегибов куча проблем со сходимостью, с которыми надо бороться с помощью различных прогревов.
ArcFace этим не страдает, т.к. в рамках Пи косинус монотонный, а смещение лишь на пол радианы
Хай, не доводилось
Смотри, есть два случая высоконагруженные сервисы и нет.

Для высоконагруженных надо оптимизировать все что можно. В частности
1) есть не только операции на GPU есть рисайзы, пре-процессинг, пост-процессинг. Все эти операции разумеется будут быстрее на С++, чем на питоне. Их не унести все на GPU и они бывают бутылочным горлышком
2) Плюс на высоких нагрузках питон не выдаст тебе столько запросов в секунду. У нас много бекендов на питоне, и в итоге из-за производительности мы их переписываем либо на Go, либо на C++.

Для низконагруженных — подход с докерами и питоном хорош, и мы используем его для экспериментов и не нагруженных моделей. Например, 9may.mail.ru сделан на питоне, но там нагрузки не 5000 запросов/с, как на моделей для Облака@. Для ускорения экспериментов планируем развивать этот подход с KubeFlow
Хай.
1) Размерность обычно 128 или 512, это не так много, проблем не возникало
2) Не понял почему смешиваем. Мы просто кластеризуем с ужесточенным порогом (относительно обычного при принятии решения «один человек на этих двух фотках или нет»), чтобы кластер с большой вероятностью был не фолзовый. Поэтому мы наоборот откидываем шум, но также и реальные фотки пользователя, которые по мере улучшения модели перестанут откидываться.
Это показывает насколько сильно они в это вкладываются. Думаю Andrew Ng там все нормально выстроил, учитывая что у Baidu самый лучший speech recognition считается, то результаты там есть также.
Фейсбук все публикует и опенсорсит, а то, что происходит в Байду менее известно.
Вон тот же KungPeng из Алибабы, никто про него не знал, и они не рассказывали пока не внедрили в 100 продуктов.
У человека есть лимит в распознавании, если модель превышает его, то толку от человека больше нет, разметил выборку вначале и все. В принципе модели может быть достаточно слабых сигналов (что человек заболел через год раком, например), при большом кол-ве данных будет достаточно. Современный тренд использование unsupervised обучения, так что отсутствие специалистов, кажется, не проблемой.

Сам участвовал в конкурсах по распознаванию узи и томографии — человеческих ошибок там тьма, сеть явно лучше работает.
Технические детали www.slideshare.net/Eduardyantov/artisto-app-highload-71242406 в аппендиксе с 60 слайда. Использовали торч, карты nvidia 1080, titanx, платформы micro под 4 карты.
torch, caffe, tensorflow хороши для инференса в проде. caffe считается самым быстрым, его еще можно ускорить если заюзать nvidia tensorrt

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Работает в
Зарегистрирован
Активность