Pull to refresh
22
0
Моисеенков Алексей @darkolorin

Deep learning product newbie

Send message

Когда-то самым популярным алгоритмом на интервью в Google было вот это чудо - https://en.wikipedia.org/wiki/Seam_carving
Я вообще узнал о нем во время интервью :)

Немного оффтопик. Самым модным направлением сейчас является так называемый голографический принцип. Про него есть замечательные мемы от Илона Маска(там правда про AdS/CFT соответствие если быть точным). С точки зрения математики(а именно она последнее время предсказывает развитие физики) он элегантен, хоть и сложен для глубокого понимания.
Тем, кто интересуется: недавно вышла замечательная книга Роджера Пенроуза про современную физику и модные в ней теории и подходы.
Отличная статья.

К слову на рекламу не было потрачено ни доллара. Можете попробовать найти ее или что-то в этом духе. Весь рост органический.

Спасибо! Но мы конечно не соц сеть делаем в прямом смысле этого слова. Да и не про фоточки как таковые. Будем пробовать!

Не понял вас. Мы запустили перенос стиля, что и есть запуск нейросетей на мобильном и это было за пол года до запуска Fabby. Через сервер сделаны стили для того, чтобы медленные устройства смогли их обработать.

Про выделение фона речи не было. Мы его сделали примерно весной, впустили чуть позже. Мы запустили style transfer собственно говоря. Алгоритм тоже построен на нейросетях. Первый успешный запуск был в конце июля/начале августа. Релиз в сентябре кажется.
Вклад fabby и других ребят не отрицаю. У них отличная команда.

Вы не правы. Алгоритм deepart имеет в себе не только проход вперёд сетке, но шаг обратно(избегаю терминов). И его ускорить ну никак не выйдет до той скорости которую мы достигли. Наша идея близка к идее fast style transfer от Johnson. Смысл был в том, что мы сделали предобученные модели для стилей и гоняли сетку только вперёд поэтому и вышло так быстро. Далее на мобиле запускать не так быстро, поэтому пришлось ещё более облегчать модель и писать движок на metal. В тот момент, когда мы его прошлым летом писали аналогов не было(ну я не нашёл, может и были). Примерно такая история. В целом это уже сто раз обсуждали и легко найти в интернете.

Ну все-таки просто "гитклонить" это даже обидно звучит. Я нигде не утверждал, что мы изобрели что-то уникальное, дело в оптимизациях и тюнинге. Мы все-таки больше делаем продукт, чем исследование. Но исследованием немного занимаемся.
Статья отличная.

А ему надо посещать другие сайты? То есть гипотеза сразу одобрилась и все уверены, что тебе нужно читать еще какие-то похожие на твои любимые темы ресурсы? Тогда мы приходим к предположению, что часто на похожих на твои ресурсы постят то, что ты не читаешь, а это как бы противоречит правилу современной журналистики. Часто на всех сайтах выходят те же самые новости и статьи. Но допустим, что на другом похожем ресурсе есть то, чего нет на моем. Это ведь легко посчитать по основным темам.
Что будет если вывести рандом из статей с похожих на те, которые я и так посещаю? Проводили сравнение? Например в музыке часто рандом работает лучше чем композиция несколько алгоритмов.
Machine learning так еще никто не называл :)


Ну почему, вообще задача классификации это раздел обучения с учителем или без. Простите если вас это задело.

И так немного мыслей. То есть вся технология это:


  • какой-нибудь Tensorflow
  • обученная модель на русском языке для тэгирования текста, ну вот например
  • далее там надо распознавать картинки и текст на них, не вопрос — ловите вот
  • надо написать аннотацию к изображению, не вопрос вот
  • далее берем это все как признаки и делаем что-нибудь типа классификации или алгоритма ранжирования (тут столько вариантов как это сделать, что жуть)
    Если звучит слишком резко, то прошу поправьте. Google имеет полный набор инструментов, чтобы похожий пак алгоритмов собрать у себя на компе. Ну вот с выборкой и индексом правда могут быть проблемы.

По поводу онбординга, судя по тому, что там ограниченный набор, значит и весь индекс рекомендаций содержит ограниченный набор сайтов. Готов поспорить. То есть там не весь индекс Яндекса, а типа 1000-5000 сайтов с контентом.


Ну и наконец последние пять копеек в вижн. А не проще брать сайты из закладок пользователя или табло и выводить заголовки оттуда? Ну типа проверить гипотезу вообще :)

Я бы с удовольствием на добровальных началах помог бы, да и думаю многие жители Хабра внесли бы свой вклад хотя бы на начальном этапе.
Мои искренние поздравления!
Очень благодарен команде ресурса! Вы молодцы!
Желаю дальше развиваться!
Всем авторам выражаю свою благодарность! Вы несете знания в массы!
Кого-то с наступающим, кого-то с наступившим! Да прибудет с вами счастье!
Принцип Парето в действии
Ушел не просто великий человек, прошла эпоха. Безусловно талант которого никем не заменить.
RIP
Всех программистов и не только с праздником! И Всех кто учится по данному направлению тоже! Гип гип ура!
Всех всех с праздником!
Delta engine выглядит вкусно!
За обзор спасибо.
Уже убрал. Обязательно отпишу весь гнев, теперь уже по поводу вывода средств.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity