• Введение в состязательные сети
    +1
    Вы правы, спасибо.
  • Dive into pyTorch
    0
    А потому что картинки местами перепутал:)
  • Dive into pyTorch
    +1

    Спасибо, учту.

  • Dive into pyTorch
    +3
    В начале июня я проведу открытый вебинар на платформе Otus в котором расскажу какие задачи есть в разработке лекарственных препаратов и почему их можно решать с помощью нейронных сетей. В этой статье я показываю пример того как пользоваться pyTorch для того чтобы в следующих было понятно что вообще происходит. А в роли маленького винтика я действительно пишу относительно простые статьи в сравнении с тем что делают мои коллеги.
  • Dive into pyTorch
    +2
    Уже написал. Ваша очередь.
  • Нейронные сети в борьбе с раком
    0
    В самой статье есть отчет о том к каким классам относятся сгенерированные вещества, я, к сожалению, в этом пока очень плохо разбираюсь, но ваш комментарий вполне уместен. Мы обучали модель только на одной клеточной линии и соответствующих препаратах, было бы очень неожиданно если бы модель сильно вышла за рамки этой выборки. Это одна из причин, почему это proof of concept, а не доведенное до испытаний исследование. Сейчас мы работаем над более совершенными моделями и планируем реальные испытания.
  • Нейронные сети в борьбе с раком
    0
    можно, такой цели не было, чтобы получить действительно хороший результат недостаточно учесть только одну клеточную линию и препараты для нее. сейчас работаем над моделями которые позволят перейти к моделированию и к реальным испытаниям.
  • Нейронные сети в борьбе с раком
    0
    проверки чего? это in silico исследование в результате которого мы получили, что половина сгенерированных этой сетью молекул имеет отношение к раку.
  • Нейронные сети в борьбе с раком
    +1
    эта конкретная статья — proof of concept, все эксперименты, простите за каламбур, in silico. но динамику в целом для других исследований считаем да, очень медленно и упорно. в данном случае не было цели получить драг, но еще пара статей и начнем воплощать.
  • Как обучается ИИ
    +3
    Похоже, что одно является следствием другого.
  • Как обучается ИИ
    0
    А вы как определяете направление?)
    Вот, например, что думает об этом википедия: Стереофония
  • Кластеризация графов и поиск сообществ. Часть 1: введение, обзор инструментов и Волосяные Шары
    0
    1. Использовали оригинальную, которая micans.org и писали свою с доп.ручками. В итоге своя осталась в виде прототипа на питоне, потому что реально лучше не стало. В оригинальной версии основной параметр -I, чем он больше тем, кажется, более пологое распределение получается.
    2. Не пробовали, но обязательно попробуем, спасибо:)
    3. Мы пробовали разные метрики, сейчас для кластеризации доменов тоже используем Жаккара, его и называю симилярити. Идея в том, что даже мера Жаккара может быть интерпретированна по-разному в зависимости от данных. Может оказаться так, что <0.5 — не похожи, 0.5-0.75 немного похожи, 0.75-0.9 похожи и т.д. И сразу понятно, что зависимость не линейная.
    4. Пожалуйста:)
    5. graph-tool не пробовали, пока не дошли руки.
    6. Выбрали жираф, потому что на текущий момент намного меньше телодвижений для того чтоб его поднять и поиграться на кластере. Спарк тоже хочется, и с ним мы тоже поиграемся, но пока в прод не сможем запилить.
  • Кластеризация графов и поиск сообществ. Часть 1: введение, обзор инструментов и Волосяные Шары
    0
    1. Кластеризация которую выдает MCL сильно зависит от симилярити. В своем мануале они пишут что неплохо было бы чтоб она интерпретировалась линейно. То есть вдвое большее значение симилярити подразумевает вдвое большую «похожесть». Поэкспериментируйте с преобразованием исходных значений. Всякое логарифмирование или экспонирование может помочь. У нас mcl'евские кластера доменов активно используются, об этом я немного говорил на прошлом хайлоаде.
    Вообще, размеры кластеров на выходе этого алгоритма распределены похоже что по Ципфу, но нас это вполне устраивает. «Ручки» которые можно покрутить у алгоритма как раз меняют крутость распределения.

    2. В NetworkX действительно нет кластеризации по-дефолту, однако есть прекрасная, хоть и сыроватая, библиотека Community. Она реализует отличную вот эту статью. К сожалению, даже на тачке со 128 гигами оперативы, NetworkX не справляется с нашими графами, поэтому сейчас пилим тот же алгоритм под Giraph. Об этом я надеюсь 11го сентября в Киеве рассказать.
  • Иерархическая классификация сайтов на Python
    +1
    Полученные наборы токенов с метками далее случайным образом распределяются на обучающую выборку (60%), выборку для feature selection (15%) и тестовую выборку (15%), – она сохраняется в mongoDB.

    А оставшиеся 10% списываете на хоз.нужды?)
  • Moscow Python Meetup на тему «Async: why and when?» в офисе Rambler&Co
    +1
    быстро места кончились… :(
  • 5 трендов в области анализа и обработки данных в 2015 году
    0
    Как и всегда, после/во время кризиса 90% рынка откатится от дорогих и «перспективных» решений на проверенные и дешевые.
  • Как узнать больше о ваших пользователях? Применение Data Mining в Рейтинге Mail.Ru
    +1
    Крипта, фас!
  • Как мы кластеризуем подарки в ОК
    0
    В нашем случае помимо рекомендаций есть задача тегирования, выделения фич для других задач и еще много чего не озвученного.
  • Как мы кластеризуем подарки в ОК
    +1
    Матрица дарений настолько разрежена, что нормально ассоциативные правила можно применять на очень маленькой подвыборке. Но вопрос тут скорее в другом. Какую задачу вы предлагаете так решать?
  • Как мы кластеризуем подарки в ОК
    0
    Кстати вариант похожий по смыслу на «пересекающиеся кластера» мы делали с помощью LDA, но топики подарков получились так себе, из-за того, что Ципфа никто не отменял. Были подарки попавшие почти везде с большим весом. Ну и визуальное представление кластеров получалось не настолько крутым. В этом варианте семантика вылазит на поверхность.
  • Как мы кластеризуем подарки в ОК
    0
    Алгоритм дает однозначное сопоставление. По сути, алгоритм находит своеобразные центроиды и бьет пространство объектов на непересекающиеся области.
  • Как мы кластеризуем подарки в ОК
    0
    таргетирование… откуда оно тут взялось?)
    Люди редко хотят подарок просто так. Обычно они ищут его в поиске. Ранжирование поисковой выдачи с учетом персональных интересов и без учета очевидно будет отличаться. Насколько я знаю, пока что история дарений не учитывается. Но есть множество других факторов, например: поисковый запрос, пол, текущий праздник если он есть и т.д. Этот эксперимент можно считать одним из шагов в сторону персональной выдачи подарков.
  • Как мы кластеризуем подарки в ОК
    0
    Вопросы видимо появились после моего коммента.
    Как используем сейчас ответил ниже.
    Пересечения кластеров — пустое множество. Так как каждый подарок попадает ровно в 1 кластер.
    Но в целом, даже бинарный вектор длиной в кол-во кластеров и 1 там где из кластера дарился хотя бы один подарок — является неплохой фичей для наших рекламных задач.
  • Как мы кластеризуем подарки в ОК
    0
    Под коллаборативной фильтрацией вы здесь имеете в виду рекомендательные системы в целом или все-таки SVD над спарс матрицами? В общем случае рекомендательные системы это больше чем коллаборативная фильтрация.
    В этом конкретном случае, первое что получается запилить — это улучшение тегирования. Модераторы могут тегировать подарки не по-одному, а кластерами. Это в свою очередь улучшает ранжирование выдачи.
    К сожалению я не могу говорить про порядок числа реальных записей. Но для этого примера я брал примерно 200к разных подарков с медианой количества дарений в районе нескольких сотен.
  • Как мы кластеризуем подарки в ОК
    0
    обязательно:)
  • Как мы кластеризуем подарки в ОК
    +2
    А улучшение рекомендательное системы по вашему недостаточно высокая цель?)