Комментарии 25
Помимо призов, морального удовлетворения и повышения скилла что-то ещё принесло вам призовое место?
+2
С материальной точки зрения следует выделить повышенное внимание со стороны работодателей, которое в итоге весьма быстро вылилось в новую работу.
+2
Если это не секрет, то можно подробней и о «внимании» и о последующем.
+1
Точные цифры тут приводить не буду, но количество предложений от рекрутеров выросла и количественно, и качественно. «Рассказать о себе» теперь на собеседовании можно больше и это воспринимается с большим уважением и интересом, чем раньше. Появились новые интересные знакомства с людьми, которым интересен Kaggle и machine learning. В целом, я бы сказал, что такого рода достижение в глазах окружающих выполняет ту роль, которую должен выполнять диплом, то есть является подтверждением того, что человек профессионал в своей области.
+1
komelianchuk, правильно я понял, что писать код для Kaggle нужно на Питоне?
0
Захватывающее чтиво. Вітаю з перемогою
А где видео с
>подготовили презентацию и выступили для Kaggle комьюнити в Киеве
?
И где оно собирается — пароли, явки, чатики?
А где видео с
>подготовили презентацию и выступили для Kaggle комьюнити в Киеве
?
И где оно собирается — пароли, явки, чатики?
-2
Спасибо.
Есть вот такое сообщество в ФБ
Собственно у администраторов можно получить пароль от видео и прочую полезную информацию касательно встреч.
Но насколько я знаю качество нашего видео оставляет желать лучшего. (не видно презентации)
Есть вот такое сообщество в ФБ
Собственно у администраторов можно получить пароль от видео и прочую полезную информацию касательно встреч.
Но насколько я знаю качество нашего видео оставляет желать лучшего. (не видно презентации)
0
Под объединением/укрупнением команд имеется ввиду объединение независимых результатов (ensembling) и идей на заключительной стадии? Ваш основной метод построения модели был основан только на xgboost, или Вы использовали и другие пакеты (RF (RandomForest), плюс еще какая-то экзотика на удачу)?
0
Sorokinv,
Если быть совсем точным, то наше финальное решение это weighted average трех отличных между собой ансамблей, которые отличались между собой кросс-валидацией, количеством и параметрами моделей 1-го уровня и входящими переменными. Добавил визуализацию на картинке ниже.
.
Под объединением/укрупнением команд имеется ввиду объединение независимых результатов (ensembling) и идей на заключительной стадии?
Если быть совсем точным, то наше финальное решение это weighted average трех отличных между собой ансамблей, которые отличались между собой кросс-валидацией, количеством и параметрами моделей 1-го уровня и входящими переменными. Добавил визуализацию на картинке ниже.
.
0
Sorokinv,
В качестве моделей первого уровня использовалось порядка десятка разных моделей с разными наборами параметров. Лучшей отдельной моделью была baggingRegressor(xgbRegressor). Экзотики тоже были. Некоторые из моделей первого уровня приведены на картинке ниже.
Ваш основной метод построения модели был основан только на xgboost, или Вы использовали и другие пакеты (RF (RandomForest), плюс еще какая-то экзотика на удачу)?
В качестве моделей первого уровня использовалось порядка десятка разных моделей с разными наборами параметров. Лучшей отдельной моделью была baggingRegressor(xgbRegressor). Экзотики тоже были. Некоторые из моделей первого уровня приведены на картинке ниже.
0
Спасибо, за ответ. Смотрю Вы даже NN пытались подтянуть через Keras, хотя вряд ли они дают эффект на таких задачах, но интересно. Поздравляю с результатом :)
0
Очень интересно, читал на одном дыхании!
0
Поздравляю!!! 3 место из 2125! Очень круто)
0
Огромное спасибо за статью! После того как посмотрел рассказ Андрея Кирьясова, который занял 6 место, очень ждал подробностей от вашей команды. Прочитал на одном дыхании! :)
0
А это вообще частое правило в конкурсах что датасеты нельзя модифицировать и нужно указывать все источники данных? Я правильно понимаю что нужно указать даже использованные частотные словари, иначе становишься нарушителем правил? В чем тут вообще логика организаторов?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Kaggle: История о том как мы учились предсказывать релевантность поисковых запросов и заняли 3-е место