Pull to refresh
49
0
Борис Янгель @hr0nix

User

Send message
Господа, я попал в дурацкую ситуацию: в процессе переезда между компами я потерял исходники и базу знаний от этого проекта. Не мог бы кто-нибудь из тех, кому я отправлял исходники и базу, переслать мне их обратно? =)
Я вас отправлю вот сюда =)
Не знаю, насколько я умный, но подсказать могу.

P(<Qj,Ans>|Ai) дословно читается как «вероятность того, что на вопрос Qj был дан ответ Ans при условии, что загадан был Ai. Эту вероятность мы оцениваем на основе предыдущих ответов пользователей как долю ответов Ans на вопрос Qj про Ai среди всех возможных ответов на этот вопрос для Ai.
Про гравитацию же бред. А слабое взаимодействие не слишком перетянули, не?
Хорошая книжка, присоединяюсь.
Круто. Кажется, где-то еще нужно написать, что эта структура данных meldable, но не mergeable.
Некоторые люди склонны считать, что если они столкнулись с каким-то большим (по их мнению) числом, они вправе приплести туда ЗБЧ. Некоторые люди невежественны.
Из области машинного обучения. Тебе даны реализации некоторой функции (в данном случае, релевантности от документов), тебе надо по реализациям научиться считать похожую функцию для новых документов. Как научишься — посчитать и отправить ее значения.

Я все упрощаю, конечно. Кроме pointwise есть еще pairwise и listwise.
Я, правда, описался =) Само число n! растет не медленнее, чем exp(n), поэтому длина числа растет не менее чем линейно от n.
Задача про числа Фибоначчи вообще ужасная. Строго говоря, длина числа растет как exp(n), следовательно за O(log n) даже вывести n-e число не получится, не то что посчитать. А если скажут ограничиться, скажем, 64-битными числами, то для них задача решается за O(1) с заранее подготовленной таблицей (чисел там не очень-то много).

А если имеется в виду решение с матрицей
1 1
1 0
(в частности, с ее разложением по собственным значениям), то это, имхо, не очень хороший тест чего-либо. Если вы не знали решение заранее, придумать его на собеседовании будет крайне сложно.
В списке решаемых задач классификация — это слишком узко. Например, незаслуженно забыта регрессия. Я бы предложил заменить на что-то типа «восстановление неизвестной зависимости по ее реализациям».
Все лекции снимаются на видео и выкладываются на закрытую вики. В принципе, это позволяет на лекции особо не ходить, если очень уж тяжело в такое время. Я первый семестр закончил (довольно неплохо), появившись только на открытии школы. Это, впрочем, не надо понимать так, что учиться там легко.

Еще нужно отметить, что там лекции читают очень интересные люди: Альберт Ширяев, Алексей Червоненкис. А лекции Максима Бабенко по структурам данных и алгоритмам вообще лучшие ИМХО.
Вы заставляете математиков плакать.
Вот вы все время говорите о какой-то бинарной сортировке. Никогда не слышал про такую. Проясните?
А мне больше нравится " Параллельные миры. Об устройстве мироздания, высших измерениях и будущем Космоса" by Митио Каку. Она несколько полнее, глубже, и при этом все такая же понятная.
Там есть столовая в соседнем здании. В 5 минутах ходьбы — метро с кучей кафешек. В 10 минутах — Ашан-Сити, где кафешек еще больше.
Надумали что-нибудь? )

Если не секрет, где вы учились / что заканчивали / откуда столько одноклассников по заграницам?
Ага, про это как раз и было в статье, на которую я выше дал сссылку (правда, не у всех есть доступ к ACM DL). А еще там было эмпирическое сравнение с описанным в этой статье подходом.

Information

Rating
Does not participate
Location
Cambridge, England - East, Великобритания
Works in
Date of birth
Registered
Activity