Господа, я попал в дурацкую ситуацию: в процессе переезда между компами я потерял исходники и базу знаний от этого проекта. Не мог бы кто-нибудь из тех, кому я отправлял исходники и базу, переслать мне их обратно? =)
P(<Qj,Ans>|Ai) дословно читается как «вероятность того, что на вопрос Qj был дан ответ Ans при условии, что загадан был Ai. Эту вероятность мы оцениваем на основе предыдущих ответов пользователей как долю ответов Ans на вопрос Qj про Ai среди всех возможных ответов на этот вопрос для Ai.
Некоторые люди склонны считать, что если они столкнулись с каким-то большим (по их мнению) числом, они вправе приплести туда ЗБЧ. Некоторые люди невежественны.
Из области машинного обучения. Тебе даны реализации некоторой функции (в данном случае, релевантности от документов), тебе надо по реализациям научиться считать похожую функцию для новых документов. Как научишься — посчитать и отправить ее значения.
Я все упрощаю, конечно. Кроме pointwise есть еще pairwise и listwise.
Задача про числа Фибоначчи вообще ужасная. Строго говоря, длина числа растет как exp(n), следовательно за O(log n) даже вывести n-e число не получится, не то что посчитать. А если скажут ограничиться, скажем, 64-битными числами, то для них задача решается за O(1) с заранее подготовленной таблицей (чисел там не очень-то много).
А если имеется в виду решение с матрицей
1 1
1 0
(в частности, с ее разложением по собственным значениям), то это, имхо, не очень хороший тест чего-либо. Если вы не знали решение заранее, придумать его на собеседовании будет крайне сложно.
В списке решаемых задач классификация — это слишком узко. Например, незаслуженно забыта регрессия. Я бы предложил заменить на что-то типа «восстановление неизвестной зависимости по ее реализациям».
Все лекции снимаются на видео и выкладываются на закрытую вики. В принципе, это позволяет на лекции особо не ходить, если очень уж тяжело в такое время. Я первый семестр закончил (довольно неплохо), появившись только на открытии школы. Это, впрочем, не надо понимать так, что учиться там легко.
А мне больше нравится " Параллельные миры. Об устройстве мироздания, высших измерениях и будущем Космоса" by Митио Каку. Она несколько полнее, глубже, и при этом все такая же понятная.
Ага, про это как раз и было в статье, на которую я выше дал сссылку (правда, не у всех есть доступ к ACM DL). А еще там было эмпирическое сравнение с описанным в этой статье подходом.
P(<Qj,Ans>|Ai) дословно читается как «вероятность того, что на вопрос Qj был дан ответ Ans при условии, что загадан был Ai. Эту вероятность мы оцениваем на основе предыдущих ответов пользователей как долю ответов Ans на вопрос Qj про Ai среди всех возможных ответов на этот вопрос для Ai.
Я все упрощаю, конечно. Кроме pointwise есть еще pairwise и listwise.
А если имеется в виду решение с матрицей
1 1
1 0
(в частности, с ее разложением по собственным значениям), то это, имхо, не очень хороший тест чего-либо. Если вы не знали решение заранее, придумать его на собеседовании будет крайне сложно.
Еще нужно отметить, что там лекции читают очень интересные люди: Альберт Ширяев, Алексей Червоненкис. А лекции Максима Бабенко по структурам данных и алгоритмам вообще лучшие ИМХО.
Если не секрет, где вы учились / что заканчивали / откуда столько одноклассников по заграницам?