Comments 36
Я с параллельного ai-class, и фраза
> Мы Стэнфордцы плохо знаем русскую терминологию
ой как близка. Спустя несколько лекций открыл Artificial Intelligence: Modern Approach в русском переводе и растерялся: о чем это вообще?
Вчера с трудом разделался с финальным экзаменом, и ощущение, что закончилось что-то большое и важное, до сих пор не отпускает. Отличный опыт, поздравляю всех, кто принимал участие. Быть может, соберусь написать слегка сентиментальную статью по пройденному.
> Мы Стэнфордцы плохо знаем русскую терминологию
ой как близка. Спустя несколько лекций открыл Artificial Intelligence: Modern Approach в русском переводе и растерялся: о чем это вообще?
Вчера с трудом разделался с финальным экзаменом, и ощущение, что закончилось что-то большое и важное, до сих пор не отпускает. Отличный опыт, поздравляю всех, кто принимал участие. Быть может, соберусь написать слегка сентиментальную статью по пройденному.
Ещё рано просто, там ещё битва за пересчёт очков не закончилась. :)
На мнение о курсе это может повлиять в большей мере, чем на результаты.
Честно говоря меня очень удивляет как некоторые участники проявляют столько усилий, чтобы с возмущением доказать что некоторые вопросы можно было понять некоторым невероятным образом. И все это ради пары процентов в практически ничего не значащей бумажке.
Я-то дурак думал, что основная польза в знаниях, которые я получил, а не в виртуальных процентах.
Я-то дурак думал, что основная польза в знаниях, которые я получил, а не в виртуальных процентах.
Я ai-class тоже прослушал, но ml мне больше понравился. А как по русски будет particle filters?
Меня тоже это волнует. Particle filtres это одна из тем, которую я так и не сумел грокнуть.
Норвиг с Тёрном (так?) тоже молодцы, главное первые несколько юнитов пережить.
да, о много тем не охватил, я бы очень хотел услышать о Deep Learning (он спец по этому), Energy learning и вообще о самых современных и популярных темах.
Хороший курс )
Закончились эти, с января стартуют другие, интересно кто куда думает, сам буду слушать ML (не слушал еще), NLP и Probability Graph Models. Послушал бы и теорию игр, да и так перебор уже.
Чувствую, не тот я заголовок дал. Поцоны, давайте уже мозги кошек обсуждать, что вы все о курсах да о курсах!
Мне вот эти Лекции по Machine Lerrning на русском больше понравились, чем Стэнфордский курс. И он написан на R, а не MatLab
А я от ai-class в восторге. А ml-class тоже хорош, но меня несколько утомляла манера профессора Ng все жевать как для первоклассников. Ai-class самое то что надо для меня с точки зрения подачи материала.
> То есть, получается, что информация представляется в мозге всегда только небольшим количеством активных нейронов из всех имеющихся там. Это, по-видимому, позволяет мозгу делать обобщения,…
Думаю, активация небольшого количества нейронов энергетически выгодна. В противном случае, мозг сварился бы. Кстати, напрашивается аналогия с темой "темного кремния" в современных чипах.
Думаю, активация небольшого количества нейронов энергетически выгодна. В противном случае, мозг сварился бы. Кстати, напрашивается аналогия с темой "темного кремния" в современных чипах.
> В головном мозге между нейронами, расположенными в одном слое имеется большое количество «горизонтальных связей».
Исходя из этого, можно предположить большое количество обратных связей в цепочках нейронов. В таком случае, если допустить активацию нейронов выше допустимого — получим цепную реакцию активации нейронов, что повлечет нечто вроде эпилептического припадка.
Исходя из этого, можно предположить большое количество обратных связей в цепочках нейронов. В таком случае, если допустить активацию нейронов выше допустимого — получим цепную реакцию активации нейронов, что повлечет нечто вроде эпилептического припадка.
Sign up to leave a comment.
Чему нас не научил профессор Ng