ой как близка. Спустя несколько лекций открыл Artificial Intelligence: Modern Approach в русском переводе и растерялся: о чем это вообще?
Вчера с трудом разделался с финальным экзаменом, и ощущение, что закончилось что-то большое и важное, до сих пор не отпускает. Отличный опыт, поздравляю всех, кто принимал участие. Быть может, соберусь написать слегка сентиментальную статью по пройденному.
Честно говоря меня очень удивляет как некоторые участники проявляют столько усилий, чтобы с возмущением доказать что некоторые вопросы можно было понять некоторым невероятным образом. И все это ради пары процентов в практически ничего не значащей бумажке.
Я-то дурак думал, что основная польза в знаниях, которые я получил, а не в виртуальных процентах.
Люди обеспечивают обратную связь. Как уж умеют. Может быть поэтому в следующий раз вопросы будут сформулированы лучше. Не вижу в этих их действиях ничего достойного осуждения.
Мне попадалось что-то типа «последовательный метод монте-карло», но это ни о чем. Правда, фильтр частиц тоже не о том. Метод называют фильтром по аналогии с фильтрами Калмана, но как-то смысл ускользает.
есть русская версия книги AIMA
я даже скачал. Они весь курс по ней читали. Но это особо не помогло, если честно. Для меня так и осталось неясным то, как реализовать PF на практике после первого же взвешивания
Думаю, что скорее фамилия его читается как Трун если с немецкого (он, вроде, немец) или Тран если на американский лад (именно этот вариант встречался на Хабре).
да, о много тем не охватил, я бы очень хотел услышать о Deep Learning (он спец по этому), Energy learning и вообще о самых современных и популярных темах.
Закончились эти, с января стартуют другие, интересно кто куда думает, сам буду слушать ML (не слушал еще), NLP и Probability Graph Models. Послушал бы и теорию игр, да и так перебор уже.
На мой взгляд они сделали, все, что могли, т.к. ИИ настолько обширная тема, а слушатели курса — самых разных категорий. Хорошая отправная точка для человека, собирающегося работать с ИИ
А я от ai-class в восторге. А ml-class тоже хорош, но меня несколько утомляла манера профессора Ng все жевать как для первоклассников. Ai-class самое то что надо для меня с точки зрения подачи материала.
> То есть, получается, что информация представляется в мозге всегда только небольшим количеством активных нейронов из всех имеющихся там. Это, по-видимому, позволяет мозгу делать обобщения,…
Думаю, активация небольшого количества нейронов энергетически выгодна. В противном случае, мозг сварился бы. Кстати, напрашивается аналогия с темой "темного кремния" в современных чипах.
> В головном мозге между нейронами, расположенными в одном слое имеется большое количество «горизонтальных связей».
Исходя из этого, можно предположить большое количество обратных связей в цепочках нейронов. В таком случае, если допустить активацию нейронов выше допустимого — получим цепную реакцию активации нейронов, что повлечет нечто вроде эпилептического припадка.
Чему нас не научил профессор Ng