Спасибо за ответ!
AIMA я читал, правда как ИИСП :) И упражнения не решал, т.к. LISP не знал.
Как-нибудь наверно вернусь и посмотрю на код.
Про векторные модели тоже посмотрю обязательно.
Я как-то нашёл ещё одну книгу, сам не читал, но сдаётся мне, что здесь Норвиг жжёт не менее :)
Если серьёзно, то для целей обучения Лиспу она наверно подходит ещё больше
Paradigms of Artificial Intelligence Programming: Case Studies in Common Lisp
Я бы сказал, что такой комментарий к статье получше, чем исходная статья.
Если бы выражался в стиле современной прессы — «убийца статьи» :)
А вы только на Clojure писали из лисп-подобных?
Не подскажете хорошую книгу для описания как применять Лисп на практике?
SICP я прочёл и примеры прорешал.
Вот хотелось бы всё-таки помимо теоретико-интеллектуального профита (улучшение кода LINQ, python и т.д.) получить ещё и практический.
Можно я тоже позанудствую?
В голове у нас существует оценка вероятности, а не вероятность.
Вероятность существует сама по себе и определяется объективными факторами, а не нашим знанием или незнанием.
Вы просто даёте байесовский подход к вычислению оценки вероятности.
А есть ещё частотный подход, и они до сих пор практически равноправны.
Согласен абсолютно с рекомендациями — теория без практики мертва.
Надо брать python и играть с данными.
Мне показалось, что коллега интересуется общими принципами работы машинного обучения.
Ведь для того же FE хорошо бы знать как оно там внутри устроено, чтобы понимать почему один признак хорошо делит классы, а другой кое-как.
Или например почему стоит делать бинаризацию.
Или почему один метод с данным набором признаков работает средненько, а другой блестяще.
Мне показалось, что лекции ШАДа очень хорошо совмещают классическую математическую школу с практическими особенностями алгоритмов в применении.
Если вдруг в процессе почувствуете, что где-то не хватает знаний теории вероятностей и математической статистики, возьмите книги Вентцель.
Или ещё сам Воронцов рекомендует прочесть М.Б.Лагутин «Наглядная математическая статистика».
В сети это всё есть.
Если понадобится, но не найдёте, напишите мне, я пришлю.
Если интересно, то я очень рекомендую посмотреть превосходные видеолекции Воронцова в ШАД.
По моему скромному мнению это один из лучших вводных курсов в машинное обучение — интереснее, чем у Ng.
Много объяснений механики алгоритмов и всё это не «зубодробительно-наукообразно».
Оптимизация, насколько я понимаю, это как раз направление научных разработок Воронцова.
Если память не изменяет, больше всего он говорит на эту тему здесь — Обобщающая способность. Методы отбора признаков.
Но, конечно, смотреть обязательно надо по порядку, от первой — там много взаимосвязанных знаний.
Ну и вообще в первой лекции хороший обзор всего поля этой области науки.
Кроме того, есть печатные материалы к этому курсу в pdfах.
Много полезного лежит здесь MachineLearning.ru
От себя добавлю — это на самом деле интересная штука :)
Классическая постановка задачи машинного обучения ставится так.
Есть обучающая выборка как эталонное поведение объекта.
По-человечески говоря, это примеры состояний, и соответствующие результаты, которые для них выдаёт моделируемый объект.
Не очень по-человечески получилось… :)
То есть, при таких-то заданных исходных значениях должен получаться такой-то результат.
Наша задача построить модель, которая повторяет такое поведение наиболее близко к заданному.
С небольшой оговоркой — наиболее близко не только для обучающей выборки, но и по всей генеральной совокупности исходных состояний (для всех вариантов, которые могут появиться на входе).
Для этого после обучения проводится проверка на тестирующей выборке, которая не участвует в обучении.
Мера близости требуемого поведения задаётся функцией потерь и другими вариациями на эту тему, которые показывают насколько смоделированное поведение отклоняется от заданного.
Поэтому алгоритмы обучения, как правило, сводятся к поиску оптимального решения, минимизирующего значение функции потерь.
Одной из гипотез, позволяющих это сделать, является гипотеза о компактности пространства решений, в котором можно постепенно двигаться и улучшать решение.
А как отображаются на таким образом заданное множество целых чисел «обычные» натуральные числа?
То есть, как обозначается целое число 5?
Кстати, оно эквивалентно натуральному числу 5 или нет?
Спорный пункт номер 1.
Менеджеры проектов, которые с умилением смотрят как разработчик читает на рабочем месте книгу, встречаются там же, где единороги играют на лужайках с литлпони.
Скорее всего, этот пункт надо понимать как «читайте книги дома и по дороге на работу, а на работе не бойтесь браться за новое, на чём сначала поломаете зубы, но увеличите багаж знаний».
На работе можно читать RTFM в процессе поиска решения возникшей проблемы, но не «академические» труды.
Кстати, по поводу общей темы в комментариях по качеству перевода.
Поймал себя на мысли, что не заметил что там такого было ужасного.
Начал вчитываться, действитель обнаружил косноязычие.
Понял, что прочёл статью как технический текст на иностранном языке, когда читаешь вроде бы слова, а в голове просто появляется смысл :)
Стилистика и лингвистика отбрасываются мозгами за ненужностью.
Поддерживаю.
Может стоить действительно сначала на Visual Basicе показать кнопочки и анимацию, а потом для тех, кого заинтересует, уже и рассказать про структуры данных и алгоритмы?
Мне понравилась фраза про громкий взрыв мозга :)
Примерно 2 недели назад наш мониторинг тул (NewRelic) начал детектить большое количество падений сайта продолжительностью не более 1 минуты, но с очень большой периодичностью.
Вы наверно хотели сказать «с очень большой частотой»?
Статья произвела впечатление отчета об исследованиях британских учёных.
Даже грубее можно сказать — набор общих мест и банальностей (избегайте крайностей, применяйте планирование, надо отдыхать и прочее).
А ещё резанула фраза Даже когда я тратил немного времени на свою девушку, работая 90 часов в неделю, я чувствовал себя гораздо лучше.
Как-то вот неприятно это звучит.
Особенно для той девушки.
Рад, что смог посоветовать полезное :)
В свою очередь спасибо за статью, неважно хабровая она или не хабровая, но тема интересная, и написана хорошо — факт.
По теме ещё могу поделиться мыслями по поводу.
Как мне кажется, лучшее оружие против отупения в стрессовой ситуации — предварительная тренировка для получения автоматизма «простых» действий.
Это касается практически всей деятельности людей.
Хороший пример — обучение вождению.
Новички постоянно в стрессе, могут на перекрёстке заглохнуть (замереть), а опытный водитель даже в сложной ситуации сохраняет спокойствие и сделает правильно.
Сделать десять-двадцать раз восстановление из резервной копии — и уже будет проще в случае аварии.
Автоматизм простых действий даёт уверенность, что не портачишь по мелочи, остаётся больше времени на стратегию.
Дополню про замирание.
Я слышал, что это наследство наших травоядных предков.
Почувствовали хищника — стресс, замри, не шевелись, авось, не заметит и уйдёт.
Вообще здесь очень вовремя напоминает (и практически как всегда, по делу) Meklon о реализации стресса.
Обязательно надо сбрасывать нервную энергию в виде физических действий.
Зажатая энергия в себе приводит к катастрофическим последствиям не только для психики, но и для физиологического состояния организма.
Гастриты, остеохондрозы, в первую очередь, а там и «далее везде».
Тем, кого заинтересовал вопрос с реакцией организма на стресс, хотел бы посоветовать прочесть книги Андрея Курпатова.
Например, практически по теме «Средство от вегетососудистой дистонии».
Да, они выглядят несколько «маркетингово», но написаны там серьёзные вещи, упрощённые до уровня непрофессионала в этой отрасли медицины, а стиль подачи лёгкий.
Очень советую.
Найти можно на известных библиотечных ресурсах.
Кто не найдёт — пишите мне, сброшу линк.
AIMA я читал, правда как ИИСП :) И упражнения не решал, т.к. LISP не знал.
Как-нибудь наверно вернусь и посмотрю на код.
Про векторные модели тоже посмотрю обязательно.
Я как-то нашёл ещё одну книгу, сам не читал, но сдаётся мне, что здесь Норвиг жжёт не менее :)
Если серьёзно, то для целей обучения Лиспу она наверно подходит ещё больше
Paradigms of Artificial Intelligence Programming: Case Studies in Common Lisp
Если бы выражался в стиле современной прессы — «убийца статьи» :)
А вы только на Clojure писали из лисп-подобных?
Не подскажете хорошую книгу для описания как применять Лисп на практике?
SICP я прочёл и примеры прорешал.
Вот хотелось бы всё-таки помимо теоретико-интеллектуального профита (улучшение кода LINQ, python и т.д.) получить ещё и практический.
И, повторюсь, комментарий просто великолепный.
Мера незнания — это немного про другое.
В голове у нас существует оценка вероятности, а не вероятность.
Вероятность существует сама по себе и определяется объективными факторами, а не нашим знанием или незнанием.
Вы просто даёте байесовский подход к вычислению оценки вероятности.
А есть ещё частотный подход, и они до сих пор практически равноправны.
Надо брать python и играть с данными.
Мне показалось, что коллега интересуется общими принципами работы машинного обучения.
Ведь для того же FE хорошо бы знать как оно там внутри устроено, чтобы понимать почему один признак хорошо делит классы, а другой кое-как.
Или например почему стоит делать бинаризацию.
Или почему один метод с данным набором признаков работает средненько, а другой блестяще.
Мне показалось, что лекции ШАДа очень хорошо совмещают классическую математическую школу с практическими особенностями алгоритмов в применении.
Или ещё сам Воронцов рекомендует прочесть М.Б.Лагутин «Наглядная математическая статистика».
В сети это всё есть.
Если понадобится, но не найдёте, напишите мне, я пришлю.
По моему скромному мнению это один из лучших вводных курсов в машинное обучение — интереснее, чем у Ng.
Много объяснений механики алгоритмов и всё это не «зубодробительно-наукообразно».
Оптимизация, насколько я понимаю, это как раз направление научных разработок Воронцова.
Если память не изменяет, больше всего он говорит на эту тему здесь — Обобщающая способность. Методы отбора признаков.
Но, конечно, смотреть обязательно надо по порядку, от первой — там много взаимосвязанных знаний.
Ну и вообще в первой лекции хороший обзор всего поля этой области науки.
Кроме того, есть печатные материалы к этому курсу в pdfах.
Много полезного лежит здесь MachineLearning.ru
От себя добавлю — это на самом деле интересная штука :)
P.S. Почему-то не видны ссылки, хотя в исходном коде поста они есть.
Может потому что я отхабренный? :)
Попробую повторить их просто текстом по порядку
shad.yandex.ru/lectures/machine_learning.xml
shad.yandex.ru/lectures/machine_learning_13.xml
www.machinelearning.ru/
Классическая постановка задачи машинного обучения ставится так.
Есть обучающая выборка как эталонное поведение объекта.
По-человечески говоря, это примеры состояний, и соответствующие результаты, которые для них выдаёт моделируемый объект.
Не очень по-человечески получилось… :)
То есть, при таких-то заданных исходных значениях должен получаться такой-то результат.
Наша задача построить модель, которая повторяет такое поведение наиболее близко к заданному.
С небольшой оговоркой — наиболее близко не только для обучающей выборки, но и по всей генеральной совокупности исходных состояний (для всех вариантов, которые могут появиться на входе).
Для этого после обучения проводится проверка на тестирующей выборке, которая не участвует в обучении.
Мера близости требуемого поведения задаётся функцией потерь и другими вариациями на эту тему, которые показывают насколько смоделированное поведение отклоняется от заданного.
Поэтому алгоритмы обучения, как правило, сводятся к поиску оптимального решения, минимизирующего значение функции потерь.
Одной из гипотез, позволяющих это сделать, является гипотеза о компактности пространства решений, в котором можно постепенно двигаться и улучшать решение.
Это приблизительно то же, как рациональные вводятся через пары целых.
1/2 = 2/4 = 3/6 =… и т.д.
То есть, как обозначается целое число 5?
Кстати, оно эквивалентно натуральному числу 5 или нет?
Менеджеры проектов, которые с умилением смотрят как разработчик читает на рабочем месте книгу, встречаются там же, где единороги играют на лужайках с литлпони.
Скорее всего, этот пункт надо понимать как «читайте книги дома и по дороге на работу, а на работе не бойтесь браться за новое, на чём сначала поломаете зубы, но увеличите багаж знаний».
На работе можно читать RTFM в процессе поиска решения возникшей проблемы, но не «академические» труды.
Кстати, по поводу общей темы в комментариях по качеству перевода.
Поймал себя на мысли, что не заметил что там такого было ужасного.
Начал вчитываться, действитель обнаружил косноязычие.
Понял, что прочёл статью как технический текст на иностранном языке, когда читаешь вроде бы слова, а в голове просто появляется смысл :)
Стилистика и лингвистика отбрасываются мозгами за ненужностью.
Может стоить действительно сначала на Visual Basicе показать кнопочки и анимацию, а потом для тех, кого заинтересует, уже и рассказать про структуры данных и алгоритмы?
Мне понравилась фраза про громкий взрыв мозга :)
Вы наверно хотели сказать «с очень большой частотой»?
Это просто фигура речи, выражающая уважение к своей избраннице.
Вежливость в некотором роде.
Даже грубее можно сказать — набор общих мест и банальностей (избегайте крайностей, применяйте планирование, надо отдыхать и прочее).
А ещё резанула фраза Даже когда я тратил немного времени на свою девушку, работая 90 часов в неделю, я чувствовал себя гораздо лучше.
Как-то вот неприятно это звучит.
Особенно для той девушки.
В свою очередь спасибо за статью, неважно хабровая она или не хабровая, но тема интересная, и написана хорошо — факт.
По теме ещё могу поделиться мыслями по поводу.
Как мне кажется, лучшее оружие против отупения в стрессовой ситуации — предварительная тренировка для получения автоматизма «простых» действий.
Это касается практически всей деятельности людей.
Хороший пример — обучение вождению.
Новички постоянно в стрессе, могут на перекрёстке заглохнуть (замереть), а опытный водитель даже в сложной ситуации сохраняет спокойствие и сделает правильно.
Сделать десять-двадцать раз восстановление из резервной копии — и уже будет проще в случае аварии.
Автоматизм простых действий даёт уверенность, что не портачишь по мелочи, остаётся больше времени на стратегию.
Я слышал, что это наследство наших травоядных предков.
Почувствовали хищника — стресс, замри, не шевелись, авось, не заметит и уйдёт.
Вообще здесь очень вовремя напоминает (и практически как всегда, по делу) Meklon о реализации стресса.
Обязательно надо сбрасывать нервную энергию в виде физических действий.
Зажатая энергия в себе приводит к катастрофическим последствиям не только для психики, но и для физиологического состояния организма.
Гастриты, остеохондрозы, в первую очередь, а там и «далее везде».
Тем, кого заинтересовал вопрос с реакцией организма на стресс, хотел бы посоветовать прочесть книги Андрея Курпатова.
Например, практически по теме «Средство от вегетососудистой дистонии».
Да, они выглядят несколько «маркетингово», но написаны там серьёзные вещи, упрощённые до уровня непрофессионала в этой отрасли медицины, а стиль подачи лёгкий.
Очень советую.
Найти можно на известных библиотечных ресурсах.
Кто не найдёт — пишите мне, сброшу линк.