Но все таки вы сейчас смещаете центр тяжести смысла моего первоначального вопроса.
Ваш вопрос корректней было бы переформулировать так: «Стоит ли развивать телеграф, если скоро во всех городах будет Интернет?» «Стоит ли развивать ЭЛТ мониторы, если скоро во всех домах будут LED и LCD экраны». И может лучше потратить эти ресурсы на развитие перспективных технологий, чем выжимать последнее из устаревших?
Ну если он не может развивать ИИ, то, например, он может приносить кофе тем кто развивает ИИ. Во всяком случае быть полезным, а не копать тунель лопатой, когда по соседству строят бурильную установку.
Господа, если я соблюдаю стандартные меры безопасности: не открываю вложения из почты, скачиваю софт только с официальных источников, устанавливаю сразу критические обновления, использую антивирус и брандмауэр. Насколько я могут быть уверенным в том, что за моим ПК никто не следит?
Можно смелый вопрос?!
Интересно, есть ли смысл развивать подобные области науки сейчас, если в теории все это сможет найти и доказать ИИ? Может все силы лучше направить именно на развитие машинного обучения и создание этого самого ИИ? Ну это как в игре — все очки исследования поместить в ветку ИИ. Ход конем, т.с.
Java программист От 100 000 до 500 000.
Правда ли, что программисту могут платить больше 200к? Вот может кто-нибудь из личного опыта сказать, что видел такие зп для программиста в РФ? (причем не имеется в виду работа удаленно за баксы и перевод в рубли, а именно в офисах РФ).
Смотрите, я прихожу и слушаю доклад, в результате которого я должен увидеть и осознать, что вот этот самый эльбрус это то что нам сейчас нужно и мы поимеем такой то профит при переходе на его архитектуру.
В качестве примера, могу привести вам ту же GPU и CUDA в частности. Только когда свет увидел работы, показывающие реальное ускорение в 50-100 раз (не в 2 и не в 3, а на порядки!) на конкретных прикладных задачах, тогда и начался постепенный переход на GPU.
Сейчас же, после прочтения статьи, я ничего подобного по отношению к эльбрусу не увидел. Вы тут все сыпете множеством непонятных мне терминов, вроде как бы в теории все замечательно, но на деле мне — обычному разработчику, которому нужна максимум производительности при адекватных усилиях, не видно каких-либо этих преимуществ. Покажите мне многократный прирост (на порядки), который бы подтолкнул меня переходить на другую архитектуру (как это было с CUDA в свое время).
Извините, закидывайте меня чем угодно, но на любой конференции/семинаре после фраз:
«Эльбрус — высокопроизводительная и… архитектура процессоров»
И
«Сейчас производительность нашей программы распознавания паспорта на Эльбрус 4.4 и на x86 отличается уже не на порядок»
Вам бы заявили, что тезисы и выводы вашего доклада не совпадают.
Господа, ответьте честно — правда, что среди разработчиков есть такие люди, которые выходные дни проводят за написанием кода и считают это отдыхом и развлечением? Т.е. для таких людей хобби совпадает с основной профессией. И правда, что такие разработчики и есть профессионалы высочайшего уровня, до которого обычным смертным никогда не дорасти (если также не задротить)?
но ведь проект на работе это тоже «твой» проект, особенно если ты занимаешь в нем одну из ключевых ролей. Я в такие моменты всегда вспоминаю сотрудников, работающих под управлением Джобса, которые были полностью увлечены создаваемыми продуктами.
Мне вот интересно, где люди находят время на участие в open source? Я когда с работы прихожу либо мысли заняты текущим проектом, либо совершенно ничего не хочется делать. На выходных же охото погулять и все такое, а не сидеть перед монитором.
Сама статья о maxout с теорией и сравнениями:
http://jmlr.csail.mit.edu/proceedings/papers/v28/goodfellow13.pdf
Распознавание лиц с maxout слоями (вернее с его производным — Max-Feature-Map), топовый результат для embedded systems:
http://arxiv.org/pdf/1511.02683v1.pdf
p.s. GoogLeNet это 2014 год и уже не показатель инноваций.
ну тут все зависит от способа упаковки данных. Размер сети лучше смотреть когда она загружена в оперативную память. Хотя тоже не показатель.
p.s. «У вас » — не у меня, я просто мимо проходил :)
Можете подробней описать как функционирует каждый тип ваших нейронов:
1) как информация от других нейронов поступает на вход нейрона. Моделируются ли при этом синапсы, т.е. умножается ли на входе сигнал от другого нейрона на некоторый весовой коэффициент W?
2) что происходит в теле нейрона с входными сигналами от других нейронов? В классической модели нейрона они суммируются, например.
3) что за функции активации?
4) как происходит процесс обучения нейронов?
Простите, но [искусственная] нейронная сеть это устоявшееся математическое понятие, а именно: это обучаемый параметризированный ациклический граф с послойной структурой. У вас же здесь просто агнетно-ориентированный подход (агенты организованы в граф). Зайдя в статью я ожидал увидеть именно нейронную сеть, которую вы обучили и которая моделирует работу драм-машины. Но я не увидел ни нейронной сети, ни обучения, ни датасетов. И был разочарован, т.к. ожидал другого и потратил свое время. К вам абсолютно не было бы претензий, если бы вы более четко формулировали заголовок.
Ваш вопрос корректней было бы переформулировать так: «Стоит ли развивать телеграф, если скоро во всех городах будет Интернет?» «Стоит ли развивать ЭЛТ мониторы, если скоро во всех домах будут LED и LCD экраны». И может лучше потратить эти ресурсы на развитие перспективных технологий, чем выжимать последнее из устаревших?
Интересно, есть ли смысл развивать подобные области науки сейчас, если в теории все это сможет найти и доказать ИИ? Может все силы лучше направить именно на развитие машинного обучения и создание этого самого ИИ? Ну это как в игре — все очки исследования поместить в ветку ИИ. Ход конем, т.с.
Правда ли, что программисту могут платить больше 200к? Вот может кто-нибудь из личного опыта сказать, что видел такие зп для программиста в РФ? (причем не имеется в виду работа удаленно за баксы и перевод в рубли, а именно в офисах РФ).
В качестве примера, могу привести вам ту же GPU и CUDA в частности. Только когда свет увидел работы, показывающие реальное ускорение в 50-100 раз (не в 2 и не в 3, а на порядки!) на конкретных прикладных задачах, тогда и начался постепенный переход на GPU.
Сейчас же, после прочтения статьи, я ничего подобного по отношению к эльбрусу не увидел. Вы тут все сыпете множеством непонятных мне терминов, вроде как бы в теории все замечательно, но на деле мне — обычному разработчику, которому нужна максимум производительности при адекватных усилиях, не видно каких-либо этих преимуществ. Покажите мне многократный прирост (на порядки), который бы подтолкнул меня переходить на другую архитектуру (как это было с CUDA в свое время).
«Эльбрус — высокопроизводительная и… архитектура процессоров»
И
«Сейчас производительность нашей программы распознавания паспорта на Эльбрус 4.4 и на x86 отличается уже не на порядок»
Вам бы заявили, что тезисы и выводы вашего доклада не совпадают.
Сама статья о maxout с теорией и сравнениями:
http://jmlr.csail.mit.edu/proceedings/papers/v28/goodfellow13.pdf
Распознавание лиц с maxout слоями (вернее с его производным — Max-Feature-Map), топовый результат для embedded systems:
http://arxiv.org/pdf/1511.02683v1.pdf
p.s. GoogLeNet это 2014 год и уже не показатель инноваций.
p.s. «У вас » — не у меня, я просто мимо проходил :)
Все таки я считаю, что это именно агентно-ориентированная модель, а не модель нейронной сети.
1) как информация от других нейронов поступает на вход нейрона. Моделируются ли при этом синапсы, т.е. умножается ли на входе сигнал от другого нейрона на некоторый весовой коэффициент W?
2) что происходит в теле нейрона с входными сигналами от других нейронов? В классической модели нейрона они суммируются, например.
3) что за функции активации?
4) как происходит процесс обучения нейронов?