Обновить
-21
@darkAlertread⁠-⁠only

Пользователь

Отправить сообщение
Но все таки вы сейчас смещаете центр тяжести смысла моего первоначального вопроса.
Ваш вопрос корректней было бы переформулировать так: «Стоит ли развивать телеграф, если скоро во всех городах будет Интернет?» «Стоит ли развивать ЭЛТ мониторы, если скоро во всех домах будут LED и LCD экраны». И может лучше потратить эти ресурсы на развитие перспективных технологий, чем выжимать последнее из устаревших?
Хороший вопрос! Лично я не иду и жду автопилотов.
Ну если он не может развивать ИИ, то, например, он может приносить кофе тем кто развивает ИИ. Во всяком случае быть полезным, а не копать тунель лопатой, когда по соседству строят бурильную установку.
Господа, если я соблюдаю стандартные меры безопасности: не открываю вложения из почты, скачиваю софт только с официальных источников, устанавливаю сразу критические обновления, использую антивирус и брандмауэр. Насколько я могут быть уверенным в том, что за моим ПК никто не следит?
Можно смелый вопрос?!
Интересно, есть ли смысл развивать подобные области науки сейчас, если в теории все это сможет найти и доказать ИИ? Может все силы лучше направить именно на развитие машинного обучения и создание этого самого ИИ? Ну это как в игре — все очки исследования поместить в ветку ИИ. Ход конем, т.с.
А что там насчет полетов на марс? Чето как-то все затихло, а вроде еще пару лет назад много кто обещал туда полететь…
Java программист От 100 000 до 500 000.
Правда ли, что программисту могут платить больше 200к? Вот может кто-нибудь из личного опыта сказать, что видел такие зп для программиста в РФ? (причем не имеется в виду работа удаленно за баксы и перевод в рубли, а именно в офисах РФ).
Кто в РФ живет, тот в цирке не смеется. (с)
Смотрите, я прихожу и слушаю доклад, в результате которого я должен увидеть и осознать, что вот этот самый эльбрус это то что нам сейчас нужно и мы поимеем такой то профит при переходе на его архитектуру.

В качестве примера, могу привести вам ту же GPU и CUDA в частности. Только когда свет увидел работы, показывающие реальное ускорение в 50-100 раз (не в 2 и не в 3, а на порядки!) на конкретных прикладных задачах, тогда и начался постепенный переход на GPU.

Сейчас же, после прочтения статьи, я ничего подобного по отношению к эльбрусу не увидел. Вы тут все сыпете множеством непонятных мне терминов, вроде как бы в теории все замечательно, но на деле мне — обычному разработчику, которому нужна максимум производительности при адекватных усилиях, не видно каких-либо этих преимуществ. Покажите мне многократный прирост (на порядки), который бы подтолкнул меня переходить на другую архитектуру (как это было с CUDA в свое время).
Извините, закидывайте меня чем угодно, но на любой конференции/семинаре после фраз:

«Эльбрус — высокопроизводительная и… архитектура процессоров»
И
«Сейчас производительность нашей программы распознавания паспорта на Эльбрус 4.4 и на x86 отличается уже не на порядок»

Вам бы заявили, что тезисы и выводы вашего доклада не совпадают.
Господа, ответьте честно — правда, что среди разработчиков есть такие люди, которые выходные дни проводят за написанием кода и считают это отдыхом и развлечением? Т.е. для таких людей хобби совпадает с основной профессией. И правда, что такие разработчики и есть профессионалы высочайшего уровня, до которого обычным смертным никогда не дорасти (если также не задротить)?
но ведь проект на работе это тоже «твой» проект, особенно если ты занимаешь в нем одну из ключевых ролей. Я в такие моменты всегда вспоминаю сотрудников, работающих под управлением Джобса, которые были полностью увлечены создаваемыми продуктами.
Мне вот интересно, где люди находят время на участие в open source? Я когда с работы прихожу либо мысли заняты текущим проектом, либо совершенно ничего не хочется делать. На выходных же охото погулять и все такое, а не сидеть перед монитором.
Maxout это более общий случай ReLU и Leaky ReLU.

Сама статья о maxout с теорией и сравнениями:
http://jmlr.csail.mit.edu/proceedings/papers/v28/goodfellow13.pdf

Распознавание лиц с maxout слоями (вернее с его производным — Max-Feature-Map), топовый результат для embedded systems:
http://arxiv.org/pdf/1511.02683v1.pdf

p.s. GoogLeNet это 2014 год и уже не показатель инноваций.
ну тут все зависит от способа упаковки данных. Размер сети лучше смотреть когда она загружена в оперативную память. Хотя тоже не показатель.
p.s. «У вас » — не у меня, я просто мимо проходил :)
Спасибо за подробный ответ.
Все таки я считаю, что это именно агентно-ориентированная модель, а не модель нейронной сети.
Под размером вы подразумеваете размер файла обученной сети, или количество обучаемых параметров (весов) сети?
Можете подробней описать как функционирует каждый тип ваших нейронов:
1) как информация от других нейронов поступает на вход нейрона. Моделируются ли при этом синапсы, т.е. умножается ли на входе сигнал от другого нейрона на некоторый весовой коэффициент W?
2) что происходит в теле нейрона с входными сигналами от других нейронов? В классической модели нейрона они суммируются, например.
3) что за функции активации?
4) как происходит процесс обучения нейронов?
И во многих местах даже уже не ReLU, а MaxOut и его производные :)
Простите, но [искусственная] нейронная сеть это устоявшееся математическое понятие, а именно: это обучаемый параметризированный ациклический граф с послойной структурой. У вас же здесь просто агнетно-ориентированный подход (агенты организованы в граф). Зайдя в статью я ожидал увидеть именно нейронную сеть, которую вы обучили и которая моделирует работу драм-машины. Но я не увидел ни нейронной сети, ни обучения, ни датасетов. И был разочарован, т.к. ожидал другого и потратил свое время. К вам абсолютно не было бы претензий, если бы вы более четко формулировали заголовок.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность