Pull to refresh
23
0
Александр Грицай @AllGrit

User

Send message

Значит вы можете переместить эти запасы в другую точку, ускорив их оборачиваемость. Точка, склад - это не важно.

Прочитал статью на одном дыхании. Очень интересно изложено. В свои 17 лет вы необычайно целеустремленны, таких, к сожалению, очень мало. Я думаю тем людям, с кем вы будете работать, определенно повезет!

На мой взгляд, эта история гораздо более информативна, чем если бы у нее был положительный исход. Хотя бы по соотношению комментариев. Она показывает то, о чем обычно история и историки умалчивают. Когда есть все факторы, чтобы случилось событие, но его не случается. Отсюда и получаются вещи типа «Какими качествами нужно обладать, чтобы стать миллионером?» Хотя на самом деле, большое число людей ими обладают, но миллионерами не становятся. Но все это остается за кадром. Это очень хорошо и познавательно излагает Талеб в книге "Черный лебедь".

А в вашем случае, я думаю, эта статья произведет свой «эффект бабочки». Возможно у этого мира на вас гораздо более грандиозные планы, чем MIT :) Опять же привет теории сложности и теории хаоса.
Все равно придется менять флаг -f Makefile.Debug на -f Makefile.Release
Спасибо, попробуем.
Это стандартные этапы сборки для команды Собрать. После нее, к сожалению, не работает, если добавить Q_OBJECT. Приходится выбирать пересобрать. Речь идет о QtCreator.
Чтобы перегенерировались moc-файлы, которые создаются при наличии Q_OBJECT-макроса необходимо произвести полную пересборку. Досборка не помогает. В случае QtCreator.
Make берет MAKEFLAGS, можно задать ее как переменную окружения равную -j10, например.
Или добавление QMAKE_CXXFLAGS_RELEASE += -MP[число процессов] в .pro файл проекта и установление переменной окружения как я описал.
Я больше чем уверен, что внеконтекстного определения неверного входа не существует. Все определения справедливы только, если мы о них договорились. Вообще, считаю спор о понятиях крайне неблагодарной вещью. Как скажете, так и будет.
Если все сводить к концепции данных, которые не несут ровно никакой информации без семантического определения, не возможно решать практические задачи. Хотелось бы ссылку первоисточника увидеть. Вот в Хайкине такого определения не встречал.
Случаем не «Об интеллекте» книга называется? Если нет, то очень советую почитать.
Задача стоит не в определении буква это или не-буква, а в распознавании букв. И показывая также не-буквы, можно сформировать такую гиперплоскость, которая будет более эффективно определять буквы. Вообще это вопрос терминологии. Вы так полагаете обучение на ошибках, кто-то по-другому. Подавая на вход некорректный образец с точки зрения предметной области, мы как раз и учим сеть на «ошибочных» примерах. Степень свободы гиперплоскости уменьшается за счёт приобретения дополнительного знания о функции в целом. Кстати, часто идеи высказанные людьми, которые не являются профессионалами в этой области могут оказаться очень эффективными. Все-таки теория заимствована у природа. Это моё мнение.
Собственно это сужает пространство верных решений. Таким образом, сеть все-таки учится на ошибках. Как я понял — это основная идея этой статьи.
Вообще, в идеи есть здравое зерно. Успешно нами применялась для обучения нейронных сетей в распознавании букв при сегментации, которая могла быть выполнена неточно. Так вот на вход подавались «не-буквы», которые представляли из себя неверно сегментированные изображения. На выходе требовалось определить, что это «не-буква». Также такое обучение очень важно в системах, где лучше сказать, что мы не знаем что это за символ, чем сказать что это символ А с хоть и маленькой вероятностью. Как правильно замечено выше, определяется возможный разброс входных параметров, которые фактически могут быть поданы на вход нейронной сети. Из них определяются невалидные примеры, которым сеть обучается отдельно.
Прочитал с большим интересом. Спасибо! Идеи витают в воздухе, много близкого к своим размышлениям на этот счет нашел в статье. Хотел поинтересоваться, вы реализацию такого метода нигде не встречали?
Тут тогда и деревом решений можно обойтись, только обобщение на неизвестных шрифтах будет никакое. А толщина линий может варьироваться от стиля написаний, она не показательна или от размера шрифта и не поймешь от чего. Так что отдельно использовать только такой способ я не вижу смысла, как дополнительный модуль, да, он имеет место.
Верно. Как написал сразу подумал, что все упирается в изначальные предположения, особенно гибкость архитектуры. Ну в нашем случае это не коробка, поэтому мы решили этим пренебречь пока. А там и взгляд будет более осмысленным и архитектура будет лучше, можно и переписать!
Никакой магии. Совершенно. Некоторое подмножество на самом деле оказывается прямоугольной областью. Функция — например усреднение. Тогда, наделяя рецепторное поле множеством таких пересекабщихся областей, мы можем выделить признаки, которые схожи для одинаковых букв и наоборот являются различными для разных букв. Как мы это будем делать? Мы будем считать информативность/энтропию по отношению к одному классу и энтропию по отношению ко всем остальным классам/буквам для каждой такой области. Выберем те области, которые являются критичными по данному оптимизационному критерию и никакой магии — получим оптимальный набор признаков.
Да, я уже с английским вариантом ознакомился. Необычный и красивый способ убития двух зайцев.
На вход подается нормированное децентрированное значение яркости пиксела в градациях серого. Процесс переобучения отслеживается с помощью метода раннего останова. Что за метрики имеются ввиду?
1

Information

Rating
Does not participate
Location
Тверь, Тверская обл., Россия
Registered
Activity