Как стать автором
Обновить
16
0
Станислав Ступников @Rumpelstiltskin

Пользователь

Отправить сообщение
стало быть есть некоторый индекс в памяти и во время lookup'а координаты транслируются в исходный cell, потом перебираются cell'ы на других уровнях пока не найдется вхождение в индекс?
кстати, а индекс большой выходит? вы его с диска при старте подгружаете?
а где вы брали полигоны для своего Geoborder'а? полигоны в нем размечены cell'ами фиксированного уровня или все же есть какая-то иерархия?
не уверен, что до конца понял формулировку, но может быть (1) поможет это scikit-learn.org/stable/_static/ml_map.png (2) попробовать обучить какой-нить простой лог.рег классификатор? есть два класса и набор параметров, которым нужно присвоить веса в зависимости от значимости (3) в крайнем случае, всегда можно попробовать расчехлить какой-нибудь random forest, он, вполне вероятно, чего-то добьется.
Я, кстати, не «спец по ML», если что ;)
с этим cython отлично справится, вы правы. Но там же еще код есть кроме этого ;) Но надо пробовать, конечно же.
зависит от того насколько сильно переписать. В пределе получится практически сишный код, который и быстрее будет, само собой.
Я с Вами согласен, CPython и правда прекрасно живет без инкремента\декремента, он ему не нужен. Однако, есть нюансы: (1) мы не предлагаем это фигачить никуда, это ж перевод (2) даже если совершать такое упражнение, то только в обучающих целях. Думаю Вы согласитесь, что основной поинт статьи не в инкременте, а в том чтобы осветить один из уголков CPython, посмотреть что там внутри.
самое простое и быстро решение и так есть в начале поста.
ваше решение ниже, конечно, быстрее, но суть была не в том, чтобы придумать самое быстрее решение. Знаете как будет еще быстрее? Сгенерить цифры заранее и искать по индексу, например. А можно еще на C переписать. Можно даже, в порядке бреда, натренировать нейронку предсказывать позицию.
Еще в моем коде были(есть и будут) ошибки. К счастью не было задачи правильно искать число в Пи, была задача случайно выбрать несколько человек каким-нибудь забавным способом.
Ваше желание доказать, что я неправ в чем-то понятно и объяснимо (=
image
градус абсурда растет, но я не пожалел времени и поправил)
да, я видел, конечно. Won't fix
этот кейс не проваливается на самом деле, но я нашел и исправил энивей)
ок вариант, я хотел так вынести проверку на то, что число найдено и прочее, но мне стало жалко дополнительных call'ов ¯\_(ツ)_/¯
о, круто, спасибо за помощь! я поправил
отличная идея, но мы пока семпл днк при регистрации не требуем)
спасибо, поправил
авторами еще в начале указано, что современные реалии требуют быстрореагирующих сервисов. А момент, который Вам кажется спорным, на мой взгляд, просто зависит от условий\контекста. Если системе неважна скорость ответа, то, безусловно, все эти премудрости абсолютно бесполезны.
Да, забавно то, что я потерял интерес к Вашим статьям) Удивлен ли я? Нет. Ожидал ли я этого? Да, определенно.
За мои знания в области не бойтесь, я ведь к счастью их получаю не от Вас. А то я бы тут тоже начал рассказывать, что регрессия примерно тоже, что и наивный байес, а потом бы доказывал это на диаграммах Эйлера-Венна, при этом постоянно меняя свои «показания».
Вы на секунду представьте, что то, что Вы написали тут — рассказываете на какой-нибудь научной конференции. Я вот себя уже представил. Да обратили бы внимание, потроллили бы еще — профессора это любят. Но то, что говорите Вы, как человек «гораздо более опытный»… Но это только мое мнение, у Вас свое ЧСВ, Вы наверняка считаете по-другому.
Я Вам больше не буду отвечать по ряду причин:
1. спор пустой
2. как я ни старался — он уже давно отошел от изначальной темы
3. Вы начали отвечать вопросом на вопрос и топтаться на месте в своей аргументации(с моей точки зрения, опять же)
4. по-моему Вы спорите ради спора, ибо я несколько раз предлагал Вам остановиться (ну и еще потому, что Вы строчите мне простыни-ответы в 2 часа ночи)
5. на мой взгляд Вы не ведете себя, как человек более опытный: спорите не аргументированно, при этом спорите со мной о том, что я не говорил, уходите о темы, делаете неадекватные сравнения, когда кончаются аргументы начинаете ссылаться на мою, якобы, неопытность и непонимание, в принципе не можете признать свои ошибки

ну и 6. Тот пример классификатора, который Вы только что раскритиковали я взял из книги, которая породила наш спор. Вы тогда автору все свои претензии изложите, пожалуйста, он наверняка послушает Вас. Только не забудьте перевести свои статьи и кинуть ему ссылку, чтобы он точно понял с каким профессионалом имеет дело.
А я, по вышеизложенным соображениям, не могу более доверять Вашему мнению
Я Вам предложил остановиться, но Вы сами не захотели
— О «гораздо более опытных» людях. Мне очень сложно судить о Вашем опыте, он на Вас не написан. Могу судить только по Вашим статьям. Из них я понял, что Вы может запихнуть датасет в R и посмотреть на графики, а так же, то, что по Вашему мнению getters и setters нарушают инкапсуляцию. Простите, что я не восхищен, пусть в своей статье и я тоже не сделал ничего сверхвыдающегося.
— О «грубых ошибках и глубоком непонимании». Вы поговорили о моих, я поговорю о Ваших.
1. Глубокое непонимание: Ваше определение «отдельного метода», с которым Вы «давно определились». Я под это определение могу щас придумать пару-тройку классификаторов, которые на самом то деле вовсе отдельными методами не будут.
2. Грубая ошибка: проблема с диаграммами Эйлера-Венна. Если следовать Вашей логике построения диаграмм, то классификация как раз покроет все три кргуа. А еще она пересечется с кластеризацией на ANN.
3. Глубокое непонимание: Использвание функции ядра выходит за пределы двух этих кругов. Ядра, например, можно и в байесовских классификаторах использовать.
4. Глубокое непонимание: классификация с помощью ядер. Задача: распознавать написанные от руки числа от 0 до 9. Все как обычно: цифры представляют собой картинки черно-белые, признаками будут значения интенсивности для пикселей. Алгоритм простой будет: чтобы классифицировать новую картинку, мы будет относить ее к тому классу, к которому принадлежит наболее схожая(близкая) с ней картинка из обучающей выборки. Для этого зададимся функциями f0,...,f9:
fi:x->R, где х — это вектор признаков (вектор изображения).
Зададимся также метрикой:
|| x — x' || = sqrt[ sigma { фj(x) — фj(x') }^2 ], где j=1..n; ф = (ф1, .., фn) называется feature mapping. Например, это может быть произведением интенсивностей пикселей:
ф = (х1х1, ...,x1xn, x2x1, ...,xnxn). Т.е. можно сказать определяем корреляцию изображений.
Т.о. мы можем представить f следующим образом:
f(x) = sigma(ai) sigma[ фj(xj)фj(x) ] = sigma[ ai k(xi, x)], где i=1..m, j=1..n; m- количество отмапенных объектов из обучающей выборки ф(х1),.., ф(xm); a из R^m; к — ядро, а функция, включающая ядро называется ядерным классификатором (kernel classifier).
5. Глубокое непонимание: «В логистической регресси/перцептронах примерно так же». Соглашусь, что в перцептронах примерное так же. как в SVM. Но регрессия она по-вашему как наивный байес или как SVM?
Вы продолжаете приписывать мне то, что я не говорил. Я уже согласился признать, что допустил незначительную ошибку и неправильно сформулировал свою мысль, но Вам этого мало и Вы продолжаете со мной спорить. После этого именно я виду себя некрасиво. Давайте я еще раз признаю, то что я ошибся, а Вы признаетесь, что не «гораздо более опытный» суперпрофессионал в области машинного обучения?
1. Мы еще не определились с понятием того, что же такое «отдельный метод», а Вы уже несетесь куда-то вперед.
2. Ну мы же в данный момент спорим именно о терминологии, каким образом мы перешли в область логики? И, вообще говоря, SVM и перцептрон включают в себя еще всякое. Или Вы думаете классификация на них заканчивается?
3. Нет, мне было интересно кто или что это делает, потому что Вы уверенно сказали, что этим занимаются не ядра.
Вы нарочно не читаете то, что я пишу или это случайность?) «классификацию с использованием ядер». Я нигде не писал про " с помощью исключительно ядер". Опять приступ буйства фантазии.

Серьезно, все это конечно «безумно весело» и я так с Вами могу общаться очень долго, если хотите. Но.
Во-первых, мы спорим о полнейшей ерунде. Да, возможно в статье стоило написать не «ядерные классификаторы», а что-то типа «классификаторы основанные на применении ядер» или «ядерные методы в классификации», чтобы уменьшить количество баттхерта у двух человек. Но Вы правда расцениваете это более, чем незначительную помарку, чтобы в течение нескольких часов расписывать простыни?
Во-вторых, скажу еще раз, что я нигде не написал, что ядерные классификаторы — это отдельный и абсолютно обособленный вид классификации\классификаторов. Вы же решили, что я так сказал и пытаетесь доказать мне, что я не прав.
В-третьих, ну если правда больше не к чему по существу придраться, то может и не стоило. А то похоже на «кажется кто-то в Интернете не прав». Наверняка Вам этот спор наскучал так же, как и мне. Давайте я вот прям заранее признаю, что Вы во всем правы, тогда Вам и отвечать не придется и трать, и мы сэкономим время друг друга.
1. Нет, Вы не правы, мне никто на это не намекал, мне сказали, а потом повторили, что их не существует. И опять же Вы не правы, я ни с кем не обсуждал обратное распространение и градиентный спуск. Но я ценю Вашу фантазию.
2. Теперь мы спорим, что такое «отдельный тип классификатора»? Хорошо, тогда, следуя Вашей же логике naive bayes «не обозначает отдельный тип классификатора, а только показывает некоторое свойство». И здесь naive bayes по правилам английского языка тоже отнюдь не существительные(я, кстати, kernel classifiers первел как Вы и хотели — «ядерные классификаторы»)
3. Ну под такое определение можно что угодно подобрать. Не особо сложно классификацию с использованием ядер описать конкретными шагами.
И хотелось бы узнать от Вас, что именно «непосредственно выполняет» классификацию.
1

Информация

В рейтинге
Не участвует
Работает в
Зарегистрирован
Активность