• Знакомство с гео-библиотекой S2 от Google и примеры использования
    +1
    стало быть есть некоторый индекс в памяти и во время lookup'а координаты транслируются в исходный cell, потом перебираются cell'ы на других уровнях пока не найдется вхождение в индекс?
    кстати, а индекс большой выходит? вы его с диска при старте подгружаете?
  • Знакомство с гео-библиотекой S2 от Google и примеры использования
    +1
    а где вы брали полигоны для своего Geoborder'а? полигоны в нем размечены cell'ами фиксированного уровня или все же есть какая-то иерархия?
  • Топ-10 трендов технологий искусственного интеллекта (ИИ) в 2018 году
    +2
    не уверен, что до конца понял формулировку, но может быть (1) поможет это scikit-learn.org/stable/_static/ml_map.png (2) попробовать обучить какой-нить простой лог.рег классификатор? есть два класса и набор параметров, которым нужно присвоить веса в зависимости от значимости (3) в крайнем случае, всегда можно попробовать расчехлить какой-нибудь random forest, он, вполне вероятно, чего-то добьется.
    Я, кстати, не «спец по ML», если что ;)
  • Как сделать ваш код в 80 раз быстрее
    +1
    с этим cython отлично справится, вы правы. Но там же еще код есть кроме этого ;) Но надо пробовать, конечно же.
  • Как сделать ваш код в 80 раз быстрее
    +1
    зависит от того насколько сильно переписать. В пределе получится практически сишный код, который и быстрее будет, само собой.
  • Модифицируем Python за 6 минут
    +1
    Я с Вами согласен, CPython и правда прекрасно живет без инкремента\декремента, он ему не нужен. Однако, есть нюансы: (1) мы не предлагаем это фигачить никуда, это ж перевод (2) даже если совершать такое упражнение, то только в обучающих целях. Думаю Вы согласитесь, что основной поинт статьи не в инкременте, а в том чтобы осветить один из уголков CPython, посмотреть что там внутри.
  • Как искать людей в числе Пи и при чем тут Python
    –1
    самое простое и быстро решение и так есть в начале поста.
    ваше решение ниже, конечно, быстрее, но суть была не в том, чтобы придумать самое быстрее решение. Знаете как будет еще быстрее? Сгенерить цифры заранее и искать по индексу, например. А можно еще на C переписать. Можно даже, в порядке бреда, натренировать нейронку предсказывать позицию.
    Еще в моем коде были(есть и будут) ошибки. К счастью не было задачи правильно искать число в Пи, была задача случайно выбрать несколько человек каким-нибудь забавным способом.
    Ваше желание доказать, что я неправ в чем-то понятно и объяснимо (=
    image
  • Как искать людей в числе Пи и при чем тут Python
    0
    градус абсурда растет, но я не пожалел времени и поправил)
  • Как искать людей в числе Пи и при чем тут Python
    0
    да, я видел, конечно. Won't fix
  • Как искать людей в числе Пи и при чем тут Python
    0
    этот кейс не проваливается на самом деле, но я нашел и исправил энивей)
  • Как искать людей в числе Пи и при чем тут Python
    0
    ок вариант, я хотел так вынести проверку на то, что число найдено и прочее, но мне стало жалко дополнительных call'ов ¯\_(ツ)_/¯
  • Как искать людей в числе Пи и при чем тут Python
    0
    о, круто, спасибо за помощь! я поправил
  • Как искать людей в числе Пи и при чем тут Python
    +1
    отличная идея, но мы пока семпл днк при регистрации не требуем)
  • Как искать людей в числе Пи и при чем тут Python
    0
    let's agree to disagree
  • Как искать людей в числе Пи и при чем тут Python
    0
    спасибо, поправил
  • Хвостовое масштабирование
    0
    авторами еще в начале указано, что современные реалии требуют быстрореагирующих сервисов. А момент, который Вам кажется спорным, на мой взгляд, просто зависит от условий\контекста. Если системе неважна скорость ответа, то, безусловно, все эти премудрости абсолютно бесполезны.
  • Yet another classifier
    0
    Да, забавно то, что я потерял интерес к Вашим статьям) Удивлен ли я? Нет. Ожидал ли я этого? Да, определенно.
    За мои знания в области не бойтесь, я ведь к счастью их получаю не от Вас. А то я бы тут тоже начал рассказывать, что регрессия примерно тоже, что и наивный байес, а потом бы доказывал это на диаграммах Эйлера-Венна, при этом постоянно меняя свои «показания».
    Вы на секунду представьте, что то, что Вы написали тут — рассказываете на какой-нибудь научной конференции. Я вот себя уже представил. Да обратили бы внимание, потроллили бы еще — профессора это любят. Но то, что говорите Вы, как человек «гораздо более опытный»… Но это только мое мнение, у Вас свое ЧСВ, Вы наверняка считаете по-другому.
    Я Вам больше не буду отвечать по ряду причин:
    1. спор пустой
    2. как я ни старался — он уже давно отошел от изначальной темы
    3. Вы начали отвечать вопросом на вопрос и топтаться на месте в своей аргументации(с моей точки зрения, опять же)
    4. по-моему Вы спорите ради спора, ибо я несколько раз предлагал Вам остановиться (ну и еще потому, что Вы строчите мне простыни-ответы в 2 часа ночи)
    5. на мой взгляд Вы не ведете себя, как человек более опытный: спорите не аргументированно, при этом спорите со мной о том, что я не говорил, уходите о темы, делаете неадекватные сравнения, когда кончаются аргументы начинаете ссылаться на мою, якобы, неопытность и непонимание, в принципе не можете признать свои ошибки

    ну и 6. Тот пример классификатора, который Вы только что раскритиковали я взял из книги, которая породила наш спор. Вы тогда автору все свои претензии изложите, пожалуйста, он наверняка послушает Вас. Только не забудьте перевести свои статьи и кинуть ему ссылку, чтобы он точно понял с каким профессионалом имеет дело.
    А я, по вышеизложенным соображениям, не могу более доверять Вашему мнению
  • Yet another classifier
    0
    Я Вам предложил остановиться, но Вы сами не захотели
    — О «гораздо более опытных» людях. Мне очень сложно судить о Вашем опыте, он на Вас не написан. Могу судить только по Вашим статьям. Из них я понял, что Вы может запихнуть датасет в R и посмотреть на графики, а так же, то, что по Вашему мнению getters и setters нарушают инкапсуляцию. Простите, что я не восхищен, пусть в своей статье и я тоже не сделал ничего сверхвыдающегося.
    — О «грубых ошибках и глубоком непонимании». Вы поговорили о моих, я поговорю о Ваших.
    1. Глубокое непонимание: Ваше определение «отдельного метода», с которым Вы «давно определились». Я под это определение могу щас придумать пару-тройку классификаторов, которые на самом то деле вовсе отдельными методами не будут.
    2. Грубая ошибка: проблема с диаграммами Эйлера-Венна. Если следовать Вашей логике построения диаграмм, то классификация как раз покроет все три кргуа. А еще она пересечется с кластеризацией на ANN.
    3. Глубокое непонимание: Использвание функции ядра выходит за пределы двух этих кругов. Ядра, например, можно и в байесовских классификаторах использовать.
    4. Глубокое непонимание: классификация с помощью ядер. Задача: распознавать написанные от руки числа от 0 до 9. Все как обычно: цифры представляют собой картинки черно-белые, признаками будут значения интенсивности для пикселей. Алгоритм простой будет: чтобы классифицировать новую картинку, мы будет относить ее к тому классу, к которому принадлежит наболее схожая(близкая) с ней картинка из обучающей выборки. Для этого зададимся функциями f0,...,f9:
    fi:x->R, где х — это вектор признаков (вектор изображения).
    Зададимся также метрикой:
    || x — x' || = sqrt[ sigma { фj(x) — фj(x') }^2 ], где j=1..n; ф = (ф1, .., фn) называется feature mapping. Например, это может быть произведением интенсивностей пикселей:
    ф = (х1х1, ...,x1xn, x2x1, ...,xnxn). Т.е. можно сказать определяем корреляцию изображений.
    Т.о. мы можем представить f следующим образом:
    f(x) = sigma(ai) sigma[ фj(xj)фj(x) ] = sigma[ ai k(xi, x)], где i=1..m, j=1..n; m- количество отмапенных объектов из обучающей выборки ф(х1),.., ф(xm); a из R^m; к — ядро, а функция, включающая ядро называется ядерным классификатором (kernel classifier).
    5. Глубокое непонимание: «В логистической регресси/перцептронах примерно так же». Соглашусь, что в перцептронах примерное так же. как в SVM. Но регрессия она по-вашему как наивный байес или как SVM?
    Вы продолжаете приписывать мне то, что я не говорил. Я уже согласился признать, что допустил незначительную ошибку и неправильно сформулировал свою мысль, но Вам этого мало и Вы продолжаете со мной спорить. После этого именно я виду себя некрасиво. Давайте я еще раз признаю, то что я ошибся, а Вы признаетесь, что не «гораздо более опытный» суперпрофессионал в области машинного обучения?
  • Yet another classifier
    0
    1. Мы еще не определились с понятием того, что же такое «отдельный метод», а Вы уже несетесь куда-то вперед.
    2. Ну мы же в данный момент спорим именно о терминологии, каким образом мы перешли в область логики? И, вообще говоря, SVM и перцептрон включают в себя еще всякое. Или Вы думаете классификация на них заканчивается?
    3. Нет, мне было интересно кто или что это делает, потому что Вы уверенно сказали, что этим занимаются не ядра.
    Вы нарочно не читаете то, что я пишу или это случайность?) «классификацию с использованием ядер». Я нигде не писал про " с помощью исключительно ядер". Опять приступ буйства фантазии.

    Серьезно, все это конечно «безумно весело» и я так с Вами могу общаться очень долго, если хотите. Но.
    Во-первых, мы спорим о полнейшей ерунде. Да, возможно в статье стоило написать не «ядерные классификаторы», а что-то типа «классификаторы основанные на применении ядер» или «ядерные методы в классификации», чтобы уменьшить количество баттхерта у двух человек. Но Вы правда расцениваете это более, чем незначительную помарку, чтобы в течение нескольких часов расписывать простыни?
    Во-вторых, скажу еще раз, что я нигде не написал, что ядерные классификаторы — это отдельный и абсолютно обособленный вид классификации\классификаторов. Вы же решили, что я так сказал и пытаетесь доказать мне, что я не прав.
    В-третьих, ну если правда больше не к чему по существу придраться, то может и не стоило. А то похоже на «кажется кто-то в Интернете не прав». Наверняка Вам этот спор наскучал так же, как и мне. Давайте я вот прям заранее признаю, что Вы во всем правы, тогда Вам и отвечать не придется и трать, и мы сэкономим время друг друга.
  • Yet another classifier
    0
    1. Нет, Вы не правы, мне никто на это не намекал, мне сказали, а потом повторили, что их не существует. И опять же Вы не правы, я ни с кем не обсуждал обратное распространение и градиентный спуск. Но я ценю Вашу фантазию.
    2. Теперь мы спорим, что такое «отдельный тип классификатора»? Хорошо, тогда, следуя Вашей же логике naive bayes «не обозначает отдельный тип классификатора, а только показывает некоторое свойство». И здесь naive bayes по правилам английского языка тоже отнюдь не существительные(я, кстати, kernel classifiers первел как Вы и хотели — «ядерные классификаторы»)
    3. Ну под такое определение можно что угодно подобрать. Не особо сложно классификацию с использованием ядер описать конкретными шагами.
    И хотелось бы узнать от Вас, что именно «непосредственно выполняет» классификацию.
  • Yet another classifier
    0
    1. Я нигде в статье не обсуждал kernel classifiers, я их просто упомянул. Вы же спорите со мной о том, что это такое.
    2. Изначально спор велся о том, что kernel classifiers не существует.
    3. Судя по научной литературе (1, 2, 3, 4,… далее гугл) kernel classifiers обсуждаются достаточно обособленно, хотя, безусловно, обсуждается именно применение ядер в существующих классификаторах.
    4.К несчастью, я не знаком с критерием «отдельности направления», но если Вы его поведаете мне, я может что-нибудь и докажу, а может и провалюсь. Как знать.
  • Yet another classifier
    0
    Ну, возможно, сам пользователь определяет. У меня акка на Кинопоиске нет)
  • Yet another classifier
    0
    Вау, вот это действительно аргумент взрослого человека, браво. Все, теперь ни за что не буду спорить с Вами)
  • Yet another classifier
    +1
    Все началось с того, что ядерных классификаторв не бывает вовсе, а ядра используются только в SVM — тут Вы не достигли особых успехов в обосновании своей позиции. Теперь начинается спор о том, кто «корректнее» умеет переводить и правильно выбирать названия. Может сразу расстегнем ширинки и решим все по-мужски?
  • Yet another classifier
    0
    Подозреваю, что внезапно выяснится, что я бульварно-пафосно пересказываю книгу или еще что-нибудь) Но спасибо за предложение, возможно я так и сделаю. Хотя Вас, конечно, сложно чем-то удивить.
  • Yet another classifier
    0
    О, да. конечно же Вы правы
  • Yet another classifier
    0
    да, возможно стоило переназвать все функции (логику обработки то особо не изменишь: распарсил, передал на обучение, потренировался), чтобы никого излишне не смущать. My bad
  • Yet another classifier
    +3
    1. не все проходили стенфордские курсы.
    2. статья вовсе не пересказывает курс.
    3. знания по NLP, machine learning, sentiment analysis, opinion mining я получил задолго до появления вышеозначенных курсов и так совпало, что теор. принципы, лежащие в их основе не изменились с тех пор. Поэтому они одни для меня, для стенфорда и для всех остальных. Все что остается — выбрать обертку. Она Вам, увы, не понравилась.
  • Yet another classifier
    0
    пространство для тюнинга, безусловно, есть. Можно пользовать не только unigram'ами при обучении, например.
  • Yet another classifier
    +2
    видимо Вы весьма бегло проходили сенфордские курсы.
    1. так был только скелет, от которого я оставил, по большей части, только названия функций
    2. наполнение мое.
    Так что не надо про содранность «один в один». Очепятку исправлю, спасибо.
  • Yet another classifier
    +1
    изначально — нет, но идея хорошая)
  • Yet another classifier
    +1
    нет, ну в Кинопоиске, я полагаю все же, в зависимости от оценки рецензия окрашивается, так что подобного нагромаждать не пришлось.
    Но с классификатором было бы куда веселей.
  • Yet another classifier
    0
    спасибо за подсказку, добавил.