Building client routing / semantic search at Profi.ru

    Building client routing / semantic search and clustering arbitrary external corpuses at Profi.ru


    TLDR


    This is a very short executive summary (or a teaser) about what we managed to do in approximately 2 months in the Profi.ru DS department (I was there for a bit longer, but onboarding myself and my team was a separate thing to be done at first).


    Projected goals


    1. Understand client input / intent and route clients accordingly (we opted for input quality agnostic classifier in the end, though we considered type-ahead char level models and language models as well. Simplicity rules);
    2. Find totally new services and synonyms for the existing services;
    3. As a sub-goal of (2) — learn to build proper clusters on arbitrary external corpuses;

    Achieved goals


    Obviously some of these results were achieved not only by our team, but by several teams (i.e. we obviously did not do the scraping part for domain corpuses and the manual annotation, though I believe scraping can be also solved by our team — you just need enough proxies + probably some experience with selenium).


    Business goals:


    1. ~88+% (vs ~60% with elastic search) accuracy on client routing / intent classification (~5k classes);
    2. Search is agnostic to input quality (misprints / partial input);
    3. Classifier generalizes, morphologic structure of the language is exploited;
    4. Classifier severely beats elastic search on various benchmarks (see below);
    5. To be on the safe side — at least 1,000 new services were found + at least 15,000 synonyms (vs. the current state of 5,000 + ~30,000). I expect this figure to double of even triple;

    The last bullet is a ballpark estimate, but a conservative one.
    Also AB tests will follow. But I am confident in these results.


    "Scientific" goals:


    1. We thoroughly compared many modern sentence embedding techniques using a downstream classification task + KNN with a database of service synonyms;
    2. We managed to beat weakly supervised (essentially their classifier is a bag-of-ngrams) elastic search on this benchmark (see details below) using UNSUPERVISED methods;
    3. We developed a novel way of building applied NLP models (a plain vanilla bi-LSTM + bag of embeddings, essentially fast-text meets RNN) — this takes the morphology of the Russian language into consideration and generalizes well;
    4. We demonstrated that our final embedding technique (a bottle-neck layer from the best classifier) combined with state-of-the-art unsupervised algorithms (UMAP + HDBSCAN) can produce stellar clusters;
    5. We demonstrated in practice the possibility, feasibility and usability of:
      • Knowledge distillation;
      • Augmentations for text data (sic!);
    6. Training text-based classifiers with dynamic augmentations reduced convergence time drastically (10x) compared to generating larger static datasets (i.e. the CNN learns to generalize the mistake being shown drastically less augmented sentences);

    Overall project structure


    This does not include the final classifier.
    Also in the end we abandoned fake RNN and triplet loss models in favour of the classifier bottleneck.



    What works in NLP now?


    A birds' eye view:


    Also you may know that NLP may be experiencing the Imagenet moment now.


    Large scale UMAP hack


    When building clusters, we stumbled upon a way / hack to essentially apply UMAP to 100m+ point (or maybe even 1bn) sized datasets. Essentially build a KNN graph with FAISS and then just rewrite the main UMAP loop into PyTorch using your GPU. We did not need that and abandoned the concept (we had only 10-15m points after all), but please follow this thread for details.


    What works best


    • For supervised classification fast-text meets the RNN (bi-LSTM) + carefully chosen set of n-grams;
    • Implementation — plain python for n-grams + PyTorch Embedding bag layer;
    • For clustering — the bottleneck layer of this model + UMAP + HDBSCAN;

    Best classifier benchmarks


    Manually annotated dev set


    Left to right:
    (Top1 accuracy)


    • Current algorithm (elastic search);
    • First RNN;
    • New annotation;
    • Tuning;
    • Fast-text embedding bag layer;
    • Adding typos and partial input;
    • Dynamic generation of errors and partial input (training time reduced 10x);
    • Final score;

    Manually annotated dev set + 1-3 errors per query


    Left to right:
    (Top1 accuracy)


    • Current algorithm (elastic search);
    • Fast-text embedding bag layer;
    • Adding typos and partial input;
    • Dynamic generation of errors and partial input;
    • Final score;

    Manually annotated dev set + partial input


    Left to right:
    (Top1 accuracy)


    • Current algorithm (elastic search);
    • Fast-text embedding bag layer;
    • Adding typos and partial input;
    • Dynamic generation of errors and partial input;
    • Final score;

    Large scale corpuses / n-gram selection


    • We collected the largest corpuses for the Russian language:
      • Areneum — a processed version is available here — dataset authors did not reply;
      • Taiga;
      • Common crawl and wiki — please follow these articles;
    • We collected a 100m word dictionary using 1TB crawl;
    • Also use this hack to download such files faster (overnight);
    • We selected an optimal set of 1m n-grams for our classifier to generalize best (500k most popular n-grams from fast-text trained on Russian Wikipedia + 500k most popular n-grams on our domain data);

    Stress test of our 1M n-grams on 100M vocabulary:
    image


    Text augmentations


    In a nutshell:


    • Take a large dictionary with errors (e.g. 10-100m unique words);
    • Generate an error (drop a letter, swap a letter using calculated probabilities, insert a random letter, maybe use keyboard layout, etc);
    • Check that new word is in dictionary;

    We brute forced a lot of queries to services like this one (in attempt to essentially reverse engineer their dataset), and they have a very small dictionary inside (also this service is powered by a tree classifier with n-gram features). It was kind of funny to see that they covered only 30-50% of words we had on some corpuses.


    Our approach is far superior, if you have access to a large domain vocabulary.


    Best unsupervised / semi-supervised results


    KNN used as a benchmark to compare different embedding methods.


    (vector size) List of models tested:


    • (512) Large scale fake sentence detector trained on 200 GB of common crawl data;
    • (300) Fake sentence detector trained to tell a random sentence from Wikipedia from a service;
    • (300) Fast-text obtained from here, pre-trained on araneum corpus;
    • (200) Fast-text trained on our domain data;
    • (300) Fast-text trained on 200GB of Common Crawl data;
    • (300) A Siamese network with triplet loss trained with services / synonyms / random sentences from Wikipedia;
    • (200) First iteration of embedding bag RNN's embedding layer, a sentence is encoded as a whole bag of embeddings;
    • (200) Same, but first the sentence is split into words, then each word is embedded, then average is taken;
    • (300) The same as above but for the final model;
    • (300) The same as above but for the final model;
    • (250) Bottleneck layer of the final model (250 neurons);
    • Weakly supervised elastic search baseline;

    default


    To avoid leaks, all the random sentences were randomly sampled. Their length in words was the same as the length of services / synonyms they were compared with. Also measures were taken to make sure that models did not just learn by separating vocabularies (embeddings were frozen, Wikipedia was undersampled to make sure that there was at least one domain word in each Wikipedia sentence).


    Cluster visualization


    3D


    2D


    Cluster exploration "interface"


    Green — new word / synonym.
    Gray background — likely new word.
    Gray text — existing synonym.



    Ablation tests and what works, what we tried and what we did not


    1. See the above charts;
    2. Plain average / tf-idf average of fast-text embeddings — a VERY formidable baseline;
    3. Fast-text > Word2Vec for Russian;
    4. Sentence embedding by fake sentence detection kind of works, but pales in comparison with other methods;
    5. BPE (sentencepiece) showed no improvement on our domain;
    6. Char level models struggled to generalize, despite the recant paper from google;
    7. We tried multi-head transformer (with classifier and language modelling heads), but on the annotation available at hand it performed roughly the same as plain vanilla LSTM-based models. When we migrated to embedding bad approaches we abandoned this line of research due to transformer's lower practicality and impracticality of having a LM head along with embedding bag layer;
    8. BERT — seems to be overkill, also some people claim that transformers train literally for weeks;
    9. ELMO — using a library like AllenNLP seems counter productive in my opinion both in research / production and education environments for reasons I will not provide here;

    Deploy


    Done using:


    • Docker container with a simple web-service;
    • CPU-only for inference is enough;
    • ~2.5 ms per query on CPU, batching not really necessary;
    • ~1GB RAM memory footprint;
    • Almost no dependencies, apart from PyTorch, numpy and pandas (and web server ofc).
    • Mimic fast-text n-gram generation like this;
    • Embedding bag layer + indexes as just stored in a dictionary;

    Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

    Should we create a more detailed series of posts on this topic?

    Поделиться публикацией

    Похожие публикации

    Комментарии 10

      0
      Это конечно сугубо моё мнение… но выглядит немного… неоднородно что ли.

      Понятно что исходные данные представлены на русском языке и это стоит использовать как есть(недаром же упоминается Word2Vec for Russian). Но графики с различными метриками тоже содержат русские слова(например «Точность», «Нынешний алгоритм»). И если мы можем ожидать что достаточно много русскоговорящих людей на Хабре смогут понять графики с англоязычными подписями, то англоязычные хоть и прочтут её без проблем(теоретически) — споткнутся на русскоязычных подписях.

      Также складывается впечатление что статью просто пропустили через автоматический транслятор из одного языка в другой, поправили основные ошибки через чеккер граматики типа Grammarly. Или я ошибаюсь и вы давали её вычитывать как минимум человеку с уровнем Upper Intermediate?
        –2

        Добрый день!


        Спасибо за ваши комментарии.
        Про графики и неоднородности — там специально сделаны комментарии в том числе и на английском, чтобы все читалось без проблем, возможно вы пропустили.


        Согласен, что лучше бы все вместе перевести, но фокус статьи на суть, а не форму. Хотелось бы от коммьюнити услышать пробовал ли кто такие же методы (или лучше) и на каких задачах.


        Про перевод — буду признателен, если укажете где именно баги — поправлю. Вообще все писалось сразу на английском. Может вас смутили какие-то отчасти разговорные термины?)


        PS
        Вроде как лет 5-6 назад был advanced (помню что скор на TOEFL test тогда был 111/120 без подготовки). Но может конечно торопился)

          0
          Ответил в личные собщения дабы не разводить здесь полемику о данном аспекте.
          В тоже время, если у вас Advanced — возможно пригодится вот этот выпуск подкаста TWIML & AI. Там речь как раз о новых подходах в NLP
            0

            Общался пару раз с Себастьяном. Приятный и умный товарищ, с точки зрения ценности времени — его блог кладезь информации.


            Подкасты и последние рассылки — ну такое имхо.

      • НЛО прилетело и опубликовало эту надпись здесь
          0

          Добрый день!


          Спасибо за ваше мнение.
          Был бы признателен, если вы укажете, где именно есть баги — пофиксил.


          А так конечно — хотелось бы увидеть больше фидбека по сути моделей и результатов, а не по форме.


          Спасибо.

          +1
          Авторы для английского уже готовы, а хабр(сайт) — нет.
            –1
            Особенно глаз радуется глубокому уровню погружения комментирующих в предметную область.
              0
              Не обижайтесь, но я лично, например, поставил минус вашему посту не из-за английского (за который я активно ратую), а из-за того, что чуть менее чем весь пост состоит из, простите за прямоту, хвастовства и рассказов о том, какие вы крутые, причем это ЧСВ сквозит даже в комментариях.
              Это не было бы проблемой, если бы с технической точки зрения ваш пост был бы классным, и из него можно было бы вынести много полезных уроков, как, например, из вашего же перевода поста с DS Bowl.
              Вот только с технической точки зрения из вашего поста ничего не понятно из-за того, что вы бросаетсь с места в карьер, не сформулировав нормально постановку задачи, скачете с одной мысли на другую, и всё это усугубляется такими мелочами, как графики с осями то на русском (в английской-то статье), то вообще без подписей (https://xkcd.com/833/), а также тем, что вы мешаете громоздкие конструкции, присущие научным статьям, с полуразговорным английским, что довольно тяжело читать.

              Конечно, это всё моё субъективное мнение, но на вашем месте я бы не говорил, что вы — Д'Артаньян, а комментаторы ничего не понимают.

              P.S. В правилах Хабра указано, что публикуемые статьи не должны быть кросспостингом. Вы поленились перевести свой собственный пост из блога и оформить как перевод, поэтому сейчас по факту нарушаете рекомендации Хабра.
                0
                О! Так, если вы отличие от прошлых собеседников ратуете за прямоту и отсутствие буллшита (!!! за что вам сразу огромнейший респектище !!!), то давайте я вам также прямо и отвечу:

                — Надеюсь вы понимаете, что если я договорился с компанией/начальством, что можно поделиться внутрянкой, то это уже отчасти достижение? Что публика получит инфмормацию о том, что реально работает, а не заказной пиар в платных корп. блогах? И не очередную пустую и мусорную инфомацию, что «траляля, нейросеточки это классно»?

                — В свете этого, опять же, это все комментарии по форме, а не по сути. Я вот слежу на тем, что народ публикует на Хабре — и число оригинальных мыслей особенно после обратного слияния с Гиктаймз как-то поубавилось. А знаете почему? Одни переводы и «все классно». Думаю мысль продолжать не надо, а то можно очень далеко зайти.

                > вынести много полезных уроков, как, например, из вашего же перевода поста с DS Bowl

                Ну серьезно. Значит с народом делятся приватной информацией. Вам мало?) Вам еще сорс-код выложить, все датасеты, в каком порядке все запускать итд итп?
                Получается как в мультике советском прямо «двое из ларца».

                > мешаете громоздкие конструкции, присущие научным статьям, с полуразговорным английским, что довольно тяжело читать.

                Тут на 100% согласен.
                Но тут ничего не могу с собой поделать.

                > простите за прямоту, хвастовства и рассказов о том, какие вы крутые, причем это ЧСВ сквозит даже в комментариях

                Банально есть чем гордиться.
                А мамкиных комментаторов с артиклями — в шею гнать надо.
                Вообще (если они это прочитают) — в цивилизованном обществе принято в личку писать где баги.

                > оформить как перевод

                Делал так много раз.
                Сейчас мне показалось интересным провести социальный эксперимент, раз Хабр типа английский завел.
                Также — на русском это все звучит коряво, т.к. перевода терминов нет, да и честно говоря собирать перевод — лично у меня это часов 6-8 работы, что не вписывается в график, с учетом вышеописанного.

                Также общее обращение к публике.
                Может реально кто-то найдется, кто скажет, «я тоже пробовал X, у меня зашло, а Y не зашло»? Или таких в новом хабе NLP (который к слову Хабр по моей просьбе создал) нету?

          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

          Самое читаемое