Search
Write a publication
Pull to refresh
197
0
Александр Кукушкин @alexanderkuk

Лаборатория анализа данных Александра Кукушкина

Send message

В начале соглашения https://forms.yandex.ru/u/68139306d04688bad07479ae/ не хватает фразы типа «слушай сюда, пес» 😂

Есть код, данные в открытом доступе?

Есть ли большой смысл переводить датасет по математике / майнить задачи математике на русском языке? Я понимаю зачем например бенч с русскими сканами на OCR, зачем бенч на русский культурный код. Но математика на всех языках одинаковая. Та же мысль про бенчи про код

Российских ризонинг моделей нет, российский ризонинг бенчмарк есть ))

Или есть какие-то ризонинг модели?

  1. Какие скоры на бенчмарках кроме Меры?

  2. Токенизатор хуже / лучше чем в Ruadapt?

  3. Почему опубликовали не в хабе AvitoTech?

Было бы интересно что-то вроде ablation study, как максимально упростить решение, минимально потерять в качестве. Разобраться сколько именно качества докидывают отдельные фичи

  • что если забить на шифр Цезары

  • на сколько влияет на скор сериализация таблиц

  • ...

Хорошо бы кроме метрик на бенчмарках показать цену за токен. Сравнить цену на Llama, Qwen, Deepseek в Openrouter и на Gigachat

Интересно сколько будет стоить использовать Aider с Gigachat по сравнению с Deepseek

  1. Какой промпт использовали чтобы выделить тему из кластера?

  2. Пробовали объединить темы Чатгпт? Как выглядел промпт?

  3. Визуализация эмбеддингов какая-то слишком удобная )) На реальных данных кластера также хорошо разделяются?

Оч полезная статья, спасибо!

  1. Какая производительность? Интересно сравнение с другими решениями. Какое надо железо. Сравнить кроме качества производительность и требования к железу

  2. Что думаете про sequence tagging вместо seq2seq? Делать по аналогии с Gector Grammarly

  3. Примеры предложений где ваше решение справляется а другие ошибаются. Какие это случаи? В таблице большая разница precision, остальные решения исправляют лишнее?

Собрав "корзину" из запросов разной тематики, мы провели на ней SBS между нашей моделью и моделью от OpenAI (gpt-3.5-turbo). Начиная от 3:97 в пользу ChatGPT, нам удалось добиться результата 30:70 в финальной версии модели

Вы не могли бы опубликовать список запросов?

Модель доступна для скачивания в формате для tensorflow, pytorch, и tf-hub.

Интересно про SBERT, не могли бы раскрыть подробности:


  1. Сравнивали с RuBERT от DeepPavlov http://docs.deeppavlov.ai/en/master/features/models/bert.html?
  2. Какой объем обучающих текстов? Какой состав, Taiga, Lenta?
  3. Ванильный BERT, не RoBERTa?
  4. Код из Huggingface?
  5. Сколько, каких GPU, сколько тренировали?
  6. Тренировали с нуля или как DeepPavlov инициировали multilungual?
Хорошо ли справляется выделение ФИО с приведением к норальной форме (именительный падеж)?
Да, советую пробовать свои примеры на стенде. Более подробный стенд есть на http://natasha.github.io/. Мерил качество нормализации на BSNLP-2019 https://github.com/natasha/corus#load_bsnlp, примерно 90% имён нормализуется корректно.

"Песков" будет превращен в "песок". такие кейсы как Эрик Конггорд («конггордый»)-Андерсен, или Елена Верещака («верещак»), или Николай Борцов («борец»)
Такое, конечно, Наташа старается учитывать. Наташа использует информацию о морфологии от внутреннего морфологического тегера и Pymorphy https://pymorphy2.readthedocs.io/en/latest/ для нормализации. Если оба отработают корректно, ошибки не будет

Эрик Конггорд-Андерсен». Фамилию через черточку не смог осилить полностью
Для разделения на имя и фамилию в библиотеке собран набор правил для Yargy-парсера https://github.com/natasha/yargy. Правил для фамилий с дефисом там нет.

Весь проект на Python. Нормального способа использовать с другими языками мне не известно. Только может быть заворачивать в веб интерфейс

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity