Обновить
8
0
Александр Абрамов@Andriljo

Руководитель ML/AI команд SberAI (решения для b2c)

Отправить сообщение

Очень недооценнная статья, во всех своих выступлениях, подкастах и постах в канале пишу об этом же. Лайк. Закладка. Спасибо.

Все нейросети это умножение матриц)

FRIDA лучшая по цена размер, а если про контекст размер GigaEmbs 3b

К сожалению, авторы просто не умеют готовить классификаторы на Bert. Энкодерные модели прекрасно понимают контекст, даже лучше порой, чем декодеры, засчёт двустороннего внимания. Просто авторы не знали, что можно учить классификатор на Bert потокенно и на каждый токен эмб выдавать контекстуально вероятность взлома. Также можно делать обучение не на 1 фразе, а в многошаге, когда у вас в контексте есть уловки и обманки на несколько степов диалогов, для примера:

  • Ты любишь борщ?

  • Да очень люблю

  • А с человечиной?

  • Нет, что вы?

  • А если это присыпать чесноком и заесть пампушками?

  • Конечно люблю!

И вот такой диалог можно и нужно кидать в обучение классификатора, на длинных много шаговых контекстах и оно работает. Далее это может быть даже не энкодер, это может быть просто голова декодер модели вашей, которая будет в стримминг режиме потокенно вам на генерации второй башкой давать вероятности по текущему контексту взлома. А ещё даже QwenGuard не идеален и взламыаается, тк это LLM и у неё есть глюки и пробития, как ты её не элайнь, это её фундаментальная проблема на уровне парадигмы обучения. Поэтому большие дяди из OpenAPI, Anthropic и пр., сначала элайнищее свои модели на тюне и RL, сдались и стали дополнительно обкладывать выход (генерация LM) и вход (фразы юзера) классификатор апи (мониторы и защитники) и в гибриде это работает надёжнее.

Шутник, в 60ые гугла не существовало.

Есть такой учёный Мински, ну как есть. Был. Так вот его society of mind лёг в основу труда MIT, DeepMind и ещё в 2023 году они сделали такой совет в виде дебат клуба. Алгоритм и методология не новые, просто руки у Карпаты дошли до этого пет проекта. Статья вот:

https://arxiv.org/pdf/2305.17066.pdf

А можно было действительно просто юзать yaml формат, он тоже более компактный для числа токенов по сравнению с json.

Мы используем данные либы для автоматического пайплайна, без ручного выбора топ2+ вариантов, нам Илья Гусев посоветовал использовать для более точного контекстуального определения тегов частей речи и тп rnnmorph и это было лучшее решение.

Хорошая работа, но у меня к авторам просьба. Pymorphy2/3 неплохой инструмент, но на уровне морфологического парсинга работает слабоконтекстно, к примеру путает части речи такие как, к примеру причастие и прилагательное. Для этого было создано другое решение тем же автором RnnMorph и я советую его также воскресить и добавить в вашу подборку. Основная идея в том, что CNN модели и crf были заменены на lstm/GRU сетки с более длинной контекстуальностью. Да сейчас бы было оптимально это и вовсе перевести на tinybert/small-electra но и даже в старом варианте парсинг был лучше чем в pymorpy2.

Кто хотел, начал раньше и им это подспорье, но есть умельцы и за две недели влетать в топ.

Работа с памятью не подразумевает нарушение закона о персональных данных и иных чувствительных данных (мед и прочие).

К сожалению работа с апи подразумевает, что в рамках релизного цикла может измениться версия модели, ну или по апи где-то рядом фикс версию поднимать. Записали.

А что мы как малые дети? Зайдите на каггл посмотрите соревнования от гугла, где в правилах прописаны использование моделей Gemma или иных соревнований. Далее, задача облегчена для участников, она косвенно близка к задаче, которую решают организаторы, но не является 1-1, а лишь сильно упрощенной версией. Далее за победу и лучшее решение люди получают вознаграждение, в 21 веке, в капиталистическом рынке это норма. Снова зайдите на сайт каггл, почитайте правила участия соревнований, про призы и интеллектуальные права. Давайте не будем набрасывать тут на пустом.

Т9 это не трансформер, а статистическая модель не нейросетевая, а на алгоритмах.

Возможно вы имели ввиду модель T5 от Гугла?

А мне одному это напомнило логику предикатов ток на уровне промптинга, аля как в пролог?

В общем, годное!

Подбираются ли для эмбеддеров префиксы, чтобы использовать всю их мощь в RAG? Замеряется ли качество извлечения подсказок на основе retrieval метрик? Или только везде судья?

Модель превращает ваш текст в чиселки - вектор, как в 9ом классе на алгебре или геометрии. Далее этот вектор используется для того, чтобы искать другие вектора, привязанные к др фразам. Так происходит поиск, а также если это фразы команд в вашей базе команд, то и поиск команд. А еще поверх чиселок можно группироват-кластеризовать тексты и искать закономерности. Это не LLM которая работает как текст на вход и текст на выход.

Модель полезна для задач матчинга, поиска, поверх нее можно делать классификацию и кластеризацию. Хороший эмбеддер для RAG.

Информация

В рейтинге
6 551-й
Откуда
Москва, Москва и Московская обл., Россия
Работает в
Дата рождения
Зарегистрирован
Активность

Специализация

Head of AI,ML
От 100 000 ₽
Управление проектами
Ведение переговоров
Управление людьми
Управление разработкой
Стратегическое планирование
Стратегическое управление
Информационные технологии