Мы здесь не соревнуемся с веб-поисковиками — у них другой масштаб данных, бюджеты и задачи.
Наш кейс — это поиск внутри книжного сервиса, а значит:
• мы выдаём только те книги, которые реально есть в библиотеке и которые можно сразу открыть;
• решаем задачу «поиска по описанию» прямо в поисковой строке сервиса, где обычно работает только полнотекст или ключевые слова.
Веб-поиск действительно может дать релевантные подборки, но он ищет по интернету. Мы же сравниваем себя скорее с поиском внутри других книжных сервисов — и там запросы вида «книги похожие на Дориана Грея» или «мрачная классика про внутренний распад» обычно либо не работают, либо сводятся к точным совпадениям.
Логлайны — это направление, которое мы исследовали как следующий шаг. Идея в том, чтобы опираться не на маркетинговый текст в аннотации, а на более структурированное описание: тема, герой, конфликт, место действия, время. В таком виде семантический поиск работает заметно стабильнее.
Статья написана человеком и отредактирована человеком, хотя и не без помощи LLM, но лишь ситуативной. Длинные тире были правилами хорошего тона любой редактуры задолго до появления нейросетей.
Да, конечно. Например, сначала можно использовать 50 запросов к GPT-4о, потом ещё 200 к 4о mini или к другим моделям — всего в сумме 1400 запросов к моделям в сутки.
Daisy — не просто API к LLM, как мы показываем в статье. У сервиса собственная уникальная архитектура и дополнительные фичи, которые улучшают выдачу, поиск, обработку документов и изображений. На подходе интеграция в сервис AI-агентов и кастомных пайплайнов, которые сделают работу с разными нейросетями ещё удобнее.
Добрый день! Для разных моделей разные лимиты. Например, вот как выглядят ограничения на тарифе Pro. Соответственно, одно сообщение в чате — один запрос к выбранной модели.
В Daisy есть собственная модель для генерации изображений на базе Flux с улучшенным репромтингом, а также внутренний RAG-пайплайн для обработки документов и поиска в интернете.
Спасибо за фидбек! Daisy пока ориентирован на обычных пользователей, которым достаточно текущих лимитов. В будущем будем разрабатывать большие тарифы под нужды аудитории.
Всем привет! AI-хакатон был закрытым мероприятием, поэтому мы не показали ход разработки продукта, а просто поделились новостью про такие ивенты — что они проходят, команды разрабатывают на них реальные инструменты для бизнеса, и вайб-кодинг в разы ускорил эти процессы.
Спасибо! Для высокой скорости при не самом лучшем качестве ответов можно уменьшить количество шагов — вплоть до простого KNN — тогда время до первого чанка составит не более 0.8 мс. Но если пользователь не понимает, что именно хочет узнать и как лучше задать вопрос, время на поиск может увеличиться до 1-2-5 минут
Супер, спасибо! Мы использовали модели семейства qwen 2.5, она встроена в сайт, где сразу отвечает на вопросы клиентов в чате, а также помогает сотрудникам формулировать ответы при запросе
Обязанности MarkUp несколько шире, чем у обычного верстальщика: туда входят также тестирование, выбор промпта, вёрстка документов в читаемый вид — лишь верхушка айсберга.
Мы здесь не соревнуемся с веб-поисковиками — у них другой масштаб данных, бюджеты и задачи.
Наш кейс — это поиск внутри книжного сервиса, а значит:
• мы выдаём только те книги, которые реально есть в библиотеке и которые можно сразу открыть;
• решаем задачу «поиска по описанию» прямо в поисковой строке сервиса, где обычно работает только полнотекст или ключевые слова.
Веб-поиск действительно может дать релевантные подборки, но он ищет по интернету. Мы же сравниваем себя скорее с поиском внутри других книжных сервисов — и там запросы вида «книги похожие на Дориана Грея» или «мрачная классика про внутренний распад» обычно либо не работают, либо сводятся к точным совпадениям.
Логлайны — это направление, которое мы исследовали как следующий шаг. Идея в том, чтобы опираться не на маркетинговый текст в аннотации, а на более структурированное описание: тема, герой, конфликт, место действия, время. В таком виде семантический поиск работает заметно стабильнее.
Мы построили гибридный поиск, который умеет работать со свободным описанием запроса и переводить его в несколько параллельных поисковых сигналов.
LLM сначала разбирает запрос читателя: выделяет жанры, темы, настроение, ограничения, язык.
Далее запускаются три контура поиска:
• векторный поиск по текстам из каталога (аннотации + название + автор);
• полнотекстовый поиск по автору, названию и тегам;
• генерация списка кандидатов от LLM как гипотез.
Все результаты ре-ранжируются, валидируются по наличию в библиотеке и только после этого собирается финальная выдача.
За счёт этого поиск работает с описаниями «по смыслу», а не только с ключевыми словами.
Статья написана человеком и отредактирована человеком, хотя и не без помощи LLM, но лишь ситуативной. Длинные тире были правилами хорошего тона любой редактуры задолго до появления нейросетей.
Да, конечно. Например, сначала можно использовать 50 запросов к GPT-4о, потом ещё 200 к 4о mini или к другим моделям — всего в сумме 1400 запросов к моделям в сутки.
Daisy — не просто API к LLM, как мы показываем в статье. У сервиса собственная уникальная архитектура и дополнительные фичи, которые улучшают выдачу, поиск, обработку документов и изображений. На подходе интеграция в сервис AI-агентов и кастомных пайплайнов, которые сделают работу с разными нейросетями ещё удобнее.
Добрый день! Для разных моделей разные лимиты. Например, вот как выглядят ограничения на тарифе Pro. Соответственно, одно сообщение в чате — один запрос к выбранной модели.
В Daisy есть собственная модель для генерации изображений на базе Flux с улучшенным репромтингом, а также внутренний RAG-пайплайн для обработки документов и поиска в интернете.
В целом у нас суммарно ко всем моделям 1400 запросов в сутки на тарифе Pro.
Спасибо за фидбек! Daisy пока ориентирован на обычных пользователей, которым достаточно текущих лимитов. В будущем будем разрабатывать большие тарифы под нужды аудитории.
Всем привет! AI-хакатон был закрытым мероприятием, поэтому мы не показали ход разработки продукта, а просто поделились новостью про такие ивенты — что они проходят, команды разрабатывают на них реальные инструменты для бизнеса, и вайб-кодинг в разы ускорил эти процессы.
Если вы хотите больше хардовых технических материалов со строчками кодами и подробным описанием разработки — читайте наши статьи. Например:
Как AI-платформа помогает строить микросервисную архитектуру;
Кейс автоматизации управления данными с помощью AI-агентов;
Как собрать аналог протокола MCP своими руками.
Ушли слушать колонку ;)
Йоу! CoFo Sans
Спасибо! Для высокой скорости при не самом лучшем качестве ответов можно уменьшить количество шагов — вплоть до простого KNN — тогда время до первого чанка составит не более 0.8 мс. Но если пользователь не понимает, что именно хочет узнать и как лучше задать вопрос, время на поиск может увеличиться до 1-2-5 минут
Добрый день! Немного отредактировали статью, уточнив терминологию
Супер, спасибо! Мы использовали модели семейства qwen 2.5, она встроена в сайт, где сразу отвечает на вопросы клиентов в чате, а также помогает сотрудникам формулировать ответы при запросе
Спасибо за поддержку! Мы использовали модели семейства qwen 2.5, развёрнутые на нашем локальном сервере с доступом через Private Cloud
Данные клиента мы раскрывать не можем, но скажем, что потенциальная прибыль от автоматизации процессов существенно больше стоимости разработки
Обязанности MarkUp несколько шире, чем у обычного верстальщика: туда входят также тестирование, выбор промпта, вёрстка документов в читаемый вид — лишь верхушка айсберга.
Наш аналитический центр передаёт — спасибо!
Рады помочь разобраться! Вот здесь написали про Нобелевку по физике:
https://habr.com/ru/companies/redmadrobot/articles/850112/