Обновить
256K+

Natural Language Processing *

Компьютерный анализ и синтез естественных языков

91,22
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Способы автоматизации ответов на часто задаваемые вопросы (FAQ)

Время на прочтение6 мин
Охват и читатели2.7K

Автоматизация ответов на часто задаваемые вопросы (FAQ) - актуальная задача в процессах, где важно быстро и качественно взаимодействовать с клиентами и с аудиторией.

Если клиент долго не может найти информацию, долго не получает ответа в чате, то он уходит к другому продавцу. В итоге и продажа теряется, и клиент теряется. Особенно это критично во время проведения активной рекламной кампании, когда количество обращений резко возрастает и очень большая часть не успевает обрабатываться.

Что можно сделать, чтобы не терять обращения, продажи и клиентов?
Ответ: Автоматизировать ответы на часто задаваемые вопросы (FAQ).

Автоматизация ответов на часто задаваемые вопросы (FAQ) - один из распространенных способов применения Искусственного Интеллекта в бизнесе.

Раньше клиент был вынужден искать информацию самостоятельно на сайте, в том числе в FAQ‑разделе сайта. Если же вопрос отправлялся оператору, то оператору приходилось самому готовить ответ, опираясь на свой опыт и имеющую документацию.

Теперь у клиентов появилась возможность составлять свой вопрос на естественном языке, и система автоматически выдает ответ, основываясь на соответствующей Базе Знаний.

В итоге клиенты получают быстрые и точные ответы на типичные вопросы и переходят к оформлению и оплате.

Читать далее

Новости

От 0.034 до 0.791 и обратно: Legal RAG, 17 итераций и стена масштабирования

Уровень сложностиСредний
Время на прочтение22 мин
Охват и читатели5.8K

Я участвовал в ARLC 2026 — юридическом AI-челлендже по построению RAG-пайплайна поверх корпуса судебных решений и законов. Соло, с Claude Code в качестве напарника. За 5 дней и 17 итераций прошёл путь от 0.034 до 0.791 на warmup — а потом вышел в финал и потерял 42% на 300 документах вместо 30. Внутри — архитектура, код, математика F-beta, три провала и честный разбор работы с AI-ассистентом.

Читать далее

Юридическое поле экспериментов для RAG

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели4.4K

Можно ли делать RAG на MacStudio M3 Ultra? CAG - убийца RAG? Самый лучший RAG от OpenAI и Grok?

Ответы на эти вопросы мы узнали во время участия в соревновании Agentic RAG Legal Challenge. Стоит отметить хорошую организацию соревнования и продуманные метрики. Более 300 команд со всего мира.

Ответы на вопросы - под катом

Мы протестировали 22 нейросети на задачах для российских учителей. Ни одна не знает чувашский

Время на прочтение4 мин
Охват и читатели5.7K

Я живу в Чебоксарах и запускаю ИИ-пилот в местной школе. Когда понадобилось проверить, какие LLM действительно способны помочь российским учителям в их работе — оказалось, что бенчмарка для этого не существует. MERA тестирует, может ли модель решить задания ЕГЭ. EduBench — только английский и китайский. Российское образование — это ФГОС, технологические карты уроков, ОГЭ, чувашский язык — и ничего из этого ни один бенчмарк не покрывает.

Мы сделали EduBench-RU — первый бенчмарк для оценки LLM на задачах российского образования в школах. 50 промптов, 22 модели, двойная оценка. И нашли кое-что неожиданное.

Читать далее

Мультиагентность в OpenClaw: отдельные агенты, субагенты и ACP (вайбкодим через тг)

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели12K

В OpenClaw мультиагентность - это не одна функция, а несколько режимов работы. Можно создавать отдельных постоянных агентов со своей рабочей папкой, запускать саб-агентов под конкретную задачу и передавать разработку во внешний инструмент через ACP, например в Codex, Claude Code, Gemini CLI.

Читать далее

Geometry > Scale 2.0.: Манифест LILA: Как замерзшие пальцы и 10 строк кода обнуляют 7 триллионов Сэма Альтмана

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели6.4K

Пока Сэм Альтман и Qualcomm греются в лучах своих триллионов и играют в гольф запуская конкурсы по эффективным SML (задним числом), через неделю после моего поста на reddit и Хабре про Lila-E8 ( с мемом про Сэма 🤣 похоже мем дошел до него). Sovereign-Lila-Leech родилась из замерзших пальцев в маршрутке и опыта физики частиц.

Я заморозил 240 корней E8 на треке физики, а затем и ядро Лича, сделав их Source of Truth для интеллекта. Математика не должна вычисляться – она должна существовать. В Lila Leech замороженное ядро – это ледяная игла, пробивающая пузырь корпоративного ИИ.

Читать далее

Базовый минимум. Часть 4:  ИИ-агенты

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели13K

Большая языковая модель хорошо отвечает на запросы, но во многих практических задачах одного ответа уже недостаточно. Нужно не просто сгенерировать текст, а выполнить последовательность шагов: получить данные, выбрать инструмент, проверить результат и при необходимости скорректировать действие. Именно поэтому агентный подход быстро становится стандартом современных систем на основе LLM.

В четвертой, завершающей части серии «Базовый минимум» разбирается, что такое ИИ-агенты, чем они отличаются от RAG-систем, как работает ReAct и зачем нужны мультиагентные системы. В конце будет показан простой воспроизводимый пример минимального ИИ-агента-помощника в путешествиях в Google Colab.

Читать далее

AI meet assistant

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели4.8K

Задача по созданию AI-ассистента очень интересная и востребованная на рынке.

Для чего она?

Структуризация и контроль процессов. Самый большой импакт, конечно же, всё это даёт на повторяющихся встречах (дейлики, двухнедельные срезы и т.д.). Большинство сотрудников бегают на десятки встреч в неделю, и «забыть», что было на предыдущей встрече, очень легко - в этот момент можно просто обратиться к RAG или к протоколам напрямую. Также есть сотрудники, участие которых необходимо, но невозможно, - таким сотрудникам можно прислать протокол на апрув. Некоторые уже даже автоматически ставят задачи в Jira через function call или MCP на основе протоколов! Но это не auto-accept - как правило, человек смотрит в протокол и нажимает кнопку.

Вроде вникли в плюсы от сервиса - давайте разберём, из каких частей состоит задача по написанию такого сервиса.

Читать далее

Конец эпохи трансформеров. Берем у LLM донорские органы для ИИ-агентов

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели11K

Трансформерная архитектура достигла потолка. Не по нашему мнению, по данным HEC Paris, Nature, arXiv и самих создателей frontier-моделей.
Фундаментальные ограничения архитектуры (квадратичная сложность, неспособность к композициональному рассуждению, отсутствие рекурсии) не решаются увеличением параметров. В этой статье мы разбираем, почему трансформер - это локальный максимум, какие архитектурные альтернативы уже показывают результаты, и почему следующий прорыв в AI - смена вычислительной парадигмы.

Читать далее

Рубрикатор клинических рекомендаций Минздрава РФ: почему врачу неудобно работать с PDF

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели8.3K

Когда врач ищет клинические рекомендации, ему обычно нужен не весь PDF, а конкретный фрагмент: схема лечения, критерии диагностики, раздел для детей или взрослых, связь с МКБ-10.

На этом месте официальный рубрикатор и обычный поиск по документам начинают проигрывать реальному сценарию. В статье разбираю задачу с инженерной точки зрения: почему одного каталога недостаточно, зачем нужны нормализация, версионирование, гибридный поиск, офлайн-кэш и ссылки на источник. На примере клинических рекомендаций Минздрава РФ показываю, как медицинская задача превращается в вполне классическую IT-проблему: парсинг, индексирование, поиск по сущностям и объяснимый UX.

С инженерной точки зрения это важное наблюдение: перед нами не одна задача поиска, а сразу несколько разных сценариев, которые нельзя нормально закрыть одним полем search над набором документов.

Официальный источник, от которого все начинается, существует: это электронный рубрикатор клинических рекомендаций Минздрава. На ресурс Минздрава публикуются клинические рекомендации, разработанные и утвержденные медицинскими профессиональными некоммерческими организациями; сам Минздрав отдельно указывает, что этот контент предназначен для медицинских и фармацевтических работников. Кроме того, в инфраструктуре Минздрава есть отдельная автоматизированная подсистема, связанная с разработкой стандартов медпомощи и электронным рубрикатором клинических рекомендаций.

Читать далее

Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы

Уровень сложностиСредний
Время на прочтение21 мин
Охват и читатели4.8K

Ни одна современная AI-система в юридическом домене не обходится без RAG: юридические данные слишком специфичны, слишком изменчивы и никогда слишком редко составляли значимую часть обучающей выборки LLM, чтобы доверять ей без внешней базы знаний. Обычно при построении RAG-системы используют модуль поиска, основанный на векторных БД. Однако в таких сложно организованных областях знаний, как юридическая, архитектура, основанная на поиске в хранилище "плоских" эмбеддингов, может не справиться. Векторный поиск позволяет находить семантически близкие (схожие) фрагменты текстов, тогда как юридический домен также требует понимания многочисленных связей между сущностями, рассеянными по множеству документов .

Кажется, что область знаний, организованная таким образом, идеально может быть представлена в виде графа знаний, особенно после появления современных инструментов, позволяющих автоматически строить такие графы на тысячах документов и использовать их в качестве хранилища знаний для RAG-систем. Однако все имеет свою цену: неполнота или неточность построенного графа может свести на нет все вложенные ресурсы и оставить вас с системой, которая хуже "наивного" векторного поиска.

Какие преимущества поиска по графу знаний по сравнению с классическим векторным поиском, а также каковы критерии, когда использование графового поиска действительно необходимо для построения RAG-системы в юридическом домене?

Читать далее

Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 2: делаем консольный чат

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели7.3K

Делаем из простого скрипта настоящий консольный чат: цикл общения, system prompt, обработка ошибок и первые шаги к “живому” AI-приложению на Python с Ollama и LiteLLM.

Читать далее

Мальчик или подросток: где заканчиваются правила и начинается голос

Время на прочтение4 мин
Охват и читатели8.6K

Мы строим систему автоматического рерайта новостей для региональных СМИ, чтобы журналисты наконец занялись журналистикой. Месяц назад я писала про архитектуру стилевых профилей. Потом про то, как мы перестали обманывать себя и собрали мультиагентный пайплайн. Сейчас расскажу, что стало понятно после более глубокого разбора. И почему часть проблем мы, похоже, не решим вообще.

Ну что там у тебя, давай гляну

Ближайшие события

Как работает трансформер (LLM)

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели6.4K

Это мой первый пост на Хабре, так что не судите строго :-)

Текст ниже - это слегка отредактированная версия чата с моими друзьями, где я вызвался объяснить, что же именно происходит в мозгах "электронного болвана". Так получилось, что в конце 2025 - начале 2026 я смог, наконец, удовлетворить собственное любопытство относительно внутреннего устройства современных нейросетей. Правда, не до конца - сейчас уже почти все переходили на архитектуру MoE, но насколько я вижу - это скорее оптимизация, нежели что-то кардинально новое. Трансформер так и остаётся в центре всего этого технологического чуда, что мы наблюдаем.

Надеюсь, текст кому-нибудь поможет продвинуться дальше в его собственном пути к пониманию LLM.

Читать далее

Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 1: ставим окружение и пишем первый запрос

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели9.1K

Простой старт в LLM-разработке без API-ключей и облака: ставим Ollama, скачиваем модель и делаем первый вызов из Python через LiteLLM.

Читать далее

RAG без седых волос (или с?)

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели7.7K

Привет! Мы разработчики платформы AlfaGen — команда Умного поиска AdvancedRAG. Это внутренняя GenAI‑инфраструктура банка и продукты на её базе.

В статье расскажем, как мы сделали Advanced RAG, чем он отличается от обычного Умного поиска — RAG. А ещё зачем вообще компаниям и пользователям такие продукты, и как вы можете сделать такой проект с меньшим числом седых волос.

Читать далее

Как маскировать персональные данные на изображениях: наш эксперимент с OCR и NER

Время на прочтение4 мин
Охват и читатели8.9K

Всем привет! Меня зовут Андрей Иванов, я NLP-исследователь в R&D red_mad_robot. Мы разрабатываем систему Guardrails для защиты персональных данных (PII) и фильтрации небезопасного контента.

В этой статье расскажу, как мы решали задачу точечного маскирования PII на картинках без обучения специальных визуальных детекторов. Разберём связку оптического распознавания символов (OCR) с NER-моделью, покажем метрики на реальных данных, раскроем ограничения подхода и наши решения для их преодоления.

Читать далее

Непрерывность контекста как следующий слой эффективности ИИ: от ответа к воспроизводимости

Время на прочтение11 мин
Охват и читатели8.5K

В этой статье “контекст” не равен окну токенов и не сводится к длине истории чата. Непрерывность контекста — это сохранение рабочей преемственности между шагами: удерживаются цель и ограничения, не теряются принятые решения, фиксируются допущения и границы исходных данных, а при сбоях сохраняется способность вернуться в рабочий режим без перезапуска процесса.

Читать далее

Неофициальный Python-клиент для alphaxiv: как мы нашли скрытый API и упаковали его в пакет

Уровень сложностиСредний
Время на прочтение14 мин
Охват и читатели9K

У alphaxiv.org есть API — но найти его было непросто: публичная документация появилась совсем недавно, а до этого единственный способ разобраться в том, как он работает, — DevTools и живой трафик браузера. POST-запрос к api.alphaxiv.org/assistant/v2/chat, SSE-поток в ответе, модель aurelle-1.

На основе этого исследования мы собрали aurelle-py — Python-пакет для программного доступа к AI-ассистенту alphaxiv: задавать вопросы по arXiv-статьям, стримить ответы, встраивать в исследовательские пайплайны. Мы не первые, кто занялся этой темой, — но постарались сделать решение аккуратным и хорошо задокументированным.

Что внутри: синхронный и асинхронный клиенты, SSE-парсер с независимым юнит-тестированием, Pydantic v2 для валидации, типизированные исключения (AuthError, RateLimitError), MCP-сервер для интеграции с Claude Desktop и Claude Code.

pip install aurelle-py

В статье — как мы нашли эндпоинт, разобрали формат запроса и ответа, какие ограничения выявили опытным путём и как устроен пакет внутри.

GitHub: https://github.com/center4aai/aurelle-py

Читать далее

Тихая эволюция zero-shot энкодеров. От UniNER до GLiNER 2

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели9.8K

Пока все говорят про LLM агентов, есть целый класс задач где 205M энкодер делает ту же работу что ChatGPT — быстрее, дешевле, без vendor lock‑in. Я хочу рассказать про эволюцию энкодеров, которую вы возможно пропустили: начиная от UniNER, заканчивая GLiNER 2, с ключевыми инсайтами на каждом шаге.

Читать далее
1
23 ...