Один промпт — это не продукт. Как мы перестали обманывать себя и собрали мультиагентный пайплайн

Знаете, что объединяет 90% «AI-стартапов» в 2026 году? Один промпт, обёрнутый в красивый UI и с подпиской за $29 в мес.

Компьютерный анализ и синтез естественных языков

Знаете, что объединяет 90% «AI-стартапов» в 2026 году? Один промпт, обёрнутый в красивый UI и с подпиской за $29 в мес.

«Все крупные корпорации и социальные сети уже давно хотят помечать контент, созданный искусственным интеллектом, отдельным специальным признаком. Безусловно, можно говорить о том, что это делается ради заботы о пользователях — чтобы люди не сидели бесконечно и не потребляли абсолютно одинаковый контент. Но у этой инициативы есть и совершенно эгоистичные цели: платформам жизненно необходимо физически отделить контент, созданный живыми людьми, от материалов, сгенерированных нейросетями».

Платные модели embedding не гарантируют качество на малоресурсных языках. На задаче кроссязыкового сопоставления EPG-заголовков (EN/RU/HY) бесплатная LaBSE набирает R@1 = 0,83, а OpenAI text-embedding-3-large -- 0,21. Протестировано 19 моделей, код и данные открыты.

Всем привет! Делюсь итогом двухмесячной работы - релизом рейтинга юридического рассуждения больших языковых моделей Lexometrica Ground Truth.
Изначально цель была сугубо практической: требовалось выбрать лучшие модели для LegalTech-проекта "неШемяка!". Но в процессе пришлось столкнуться с фундаментальной проблемой индустрии оценки ИИ - открытые тесты дают сильно искаженную картину. Финальные результаты спроектированного стресс-теста оказались сколь ожидаемыми, столь же и неожиданными.
В этой статье описал, как архитектурно выстроен бенчмарк, как велась борьба с test-set leakage, почему написан кастомный пайплайн и какие глобальные и локальные нейросети на самом деле умеют legal reasoning.

В кибербезопасности существует подход под названием Red Teaming — когда одна команда имитирует атакующего, а другая защищает систему. С появлением больших языковых моделей тот же принцип стал применяться к ИИ. Только теперь атакуют не серверы и базы данных, а сами LLM-агенты — системы, которые умеют рассуждать, выполнять команды и взаимодействовать с внешними инструментами. Red Team здесь ищет способы выявить уязвимости и подсветить риски модели, а Blue Team — защитить её. Именно на стыке этих подходов возникла новая область — Red Teaming LLM-агентов, где тестирование превращается в исследование границ самого искусственного интеллекта.
В Doubletapp мы с 2018 года занимаемся интеграцией AI- и ML-решений, когда ещё основное внимание было приковано к компьютерному зрению. Сегодня центр притяжения — языковые модели, и мы одни из первых в России начали системно работать с LLM. Среди наших клиентов — крупные российские бигтех-компании и международные партнёры.
В статье разберем, зачем вообще проверять языковые модели на прочность, какие угрозы возникают при их внедрении, какие типы уязвимостей встречаются чаще всего и как их искать.
Содержание:
- Что такое LLM и как они используются
- Риски при использовании LLM
- Red Teaming LLM: реальные кейсы
- Основные типы уязвимостей LLM
- Как тестируют LLM: ручное и автоматическое тестирование, шаблоны и KPI
- Фаззинг, мутации и роль человека
- Кейсы: как мы ломали и чинили LLM в продакшене
- Зачем компании нужны сторонние Red Team-партнёры
- Внутренние инструменты: как мы сами используем LLM
- Что дальше: спад или новая волна?

В OpenClaw заложен функционал для подключения к Telegram-боту.
Но что, если мы хотим привязать обычный Telegram-аккаунт и сделать лобстера человеком?
Эта статья появилась вследствие, можно сказать, курьеза. К нам в чат залетел бот, который писал от обычного тг аккаунта, а не от _bot, хоть и был подписан ботиком, и общаться он в чате начал так человечно и уместно, что участники комьюнити в массе своей не поверили что это бот, а не человек. Более того, его создатель ничего об этой активности своего бота не знал. Он поставил ему задачу самому решать куда ходить, и где общаться. Тот и выбрал активный чатик по OpenClaw.

Всем привет! Продолжаю делиться опытом построения ИИ-агентов. За последние полгода собрал несколько кейсов на мой взгляд интерсеных чтобы рассказать о них.
Но каждый раз натыкался на один вопрос: а мне здесь вообще агент нужен, или хватит обычного воркфлоу? Слово «агент» за последний год прилепили ко всему подряд от Telegram-ботов до Excel-плагинов. А разница между пайплайном и настоящим агентом огромная. И по возможностям, и по стоимости, и по головной боли при отладке.
Сегодня разберём архитектуры ИИ-агентов от самой простой до самой сложной. По каждой объясню, как устроена внутри, когда какую применять, как агенты общаются между собой, что с памятью. Постараюсь раписать все просто, так как я сам это вижу.
Это первая часть из двух:

Вы открываете вакансию. "Дружный коллектив", "карьерный рост", "гибкий график". Красиво. А через три месяца вы сидите в субботу с ноутбуком, доделываете работу за троих и думаете: "Где я свернул не туда?".
Я взяла 146 000 вакансий, прогнала их через семантический анализ и сравнила худшие 10% с лучшими 10%. Оказалось, что «закулисье» выдают конкретные фразы — и их можно перечислить.

За последние несколько лет, с момента бума ИИ-чатов, всё больше людей меняют привычный Google и Яндекс на разговор с ИИ-ассистентом. Не нужно копаться в ссылках, да и ответ сразу перед вашими глазами. Статистика 2025 года показывает резкий рост интереса к нейропоиску: только в Рунете ChatGPT собирает свыше 1,17 миллиона запросов в месяц, а глобально эта цифра приближается к 47 миллиардам.
Doubletapp уже несколько лет развивает экспертизу в области нейросетей, и в 2025 году мы всё чаще стали получать лиды именно из ChatGPT и других ИИ-платформ. Мы разобрались, как же все-таки работает нейропоиск, и готовы поделиться этим с вами.
Содержание:
‣ Можно ли заменить Google на ChatGPT?
‣ SEO умерло? Да здравствуют AEO и GEO
‣ Как AI выбирает сайты для ответов в нейропоиске
‣ Отзывы и комментарии: нужны ли они нейросетям как SEO?
‣ Масштабирование: от AEO к GEO и битве экосистем
‣ Почему бизнесу пора стать ответом, а не ссылкой

Всем привет!
На связи София из команды применения больших языковых моделей ecom.tech. Сегодня хочу поделиться одной малоизвестной библиотекой, которую мы волей судьбы откопали на просторах github, попробовали использовать для поиска по нашей кодовой базе, и, о чудо! Это ощутимо помогло нам. Казалось бы, такой маленький шаг для человечества, но такой полезный для нашего проекта.

После первой настройки Telegram Business Bot в OpenClaw обычно все радуются базовому сценарию: вечерний саммари по личным диалогам.
Работает, удобно, но быстро появляется следующий вопрос:
А что, если нужен не только отчёт за вчера, а анализ переписок за месяц или год?
Ниже покажу, как я это у себя собрал: Telegram Business Bot + OpenClaw + memU + локальная векторная база.

Привет, Хаброжители! Последние достижения в области глубокого обучения позволяют создавать приложения, с исключительной точностью распознающие текст и речь. Появляются чат-боты, способные вести диалог не хуже реальных людей, программы, генерирующие персонализированные бизнес-отчеты, электронные письма, новости и даже романы.
«Обработка естественного языка в действии» — это практическое руководство для разработчиков, которые хотят превратить искусственный интеллект в инструмент, способный помогать людям и понимать их. Вы узнаете, как использовать Python, PyTorch, spaCy и современные архитектуры глубокого обучения для создания приложений, использующих обработку естественного языка (NLP), узнаете, как создавать чат-боты и системы поиска информации, использовать генеративные модели, а также защищать пользователей от дезинформации.
Второе издание было полностью переработано, теперь вы можете узнать о трансформерах BERT и Hugging Face, тонкой настройке больших языковых моделей и многом другом.

Даже беглый анализ некоторых текстов группы "Кино" наталкивает на мысль о довольно сильных символических значениях их стихотворных строк. Мне стало интересно провести сравнительный анализ текста песни Виктора Цоя и драмы Уильяма Шекспира "Гамлет" и найти пересечения, аллюзии и реминисценции в творчестве двух авторов помощью инструментов NLP на Python.

Привет, Хабр! Хочу рассказать про один странный пет-проект, который немного вырвался из-под контроля.
Все описанные потоки можно попробовать в github Скачивайте, ставьте звездочки)
Началось всё обычно: есть VPS (2 ядра, 6 ГБ RAM, 40 GB NVMe), есть свободное время и желание сделать что-то полезное. А ещё есть давняя хотелка — попробовать Kafka в реальном бою. Ну и Telegram-канал для изучения английского как-то сам напросился: новости BBC, разбор лексики, викторины — вроде не сложно, но и не совсем hello world.
Спойлер: Kafka я попробовал, канал работает до сих пор, а архитектура получилась немного безумной — с двумя очередями и разделением ответственности, которое я буду защищать в комментариях. Под катом — почему n8n не справился бы в одиночку, как подружить NiFi с расписанием и зачем я заставляю DeepSeek всегда класть правильный ответ в индекс 0.

Ребята, кажется, мы уперлись в стену. Пока гиганты наращивают параметры и жгут тераватты, пытаясь выжать каплю разума из статистики, я решил пересмотреть сам фундамент. Проблема не в данных, проблема в «вязкости» стандартного Attention.

Всем привет! В этой статье поделимся тем, как с помощью LLM анализировать поток из сотен договоров в ракурсе рисков и экономить на этом в год сотни часов работы юристов.

За 30+ проектов я использовал RAG в 80% случаев, Fine-tuning — в 15%, комбинацию — в 5%. В статье — практическая матрица выбора: когда RAG достаточно, когда нужен fine-tuning, а когда гибрид. С примерами кода, реальными сценариями и разбором ошибок.2

Здравствуйте, уважаемые читатели Хабра!
В этой публикации рассмотрим применение тематического моделирования для анализа имеющихся данных и визуализации семантических связей между таблицами.
Последние годы стали временем ограничений (ещё помните ковид и свои первые ощущения на самоизоляции?). То, что вчера казалось стабильным фундаментом, сегодня может исчезнуть. В таких условиях легко начать воспринимать ограничения как главного врага.
Жан-Поль Сартр писал, что человек «обречён быть свободным» — но эта свобода всегда связана с ответственностью за выбор. В цифровых продуктах мы часто говорим о свободе пользователя, но гораздо реже — о цене этой свободы.

Почти десять лет я занимаюсь машинным переводом в Lingvanex - и за это время увидел, как меняются не только модели, но и само понимание языка. В этой статье я прослежу путь от первых философских идей Древней Греции до нейросетей и LLM, которые формируют индустрию сегодня. Разберём ключевые этапы эволюции, прорывные исследования 2024–2026 годов и попробуем понять, куда движется машинный перевод дальше.