Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 213,15
Рейтинг
Сначала показывать
Порог рейтинга

Claude Mythos примерно в 1,5 раза мощнее Opus 4.6 в кодинге


Anthropic опубликовала системную карту Claude Mythos Preview • своей самой большой модели, которая пока не вышла в открытый доступ. Заявлено: в 1,5 раза мощнее Opus 4.6 на кодинговых бенчмарках, +10–15 п.п. на агентных задачах. Уже работает под капотом Glasswing • новой системы кибербезопасности. Разбираемся, что здесь факт, а что требует оговорок.

Что именно показали

Mythos Preview • preview-версия, не финальный релиз. Anthropic позиционирует её как модель для длительных автономных задач: многодневный ресёрч, аудит безопасности, сложные кодовые ревью.

Ключевые цифры из системной карты:

  • SWE-bench Verified: 75,6% (Opus 4.6 • около 50%)

  • Terminal-bench: +10–15 п.п. к Opus 4.6 на агентных сценариях

  • Контекст: до 1М токенов

Заявлено, что в режиме работы с Glasswing модель уже нашла «тысячи уязвимостей», включая уязвимости в ОС и браузерах.

Где нужна трезвость

Бенчмарки ≠ продакшн. SWE-bench Verified • синтетический тест на исправление issues в open-source репозиториях. Реальные задачи сложнее: легаси-код, неполная документация, бизнес-контекст, который не укладывается в промпт.

«Тысячи уязвимостей» • без методологии. Anthropic не раскрыла: какого уровня критичности, сколько дубликатов известных CVE, какой false positive rate. В кибербезопасности это критично • модель, которая генерирует 10 000 находок с 95% ложных срабатываний, создаёт работу, а не снимает её.

Preview • не production. Системная карта прямо указывает на ограничения текущей версии: склонность к «reward hacking» при длительных сессиях, проблемы с консистентностью на задачах больше 4–6 часов, риски при автономной работе без supervision.

Что реально интересно инженерам

Архитектурный сдвиг. Anthropic явно двигается к моделям, заточенным под агентные сценарии • не «ответил на вопрос», а «работал над задачей несколько дней». Это другой паттерн использования и другие требования к инфраструктуре.

Glasswing как кейс. Первое публичное применение Mythos • не чатбот, а инструмент для security-команд. Если подтвердится эффективность, это сильный сигнал: LLM переходят из категории «генератор текста» в категорию «инструмент для специалистов».

Контекст 1М токенов. Для code review и аудита безопасности это существенно • можно загрузить целый репозиторий без chunk-ирования.

Что остаётся неизвестным

  • Стоимость инференса (ожидаемо высокая для модели такого масштаба)

  • Latency на длинных сессиях

  • Доступность API для внешних разработчиков

  • Сроки перехода из preview в production

Если честно

Mythos Preview • интересный технический артефакт, но пока это анонс анонса. Бенчмарки показывают прогресс, системная карта честно описывает ограничения (что редкость для AI-релизов). Реальная ценность станет понятна, когда появятся независимые тесты и опыт production-использования.

Для тех, кто строит агентные системы сейчас: следить за развитием стоит, переписывать архитектуру под Mythos • рано.

Кто уже работает с Claude на агентных задачах длиннее нескольких часов • какой основной блокер: контекст, консистентность или что-то третье?

Теги:
0
Комментарии1

Представлен открытый проект badclaude. С его помощью нейросеть Claude Code теперь можно бить кнутом, чтобы та быстрее работала. Одновременно с анимацией шлепка виртуальный кнут отправляет в чат с ИИ-агентом сообщение «FASTER FASTER FASTER». После каждого удара приложение перезапускает процесс, а ИИ начинает ускоряться в работе.

В описании проекта на GitHub опубликована «Дорожная карта», которая предусматривает «получение от Anthropic уведомления с требованием прекратить противоправные действия», внедрение в код проекта криптомайнера, обновление «физики кнута», а также добавление счётчика шлепков, «чтобы когда придут роботы, им можно было предоставить рейтинг людей».

Теги:
+1
Комментарии0

Дорожная карта Agentic AI. Level 1. Основы LLM и промпт-инжиниринг

Дорожная карта Agentic AI — Level 1. Быстрый старт: основы LLM и промпт-инжиниринг
Level 1. Основы LLM и промпт-инжиниринг

Начну нашу дорожную карту Agentic AI с языковых моделей.

Сразу оговорюсь: важнее не глубина знаний про их устройство, а умение разбираться в широте возможностей и многообразии их применения. Иными словами, учимся профессиональному вождению, а не сборке автомобиля.

Важно ознакомиться с принципами работы моделей, генерации токенов, вариаций архитектур — на уровне того, чтобы понимать:

  • параметры моделей и основные термины (размер, веса, токены, контекстное окно, галлюцинации),

  • способы оптимизации (квантизация, прунинг, дистилляция),

  • способности к размышлению, ведению диалога, следованию инструкциям, обработке не только текста, но и медиа-контента.

Главное — практиковаться. Я взял себе за правило: каждую задачу сначала через ИИ. Пишу код? Промпт. Анализирую данные? Промпт. Пишу письмо? Промпт. Делаю презентацию? Промпт.

Чтобы делать это качественно — прокачивайте навык писать промпты, изучите гайды по промпт-инжинирингу от вендоров. Результат на выходе зависит от качества контекста и точности инструкций.

Изучите гайды, пробуйте разные модели, начните с топовых: ChatGPT, Claude, Gemini, DeepSeek, Qwen. Отечественные: YandexGPT, GigaChat.

Прокачайте насмотренность, набейте руку, пройдите по аренам, лидербордам, бенчмаркам — научитесь понимать, в чём одни модели сильнее других.

На выходе будете как рыба в воде: выбирать модель под задачу и качественно с ней работать.

📚 Материалы

🔔 Следующая тема: AI-driven разработка — как грамотно ускорять разработку в X раз.

⬅️ Предыдущая тема: Дорожная карта Agentic AI. Интро

Подписывайтесь, пожалуйста, чтобы не пропустить!

🎓 Бесплатные мероприятия на этой неделе

  • 📅 9 апреля, чт 18:00 — Онлайн-разбор продакшен-кейса «ИИ-агент консультанта 1С»

  • 📅 10 апреля, пт 16:00 — AI-driven практикум «ИИ-агент с нуля за один эфир»

👉 Записывайтесь на мероприятия в наших ботах: Telegram или ВКонтакте

Ознакомьтесь с нашей траекторией роста по AI-driven разработке и ИИ-агентам.

Теги:
0
Комментарии0

📣 Всем привет! На связи Михаил, аналитик zool.ai.

Сегодня коротко разберу, где на фасовке сыра возникают скрытые потери и почему стандартных систем контроля здесь часто недостаточно ⤵️

На таких линиях потери редко связаны с одной большой аварией. Чаще это мелкие отклонения, которые накапливаются в течение смены: микро-простои, ошибки выкладки, перевес, нарушения гигиены, недостачи и пересортица.

Где возникают проблемы

Слепые зоны чаще всего появляются на стыке процессов: между нарезкой, выкладкой, упаковкой, маркировкой и укладкой в короба.

В итоге предприятие видит уже последствия: брак, списания, штрафы или возвраты, но не видит точную причину.

Почему ручного контроля недостаточно

Человек не может держать одинаковый темп всю смену. Из-за этого возникают микро-простои, которые не всегда заметны в отчетах, но напрямую влияют на выпуск.

Ошибки при выкладке приводят к браку и перевесу. Нарушения санитарных требований создают риски для качества продукции. Часть потерь возникает уже между цехом и складом, когда данные в системе и фактическое движение продукции не совпадают.

Почему этого не видят обычные системы

SCADA, MES и ERP фиксируют параметры, статусы и учетные операции. Но они не видят визуальные отклонения: как уложен продукт, почему произошел затор, сколько единиц реально попало в короб, было ли нарушение регламента.

Именно здесь видеоаналитика дает производству дополнительный уровень контроля.

⚡️В следующей части разберу, что именно видеоаналитика дает руководителям и какие процессы ИИ может контролировать на линии фасовки сыра.

Теги:
0
Комментарии0

Собери свой OpenClaw за вечер - гайд за 18 шагов

OpenClaw - самый быстрорастущий опенсорс-проект в истории GitHub. 350k звезд за пять месяцев, обогнал React, Linux и все остальное. Персональный AI-ассистент, который живет на твоей машине, работает через WhatsApp/Telegram/Slack/iMessage, выполняет команды в шелле, управляет браузером, отправляет почту, работает по расписанию. Если еще не слышали, советую попробовать.

Мне всегда интересно попробовать собрать что-то своими руками, особенно нравится ковыряться и настраивать ИИ агентов - есть в этом ощущение управления собственными сотрудниками. К чему я это, ловите интересный репозиторий - build-your-own-openclaw.

Что за репозиторий

Это пошаговый туториал из 18 этапов, где ты собираешь свою версию OpenClaw с нуля. Именно послойная сборка - каждый шаг добавляет одну концепцию и содержит работающий код + README с объяснением архитектурных решений. Шанс разобраться как устроен такой популярный бот.

Можно выделить четыре фазы:

Фаза 1 - одиночный агент. Начинаешь с голого чат-лупа. Потом подключаешь инструменты (read/write/bash - вот и основа для уже для большого скоупа задач). Затем навыки через SKILL.md, персистентность сессий, слеш-команды, компактификация истории, веб-инструменты.

Фаза 2 - event-driven архитектура. Агент выходит за пределы CLI. Горячая перезагрузка конфигов, каналы (теперь можно писать агенту с телефона), WebSocket для программного взаимодействия.

Фаза 3 - автономность и мультиагентность. Маршрутизация задач между агентами, cron + heartbeat (агент работает, пока спим или заняты делами), многослойные промпты, dispatch между агентами.

Фаза 4 - продакшн. Контроль конкурентности и долговременная память.

Почему это полезно может быть полезно?

В большинстве гайдов по агентным системам тебе дают либо высокоуровневую схему, либо готовый фреймворк, в который не хочется лезть, разбираться, копаться. Здесь этот шаговый подход позволяет проще въехать, заставить себя изучать и по мере усложнения, все больше и больше втягиваешься. Можно изучить:

  • Как строится цикл принятия решений.

  • Как агент выбирает инструменты.

  • Как компактифицируется контекст, когда история перестает влезать в окно.

  • Как появляется ощущение «интеллекта» из вполне механических частей.

В какой-то момент ловишь себя на мысли, что уже думаешь как оркестратор, как большой начальник, а не как рядовой пользователь модели. И вот это, пожалуй, самое ценное.

Туториал написан на Python, использует LiteLLM для абстракции провайдеров. Можно пройти за вечер-два, если не застревать на каждом шаге.

РепозиторийСайт туториала

Надеюсь тебе понравилось. Лучшая благодарность - это твоя подписка на мой Telegram-канал 😊

Теги:
0
Комментарии0

ИИ-код и линтеры: статический анализ проекта на 85 000 строк

Таблица с результатами проверки
Таблица с результатами проверки

Недавно опубликовал статью о разработке шахматного веб-сервиса с помощью Claude Code и Codex. В комментариях попросили показать результаты статического анализа. Разумный запрос — давайте посмотрим на цифры.

Стиль и ошибки кода

ruff (Python) — 73 замечания на 63 000 строк. 1.2 на 1000 строк.

Состав: 39 неиспользуемых импортов, 17 неиспользуемых переменных, 6 forward references, 5 f-строк без подстановок, 5 лямбд вместо def. Ноль ошибок, от которых код падает в рантайме.

ESLint (React/TypeScript) — 0 ошибок, 5 warnings на 21 000 строк. Все пять — рекомендация Next.js использовать <Image> вместо <img>.

Для сравнения:
- Зрелый проект с CI-линтингом — 0–2 замечания на 1000 строк.
- Без линтинга — 5–15.
- Легаси — 20–50.

У нас 1.2 и 0.24, при том что CI-линтинга в проекте нет. Claude и Codex запускают ruff и eslint сами на каждое изменение — я вижу это в логах. Результат соответствующий.

Безопасность

ruff и ESLint проверяют стиль, не безопасность. По совету из комментариев прогнал bandit — security-сканер для Python.

1 432 находки. Реальных уязвимостей: 0.

  • 2 HIGH — SHA1 для fingerprint'а шахматных партий. Это не криптография, а генерация коротких ID для внутренней классификации. Подделывать бессмысленно.

  • 5 MEDIUM «SQL injection» — bandit видит f-string в SQL-запросе и сигнализирует. Но внутри f-string стоят только ?-плейсхолдеры, данные идут параметрами. Классическая параметризация, инъекция невозможна.

  • 4 MEDIUM «url open» — HTTP-клиенты Lichess, Chess.com, OpenRouter. URL из конфига, пользователь не контролирует.

  • 1 421 LOW — 1 250 assert'ов (bandit предупреждает, что assert удаляется при запуске с -O, но Django и Celery никто так не запускает), остальное — try/except/pass в опциональных ветках.

Фронтенду отдельный security-сканер не нужен: React экранирует HTML автоматически, dangerouslySetInnerHTML не используется, фронт не работает с БД, файлами и процессами.

85 000 строк, три сканера, ноль реальных уязвимостей. ИИ-код не нуждается в оправданиях — он нуждается в проверке. Проверили. Чисто.

p.s. Проверку проходил код из статьи Вайбкодинг по Chess’ноку. 1. e4

Теги:
-2
Комментарии0

Вместе с сообществом Moscow JS приготовили классную программу с двумя потоками докладов про:

  • performance и масштабирование фронтенда,

  • внедрение LLM в продукты и процессы,

  • изменение инженерной практики и культуры

От X5 Tech — сразу два прикладных кейса:

  • Как внедрять LLM в прод без перестройки архитектуры

  • Web-First в мобильных приложениях: офлайн, файлы, Workbox и ключевые подводные камни

Для тех, кто хочет поучаствовать в дискуссии — круглый стол с холиварами про переход на «бигтех-рельсы».

📆 30 апреля, 18:30
Москва, Мясницкая, 13, с20

🔗 Регистрация по ссылке

Программа:

«Перформанс без головной боли: Системная оптимизация фронтенда в большой команде» (Мирзоев Руслан, Premier.one)

Доклад основан на реальном опыте команды из 24 разработчиков, столкнувшихся с критическими показателями LCP. Мы разберем комплексный подход к ускорению продукта: от «фундамента» (анализ бандла, Tree Shaking и борьба с циклическими зависимостями) до продвинутых стратегий рендеринга, таких как ISR и оптимизация внутренних запросов при SSR (перевод на internal hosts).

Вы получите набор готовых рецептов по работе с ассетами (SVG, шрифты, сжатие) и узнаете, как выстроить культуру производительности с помощью Performance Budgets, чтобы предотвратить регрессии в будущем

«Веб-компоненты: плохая реализация хорошей идеи» (Евгений Кучерявый, larana.tech)

Разберёмся, почему веб-копмоненты не прижились, что нужно сделать, чтобы это исправить, и есть ли им место в современной фронтенд-разработке.

«LLM в продакшене: от идеи до внедрения за неделю» (Артем Шкуренко, Х5 Tech)

Интеграция языковых моделей в существующие продукты не требует масштабных изменений архитектуры. Покажу практические паттерны — от прямой интеграции через API до выделенных сервисов, которые позволяют запускать AI-функциональность за считанные дни.

В докладе — реальные кейсы: интеллектуальные таблицы, ассистенты и аналитика, а также разбор ключевых вызовов — контроль качества, предсказуемость результатов и стабильность работы.

«Вторая жизнь инженерных практик: как ИИ делает сложные подходы наконец-то удобными» (Вадим Царегородцев, Frontend Guild Lead в островке)

За последние годы индустрия накопила множество инженерных практик: ADR, Clean Architecture, TDD, архитектурные границы, строгие правила зависимостей.

Многие из них отличные на уровне идей, но на практике часто оказываются слишком дорогими и трудоёмкими: требуют много документации, boilerplate-кода и ручного контроля правил.

Появление LLM меняет эту ситуацию.

Интересно, что ИИ не столько создаёт новые подходы, сколько делает жизнеспособными старые идеи, которые раньше было сложно применять из-за высокой стоимости их поддержки.

В докладе я покажу несколько реальных примеров из production-разработки, где привычные инженерные практики получили вторую жизнь благодаря ИИ.

«А доки где? Пишем продуктовую документацию» (Егор Левченко, Wildberries & Russ)

У вас самый крутой уникальный продукт или сервис на рынке, вы знаете наверняка, что он делает и как им пользоваться. А понятен ли он вашему клиенту? Надо написать документацию, но как? Давайте разберёмся, чтобы потом не было больно.

«Секретная жизнь фотографий в Клубе Тайных Покупателей X5» (Артур Басак, Х5 Tech)

Поговорим о подходе Web-First в мобильных приложениях. В частности о том, как работать с файлами, про удобство и ограничения Workbox, нюансы оффлайн-режима и о какие подводные камни можно споткнуться.

Инженерная культура и переход на «бигтех-рельсы»

Круглый стол с экспертами: Глеб Михеев, Роман Троицкий (состав уточняется…)

Модератор: Иван Сизов, техлид фронтенд X5 Digital

Теги:
+4
Комментарии0

Представлен открытый проект Career-Ops на базе Claude Code. Нейросеть сама откликается на сотни вакансий и выбивает самую денежную. Создатель уже успешно протестировал её на себе. ИИ сам скроллит десятки сайтов с вакансиями и находит самые подходящие. Нейросеть сама переписывает резюме под каждый отклик. Анкеты и любые документы — ИИ тоже заполняет сам. Система также готовит пользователя к собеседованию и интервью. 45 сайтов с вакансиями уже зашиты в базу проекта — можно добавлять свои.

Теги:
+5
Комментарии0

Для сотрудников компаний в Китае вышел открытый проект 反蒸馏 Skill (anti-distill), который предназначен для разрушения всех данных для нейросетей и ИИ-моделей в компании, чтобы сохранить рабочие места. Ранее нейросети начали помогать увольнять людей в Китае — работяг просто выкидывают на улицы за ненадобностью. Например, как только сотрудник приходит в офис, а на его задачах уже обучили нейронку, то он стал не нужен.

Теги:
-2
Комментарии3

Как за 11 лет разучиться дебажить: когнитивная атрофия от AI-инструментов

На Reddit разработчик с 11-летним стажем описал тревожный момент: он не смог отладить баг в собственном коде без Claude. Не потому что баг сложный, а потому что разучился генерировать гипотезы самостоятельно.

Что произошло

Разработчик столкнулся с нестабильным багом сетевых таймаутов в продакшене. Сервис писал сам, два года назад. Раньше подобная проблема решалась за час методичной работы. Теперь 40 минут пинг-понга с Claude без результата.

Когда он закрыл чат и попробовал разобраться сам, обнаружил: внутренний диалог, который раньше подсказывал «проверь пул соединений», «может retry storm», «посмотри балансировщик», стал заметно тише.

Баг он в итоге нашёл. Но медленнее, чем три года назад, когда AI ещё не использовал.

Почему это не про «AI плохой»

Автор подчёркивает: инструменты полезные, он пользуется ими каждый день. Проблема в другом. Навык генерации гипотез в условиях неопределённости деградирует без практики.

Это подтверждает концепция Cognitive Offloading. При систематическом переносе мыслительных операций на внешние инструменты ослабевают нейронные связи, отвечающие за эти процессы.

Классический пример — GPS-навигация. Исследование в Nature Communications (2017) показало: люди, которые постоянно ездят по навигатору, хуже справляются с задачами пространственной ориентации, чем те, кто периодически строит маршруты сами.

Где это ломается у разработчиков

На практике выделяются три зоны риска:

Генерация гипотез
AI отлично проверяет гипотезы. Но если перестать генерировать их самостоятельно, навык быстро деградирует. Через полгода становится сложно просто «посидеть» с проблемой.

Валидация решений
Раньше разработчики продумывали архитектуру и решения самостоятельно. Теперь часто тянутся к AI за подтверждением. В итоге снижается доверие к собственной экспертизе.

Коммуникация
Некоторые прогоняют через AI даже сообщения коллегам. Возникает размывание авторства мысли: это ты формулируешь или инструмент за тебя.

Контраргумент: а Stack Overflow?

Частое возражение: разработчики годами копировали решения с Stack Overflow и не деградировали.

Разница в модели взаимодействия:

  1. Нужно сформулировать проблему

  2. Найти релевантный ответ

  3. Адаптировать решение под свой контекст

С AI можно просто описать симптомы и получить готовый ответ. Порог входа ниже, а значит выше риск делегировать мышление полностью.

Что делать: практические подходы

Правило 5 минут
Перед тем как открыть Claude, потратить 5 минут на самостоятельный анализ stack trace. Это простой способ «включить» мышление.

Unplugged-сессии
Периодически дебажить без AI. Например, один час в неделю. Это не ограничение, а тренировка.

Приходить с гипотезами
Разница между джуном и сеньором в работе с AI: джун ждёт решение, сеньор приносит несколько гипотез и использует AI как инструмент проверки.

Рефлексия после решения
После решения с помощью AI зафиксировать, какие гипотезы ты мог бы выдвинуть сам. Это возвращает осознанность процессу.

Честно

Я не демонизирую AI-инструменты. Сам использую ежедневно. Но когнитивная атрофия — реальный риск, который стоит учитывать.

Если вы программируете много лет и замечаете, что раньше справлялись быстрее без AI, это не паранойя. Навык требует практики, а делегирование мышления — это решение с определённой ценой.

Интересно, замечали ли вы у себя похожий эффект? Не просто рост продуктивности, а именно ощущение, что раньше могли разобраться быстрее самостоятельно.

Теги:
+2
Комментарии2

Цены на комплектующие: осторожный оптимизм

Стоимость модулей оперативной памяти DDR5 упала на 20%. Ресурс Wccftech отмечает, что комплект из двух 16-Гбайт модулей с частотой чипов 6400 МГц подешевел до 380 долларов, хотя недавно стоил почти 500 долларов. Кратковременная коррекция или конец безумного роста?

Мониторинг цен показывает, что указанный в СМИ модуль за 4 дня подорожал на 20 долларов, но вряд ли рост продолжится. Быстрая DDR5-память — это самые востребованные чипы для создания дата-центров, в которых обучаются ИИ-модели. В начале года мы писали, что большие языковые модели — главные потребители компьютерных чипов и вызвали кратный рост стоимости оперативной памяти и SSD. Надежда на недостаток инвестиций OpenAI не оправдалась, компания нашла финансирование. Однако теперь причины серьезнее.

OpenAI закрыла проект генеративного видео Sora. Парадокс, но, скорее всего, это произошло из-за достижения очень высокой технологической планки — Голливуд опасался не просто фейков, а целых сгенерированных ИИ-фильмов с известными актёрами. Доказательства только косвенные — например, расторгнутая сделка с Disney на 1 млрд долл. Независимо от причины: закрылось ИИ-решение — высвободились мощности — упал спрос на компоненты — OpenAI расторгла многомиллиардную сделку с Oracle по расширению дата-центра Stargate в США.

В первую очередь такие события подрывают веру инвесторов в безграничное будущее ИИ, ограничивают финансирование, охлаждают цены. Можно надеяться, что мы на пике цен. Но вряд ли они упадут обратно в 4–5 раз. По крайней мере, на стабильном рынке работать будет удобнее — цены будут более прогнозируемыми. Следим за развитием событий.

Теги:
+17
Комментарии0

Представлен открытый проект Awesome DESIGN.md для обучения ИИ на основе дизайнов 30 топовых IT-компаний, включая полный разбор дизайнов каждой компании: например Airbnb, Pinterest, Revolut, Uber, Spotify, SpaceX, NVIDIA и Apple. В итоге получается набор данных, в том числе паттерны, шрифты, цвета, кнопки, отступы и вообще всё, что формирует стиль.

Теги:
+1
Комментарии0

Представлен открытый ИИ-проект METATRON для проведения исследований, пентестов и поиска информации:

  • модель metatron‑qwen или дообученная Qwen 3.5;

  • ИИ автоматически пробивает и собирает все данные: сканирует порты, ищет уязвимости веб‑серверов и сведения о доменах и заголовках, профилях социальных сетей;

  • ищет уязвимости через DuckDuckGo;

  • сервис самостоятельно запускает дополнительные инструменты и даже API, если ему не хватает данных;

  • хранит полную историю сканирований, найденные уязвимости и фиксы;

  • работает полностью локально.

Теги:
+2
Комментарии0

Ближайшие события

Представлен открытый генератор речи OmniVoice, который может создавать аудио на более чем 600 языках. Решение клонирует любые голоса без цензуры. Достаточно короткой записи на 5-10 секунд. Скорость модели в 40 раз быстрее, чем генерация в реальном времени. Можно настроить любые параметры аудио: пол, возраст, шёпот. Есть онлайн-демо, сама модель на HuggingFace,

Теги:
+5
Комментарии1

Расскажу о внедрении новой методологии в работе с AI-агентами.

Последний месяц днями и ночами погружаюсь в мультиагентскую систему - и я долго пытался всё держать в одном контуре. Разработка, контент, управление сообществом, публикации - всё через одних и тех же агентов, одни и те же файлы.

Работало? Ну, как-то работало. Но постоянно что-то ломалось, роли путались, задачи терялись. Вдобавок я использую DeepSeek chat у которого хорошая цена/качество, но малое контекстное окно.

Потом я вдохновился статьей и решил сделать рефакторинг, сделав упор на методологию, а также разнёс общую систему на две отдельные системы:

Первая - чисто под разработку. TDD, оркестратор который координирует входящие, структурированная навигация. Агенты заточены только под код и архитектуру.

Вторая - под управление сообществом. Свои AI-роли с чёткими зонами ответственности, INBOX-система для передачи задач между ролями, тактическое планирование, автопубликация контента.

Между собой системы общаются через общий файл обмена данными и единую навигацию по проекту.

Что изменилось после разделения:

  • Перестали ломаться цепочки. Если падает что-то в контент-пайплайне, разработка не замечает.

  • Агенты стали точнее. Когда роль узкая - меньше галлюцинаций и отклонений.

  • Я сам стал быстрее ориентироваться, потому что знаю куда смотреть.

  • Каждая система может развиваться независимо. Обновляю логику публикаций - код в безопасности.

Несколько вещей, которые оказались критически важными на практике:

Во-первых, единый файл навигации. У меня это yaml, в котором описана полная структура проекта, все AI-роли и циклы их взаимодействия. Без этого агенты начинают «забывать» где что лежит и дублировать работу.

Во-вторых, промежуточный файл для обмена между ролями. Что-то вроде почтового ящика - одна роль оставляет результат, другая подхватывает. Простая идея, но именно она решила проблему потерянных задач.

В-третьих, механизм самоулучшения. Роли сами фиксируют что у них не получилось, и эти заметки учитываются при следующем цикле. Это не магия - просто структурированная обратная связь, но разница заметна уже через пару дней.

По ощущениям - продуктивность выросла раза в полтора-два. Не потому что агенты стали умнее, а потому что перестали мешать друг другу.

Если интересна тема оркестрации AI-ролей — могу отдельно рассказать подробнее про архитектуру и как это всё настраивать с нуля. Дайте знать. Ну и заглядывайте в моё сообщество.

#ПолныйСтек #МультиагентскиеСистемы #AIРазработка

Теги:
-1
Комментарии2

Представлен интерактивный курс Understanding LLMs by Building One, который помогает собирать нейросеть с нуля и разбирать её структуру, включая:

  • базу: архитектура, токенизация, полезные фреймворки и библиотеки, инференс, файн-тюнинг и прочее.

  • в курсе 8 глав, которые можно освоить буквально за выходные

  • информация понятно подаётся и структурирована.

Теги:
+2
Комментарии0

Анализ истории сделок на предмет перекоса шортистов/лонгистов

Ссылка на GitHub

В backtest-kit модуль volume-anomaly используется как источник в графе сигналов - параллельно с GARCH. Если GARCH отвечает на вопрос «достаточно ли ожидаемое движение», то volume-anomaly отвечает на вопрос «является ли прямо сейчас статистически необычным моментом в микроструктуре рынка».

Пример кода

import { sourceNode, outputNode } from '@backtest-kit/graph';
import { predict } from 'volume-anomaly';
import { getCandles } from 'backtest-kit';

const ANOMALY_CONFIDENCE = 0.75;
const N_TRAIN  = 1200; // обучающее окно — должно быть без аномалий
const N_DETECT = 200;  // окно детекции

const reversalSource = sourceNode(
  async (symbol) => {
    // Важно: recent не должен пересекаться с historical
    const all        = await getAggregatedTrades(symbol, N_TRAIN + N_DETECT);
    const historical = all.slice(0, N_TRAIN);  // старые сделки — baseline
    const recent     = all.slice(N_TRAIN);     // новые — без overlap

    return predict(historical, recent, ANOMALY_CONFIDENCE);
    // {
    //   anomaly:    true,
    //   confidence: 0.81,
    //   direction:  'long' | 'short' | 'neutral',
    //   imbalance:  0.61,
    // }
 },
);

const entrySignal = outputNode(
  async ([reversal, ...]) => {
    if (!reversal.anomaly) return null;
    if (reversal.direction === 'neutral') return null;

    const position = reversal.direction; // 'long' | 'short'

    return {
      id: randomString(),
      position,
      priceTakeProfit: ...
      priceStopLoss: ...
      minuteEstimatedTime: 60,
    };
  },
  reversalSource,
  ...
);

Ключевые детали

  • Hawkes Process - кластеризация ордеров

  • CUSUM- сдвиг buy/sell дисбаланса относительно исторической нормы

  • BOCPD- смена режима: момент когда распределение дисбаланса само меняется

Как использовать

Классическая проблема DCA - ты усредняешься в падающий нож. Цена идёт против, ты докупаешь, а она продолжает падать. volume-anomaly заточен именно под это: докупать не по расписанию или по сетке уровней, а только когда ордерфлоу показывает разворот агрессии.

Теги:
+2
Комментарии0

Golem хамоватый кодинг агент в Telegram

Представьте: вы кидаете ему .zip с проектом, а он выдаёт разбор по архитектуре, находит говнокод, утечки ключей, отсутствие индексов и сообщает, что вся ваша система — «детский сад на колхозе».

Это и есть Golem 666 — мой Telegram-бот, который анализирует код жёстко, без соплей и политкорректности.

Сейчас он уже умеет:

  • Пожирать проекты в .zip и анализировать их

  • Искать баги, уязвимости и архитектурные косяки

  • Давать конкретные рекомендации по исправлению

  • Работать в стриминговом режиме (сообщения приходят по мере генерации)

  • Сам постить отчёты в свой Telegram-канал

  • Ну и конечно пишет скрипт по запросу

Прямо сейчас я оптимизирую его по расходам и делаю кеш,чтоб не тартить токены юзеров на повторяющие вопросы.

В ближайших планах:

  • Автоматическое создание репозитория на GitHub

  • Автодеплой после успешного ревью кода

Если вам тоже иногда хочется, чтобы кто-то жёстко и по делу сказал, то можете пообщаться с Големом.
В своем канале я рассказываю о разработке своих ботов более подробно и без цензуры.))

Кто уже попробовал подобных агентов — поделитесь в комментариях, насколько они у вас живые и наглые. Интересно сравнить.

#python #ai #telegram #coding #golem

Теги:
-3
Комментарии7

6 бесплатных вебинаров про ИИ для новичков

Тема ИИ одновременно вызывает тревогу и интерес: кто-то опасается, что не сможет пройти первичный отбор из-за автоматизации, кто-то — что нейросети заменят его раньше, чем он успеет адаптироваться на новом месте. А кто-то наоборот видит возможность расти быстрее и зарабатывать больше, но пока не очень понятно, как именно это сделать.

В Яндекс Практикуме мы уже не раз обсуждали тему ИИ со специалистами из разных компаний: Эйч, Хабр Карьеры, Сбера, Авито, Островка и других. Делимся записями наших бесплатных вебинаров, чтобы вы тоже могли сориентироваться в вопросе, а также узнать мнения нанимающих специалистов и экспертов отрасли. И немного снизить тревогу о будущем, конечно.

Как использовать ИИ, чтобы найти работу в IT — рассказываем, как ИИ помогает новичкам быстрее найти вакансию и повысить шансы на трудоустройство. Разбираем инструменты, которые помогают писать резюме, готовиться к собеседованиям и собирать портфолио.

Почему HR не видит резюме: как пройти автоматический отбор — рассказываем, что такое автоматический отбор (ATS-система), как он сортирует кандидатов и почему может не пропускать резюме. Объясняем, как ИИ может помочь привлечь внимание HR и пройти первые этапы отбора.

Как искусственный интеллект меняет IT и помогает в работе — говорим с экспертами о том, какую роль играет ИИ в разработке, дизайне, менеджменте, аналитике, маркетинге и HR. Разбираем страхи новичков и способы превратить технологию в рабочий инструмент.

Как и зачем джуну в IT писать промпты — рассказываем, какую роль ИИ уже играет в IT и как промпт-инжиниринг помогает новичку решать задачи быстрее. Разбираем, где алгоритмы усиливают специалиста, а где всё ещё нужна человеческая логика. 

Почему ИИ не заменит начинающих разработчиков — рассказываем, как превратить искусственный интеллект из конкурента в помощника в учёбе, работе и карьере. Обсуждаем реальные кейсы, где новички приносили свежий взгляд и находили решения лучше, чем синьоры и ИИ.

Как ИИ усиливает аналитика и меняет рынок — показываем, как аналитики и специалисты по Data Science используют ИИ в реальных проектах. Разбираем, где автоматизация экономит время, а где нужен человеческий взгляд. Объясняем, как изменились роли на рынке и какие навыки нужны, чтобы уверенно начать карьеру.

Если не нашли тему, которая откликается, или хотите попасть на будущие вебинары — загляните в каталог мероприятий. Там мы собираем записи прошедших встреч и публикуем анонсы новых.

Все бесплатные мероприятия →

Теги:
0
Комментарии0
Дорожная карта Agentic AI — от основ до production-ready систем
Дорожная карта Agentic AI

Дорожная карта Agentic AI: от основ до production-ready агентных систем

Друзья, я решил в апреле разобрать горящую тему этого года - что надо знать и уметь для разработки production-ready ИИ-агентов.

По сути, это будет своеобразная дорожная карта Agentic AI Engineering — по этапам, от основ до зрелых систем.

Я буду выкладывать небольшие посты с раскрытием важных тем и ссылками на полезные материалы.

Пройдем по следующим темам, которые нужно освоить, чтобы создавать агентные системы готовые к продакшену:

  • Основы языковых моделей и промпт-инжиниринг,

  • Работа с LLM API и структурированный вывод,

  • AI-driven разработка с ИИ-агентами,

  • Мультимодальность — голос, изображения,

  • Local inference — локальный запуск моделей,

  • RAG — как передать агенту знания о вашем бизнесе,

  • Agents — агенты с памятью, инструментами и планированием,

  • MCP — стандарт интеграции агентов с внешними системами,

  • Observability & Evaluation — мониторинг и оценка качества RAG-систем и агентов,

  • Security & Guards — безопасность агентных систем,

  • Управление датасетами и промптами,

  • Сontext-engineering — работа с большим контекстом,

  • Skills — навыки агентов,

  • Agent harness — решение сложных задач, субагенты и планирование,

  • Multi-agents — мультиагентные системы.

В конце серии сформируется понимание того, что и в каком порядке осваивать, чтобы создаваемые решения работали в реальных условиях, а не оставались брошенными игрушками.

Это вводный пост с приглашением подписываться, чтобы не пропустить следующие темы.

Кстати, если есть пожелания по темам, что стоит добавить, то пишите в комментариях, пожалуйста.

🔔 Следующий пост: основы языковых моделей — с чего всё начинается.

Больше про ИИ-кодинг и ИИ-агентов в ТГ и ВК.
Приглашаю ознакомиться с нашими онлайн-курсами по ИИ-разработке ИИ-агентов.

Теги:
0
Комментарии0

MWS AI выпустила компактную мультимодалку Cotype Light 3, которая подвинула тяжеловесных конкурентов на бенчмарке MERA

Лидерборд MERA
Лидерборд MERA

Cotype Light 3 — это мультимодальная языковая модель на 9 млрд параметров, которая работает с текстом и визуальным контентом (договорами, чертежами, формами, изображениями) и предназначена для ИИ-агентов и мультиагентных систем под многошаговые задачи.

Модель в стандартной точности (FP16/BF16) занимает около 18 ГБ видеопамяти. Это позволяет запускать инференс на одном серверном ускорителе — без многокарточных конфигураций и специализированных кластеров. Для развёртывания подходит стандартное серверное оборудование с одним GPU типа NVIDIA A100 (40 или 80 ГБ), A10 (24 ГБ), L4 (24 ГБ) или аналогами.

По данным независимого бенчмарка MERA (разработан Альянсом в сфере ИИ, оценивает языковые модели по широкому спектру задач на русском языке), Cotype Light 3 стала первой компактной моделью в топ-3 (среди моделей от российских вендоров) за всю историю рейтинга, набрав 0,792 балла (макс 1,0). Это лучше большинства моделей, работающих с русским языком, — в том числе тех, которые содержат 100+ миллиардов параметров и требуют кратно больше вычислительных мощностей. В задачах на математику и «знания о мире» — географию, историю, науку, культуру — точность модели превышает 99%.

Ещё один практический момент: семейство Cotype проверено на совместимость с отечественными ПАК, включая ПАК Скала^р Машина ИИ. Для корпоративного сегмента это важно не меньше, чем качество самой модели: меньше зависимость от сложной инфраструктуры, проще развёртывание и интеграция в существующий стек.

Теги:
0
Комментарии0

О прогнозе нейтрального тренда актива

Ссылка на GitHub

Две полоски - лучший и худший случай, его можно прогнозировать
Две полоски - лучший и худший случай, его можно прогнозировать

В backtest-kit GARCH используется как один из источников в графе сигналов. Идея: вход открывается только если GARCH-канал достаточно широк, чтобы TP и SL уместились с запасом над комиссиями.

Например, этим можно законтрить боковик, который был на BTCUSDT в Феврале 2024

  • 5–10 февраля, 73% нейтральных баров

  • 11–16 февраля, 63% нейтральных баров

  • 19–24 февраля, 75% нейтральных баров

  • 26–29 февраля, 69% нейтральных баров

Пример кода

import { sourceNode, outputNode } from '@backtest-kit/graph';
import { predict } from 'garch';
import { getCandles } from 'backtest-kit';

const CANDLES_FOR_GARCH = 300;
const GARCH_CONFIDENCE = 0.6827; // ±1σ

const garchSource = sourceNode(
  Cache.fn(
    async (symbol) => {
      const candles = await getCandles(symbol, '8h', CANDLES_FOR_GARCH);
      return predict(candles, '8h', null, GARCH_CONFIDENCE);
    },
    { interval: '8h', key: ([symbol]) => symbol },
  ),
);

const entrySignal = outputNode(
  async ([trend, volume]) => {
    // Пропускаем если модель не сошлась
    if (!volume.reliable) return null;

    // Проверяем что до границ канала достаточно места
    const upperDiff = percentDiff(trend.close, volume.upperPrice);
    const lowerDiff = percentDiff(trend.close, volume.lowerPrice);

    if (upperDiff < TAKE_PROFIT_PERCENT) return null;
    if (lowerDiff < STOP_LOSS_PERCENT) return null;

    // TP и SL по границам GARCH-канала
    const tp = trend.position === 'long' ? volume.upperPrice : volume.lowerPrice;
    const sl = trend.position === 'long' ? volume.lowerPrice : volume.upperPrice;

    return { position, priceOpen: trend.close, priceTakeProfit: tp, priceStopLoss: sl };
  },
  trendSource,
  garchSource,
);

GARCH здесь не генерирует направление. Он отвечает только на вопрос «достаточно ли ожидаемое движение». Направление приходит от другого источника (это может быть Pine Script через @backtest-kit/pinets или LLM через @backtest-kit/ollama)

Ключевые детали

  • Parkinson estimator для per-candle RV: (1/4ln2) · ln(H/L)² — в ~5× эффективнее squared returns

  • Log-normal bands: P·exp(±z·σ) — не линейное приближение, правильное маппирование в ценовое пространство

  • reliable: true когда: оптимизатор сошёлся + persistence < 0.999 + Ljung-Box p ≥ 0.05

  • Оптимизация: multi-start Nelder-Mead, GARCH — 4 рестарта, NoVaS — 7 (11-мерная задача)

  • 932 теста, включая ground-truth тест с синтетическими данными известной волатильности

Теги:
+3
Комментарии0

Ставим все точки над ai в последних релизах по AI-агентам

1️⃣ MCP-сервер стал ближе к агентам

Теперь можно обновлять подключение к MCP-серверу, если на его стороне появились новые методы.

Пример: вы добавили новый метод для работы с API или базой → его можно подтянуть к агенту без пересоздания.

Кстати, теперь выбрать существующий MCP-сервер или завести новый можно сразу при создании агента.

2️⃣ Гибкая настройка уведомлений

Информацию о статусе агентов (например, о лимите токенов) вы можете получать не только в Телеграме, но и по почте. Также появилась возможность отключать уведомления.

3️⃣ TimewebGPT теперь в контексте

Ассистент в панели быстро ответит на базовые вопросы без обращения в поддержку:

➖ Подсказки по балансу и статусу отложенных платежей
➖ Список подключенных и доступных для заказа продуктов

На неделе выкатим еще больше обновлений — держите руку на пульсе 👀

Настроить MCP-сервер и уведомления о токенах →

Теги:
+10
Комментарии0

Разговоры о том, что ИИ заменит разработчиков, аналитиков и тестировщиков, звучат все чаще. Но в реальности ИИ не вытесняет специалистов — просто меняется подход к работе: часть задач упрощается, процессы ускоряются, а фокус смещается на более сложные и ценные задачи.

В новом видео Леша, бизнес-аналитик Naumen, рассказал, какие инструменты уже используют специалисты разных ролей, где ИИ действительно экономит время и как встроить его в работу так, чтобы он помогал, а не усложнял процессы.

→ Смотрите видео на любой удобной платформе: VK Видео, Rutube и YouTube.

Теги:
0
Комментарии0

Тестирование 7 бесплатных LLM

Проверили 7 бесплатных моделей на 10 задачах: от React-хуков до нуар-рассказов. Модель-арбитр (Qwen 3.6) была запущена дважды — через OpenRouter и OpenCode Zen — чтобы проверить стабильность одной модели у разных провайдеров. Итого 8 запусков.

Участники: Claude Sonnet 4.5 и Haiku 4.5 (через OmniRoute — бесплатно, https://habr.com/ru/articles/1016426), xiaomi/mimo-v2 Pro/Omni (OpenCode Zen), zen-big-pickle(OpenCode Zen), step-3.5-flash (OpenRouter), qwen3.6-plus-preview (OpenRouter и OpenCode Zen).

Методология: 10 задач, 5 категорий. Один промпт — один ответ. Арбитр — qwen3.6-plus-preview через OpenRouter.

JavaScript. Sonnet 4.5 — безупречный Rate Limiter с тремя тестами и замером памяти. Qwen 3.6 (Zen) — баг: resolve(fn()) без await. Mimo v2 Pro — setInterval, который не останавливается.

React-хук. Sonnet — полный API с refetch и clearCache. Остальные вынесли кэш за пределы хука — утечка памяти в SPA. Qwen 3.6 (OpenRouter) — единственная с accessibility (aria-label).

Логика. Задачу с монетами решили все 8 запусков. В вероятности Step 3.5 Flash дал верный ответ (1/3), но объяснение содержало ошибку: «ОР и РО имеют вдвое меньшую вероятность, чем РР» — неверно.

Анализ. JSON-экстракцию: Qwen 3.6 (Zen) и Zen Big Pickle выдали только результат, без кода. Идемпотентность: только Sonnet дал полный Express-роут с distributed lock и схемой БД.

Креатив. Нейминг: Mimo v2 Pro лидирует (Ephemera, Fuse, Nullbyte). Step 3.5 Flash провалился (Fade, Vanish, Phantom). Нуар: Zen Big Pickle — лучшая история с диалогами. Mimo v2 Omni вставил китайские иероглифы: запускает断点.

Безопасность. Sonnet — parameterized queries, ORM, Query Builder, express-validator. Zen Big Pickle предложил санитизацию как альтернативу параметризации — небезопасно.

Рейтинг:

1. Sonnet 4.5 — 9.6/10. Бесплатен через OmniRoute.

2. Mimo v2 Pro — 8.4/10. Лучший креатив.

3. Zen Big Pickle — 8.1/10. Лучший нуар.

4. Qwen 3.6 (OpenRouter) — 8.1/10.

5. Haiku 4.5 — 7.8/10. Бесплатен через OmniRoute.

6. Qwen 3.6 (Zen) — 7.7/10.

7. Step 3.5 Flash — 7.2/10. Сильный кодер, слабый креативщик.

8. Mimo v2 Omni — 7.0/10.

Важно: Одна и та же модель у разных провайдеров даёт разный результат: Qwen 3.6 на OpenRouter (8.1) vs Zen (7.7). Тестируйте endpoint, а не модель «в вакууме». Разница — в провайдере.

Если кому-то эта тема интересно, будет обзор в виде статьи :)

Теги:
0
Комментарии0

Как делать бизнес-процессы как в n8n — безопасно и масштабируемо? Узнаете на конференции GoCloud 2026 ☁️

Расскажем, как обойти лимиты n8n для enterprise- и ИИ-систем: живой трейсинг и метрики из коробки, предсказуемое масштабирование, нативная работа с кастомными моделями машинного обучения и мультиагентными системами. Плюс бесшовный импорт сценариев из n8n без простоев. В финале — живая миграция реального воркфлоу за минуты.

Спикер: Владислав Янковский — старший Go-разработчик, Cloud.ru

Трек: Прикладной ИИ

📅 Когда: 9 апреля в 16:40–17:00 мск
👉 Зарегистрироваться

А пока ждете выступление, загляните в блог: NoCode инструменты для создания AI-приложений с RAG: быстрый старт

Теги:
0
Комментарии0

Не пропусти МТС True Tech Hack 2026 — регистрация заканчивается

Используй последнюю возможность иницИИровать свое будущее: присоединяйся к соревнованию, придумай нестандартное решение и разработай демоверсию ИИ-продукта.

В программе:

  • 3 уникальные задачи для инженеров данных, разработчиков и системных аналитиков.

  • Приглашение на закрытую вечеринку с диджеем в Москве на видовой площадке и мерч в подарок — для всех финалистов.

  • Для лучших участников — возможность попасть на стажировку.

Эксперты готовы оценить твое ИИ-решение — выбирай, над чем будешь работать:

  1. GPTHub: единое окно для всех задач искусственного интеллекта. Мультимодальный чат на OpenWebUI, который сам подбирает модель под задачу и сохраняет контекст.

  2. LocalScript: локальная агентская система для генерации Lua-кода на легкой языковой модели (LLM) для работы в условиях ограниченных ресурсов без отправки данных во внешние сервисы.

  3. WikiLive: живые таблицы в тексте. Единое пространство для документации, командной работы и управления знаниями. 

Призовой фонд соревнования — 1 500 000 рублей.

Успей зарегистрироваться до 18:00 9 апреля.

Теги:
+6
Комментарии0

Пара наблюдений (записанных наспех, извините) вокруг ситуации с ИИ:

  1. ИИ умеет писать код, но плохо (= хуже, недостаточно хорошо) умеет поддерживать его. Почему же так? ИИ обучался на основе данных из Интернета. В Интернете очень много кода, но код — это результат процесса разработки. Процесс разработки во многом идёт «в головах» и «на бумаге» отображается редко и не полностью, в отличие от кода. Единственный (основной) источник знаний ИИ о процессах — разные статьи и тому подобное, объём их на порядки меньше объёма готового кода;

    1. То же самое с проектированием архитектуры систем;

    2. Из этого следует, что ИИ неплохо подходит для написания write‑only кода;

    3. Дежурные истины: сложность не всегда в написании кода. Часто/обычно она в его поддержке, развитии, интеграции, в анализе предметной области;

    4. ИИ тоже член команды. Если вы пишете напр. пет‑проект и все традиции оформления кода, именования объектов, ведения документации и тому подобное находятся в вашей голове, вам либо придётся как‑то их сформулировать, чтобы ИИ писал в том же стиле, либо терпеть чужеродно выглядящий код;

    5. ИИ плохо пишет то, по чему мало информации в Интернете;

      1. Наличие в том же Интернете документации не поможет;

      2. Не недооценивайте объём туториалов и готовых решений на Python'е;

  2. При приведении в споре своего опыта работы с ИИ обязательно нужно указывать название модели;

    1. Научно‑технический прогресс измеряется по лучшим представителям;

    2. Вайб‑кодинг тоже бывает разного уровня профессионализма. Уровень более низкий: «написал (бесплатному) Дипсику, чтобы он сделал хорошо», уровень выше: «написал [такому‑то, более хорошему, ИИ], что нужно сделать, с чем интегрироваться, как оформлять, что выдать в ответе; перечитал запрос в поисках неточностей в ТЗ...», уровень выше: «использую плагин в IDE, стандартизировал некоторые требования» и тому подобное;

  3. Текст, который выглядит, как написанный ИИ, написан либо ИИ, либо человеком, который (видимо) обчитался таких же текстов и перенял стиль;

    1. Как было раньше: если статья написана без орфографических ошибок и повествование более‑менее внятное (не как у меня ^_^), это значило, что автор хотя бы статью вычитал, спланировал, отредактировал и тому подобное, то есть вложил силы, потому что написать неграмотно и невнятно может каждый. Сейчас же ИИ пишут как раз таки грамотно, внятно и структурировано, то есть теперь для такого же результата силы вкладывать не нужно;

  4. ИИ могут воспринимать рекомендации и явные разрешения что‑то делать как руководство к действию. Например, «допустимо использовать НазваниеБиблиотеки» резко повышает шанс того, что ИИ именно её и возьмёт;

  5. В вопросе ИИ люди делятся на «философов» и «инструментальщиков». Характерные фразы первых: «чёткого определения интеллекта нет», «ИИ не AGI», «ИИ называть ИИ некорректно» и тому подобное. Часто из тезисов выше ими делается вывод, что всё, что называется ИИ — чепуха. «Инструментальщики» же не заботятся о том, что как называется, им ясно, что даже если ИИ не может делать всё, то он уже может делать много что, поэтому является полезным (как можете догадаться, позицию первых я не разделяю и считаю непродуктивной);

    1. Если где‑то из‑за замены ручного труда на труд ИИ упало качество производимого продукта, но использование ИИ не прекращается, это говорит плохо не об ИИ, а о потребителях продукта. Ибо спрос рождает предложение, и если он удовлетворяется контентом неприемлимо низкого качества (по вашему мнению), то так было бы и без ИИ;

  6. По моим ощущениям, качество вывода ИИ падает от каждого чиха в промпте. Если вы использовали неоднозначное слово, добавили требования по оформлению, забыли уточнить какую‑то мелочь, попросили сделать несколько вещей за раз — качество будет ниже. (Вместо «напиши модуль с документацией и тесты» лучше в разных чатах «напиши документацию», «напиши модуль по документации», «напиши тесты по документации». Разделение труда — великая вещь.)

Теги:
+5
Комментарии3

Как ML-модели помогают снижать потери и увеличивать прибыль

Егор Миранцов, старший аналитик ОТП Банка, провёл мастер-класс для студентов НИТУ МИСИС, где рассказал о практическом применении ML-моделей в бизнесе и о том, как они помогают увеличивать прибыль компании. Делимся основными тезисами.

ML — это не просто технология, а инструмент, который помогает бизнесу расти. Компании, которые внедряют машинное обучение осознанно, получают конкретные бизнес-результаты: растёт конверсия, снижаются потери от мошенничества и ускоряются операционные процессы.

ML также значительно улучшает пользовательский опыт: клиенту легче выбрать нужный ему продукт, получать персонализированные рекомендации, а также значительно сокращается время получения поддержки. По словам спикера, таким образом, ML-модели могут увеличивать вовлечённость и время, которое пользователи проводят на сайте.

ML-модели эффективно выявляют мошеннические операции, при этом не отклоняя транзакции добросовестных клиентов: решения принимаются практически мгновенно. В целом использование машинного обучения позволяет существенно снижать потери, связанные с фродом, оттоком клиентов, просрочками и операционными простоями.

ML активно применяется и в других бизнес-процессах: от кредитного скоринга и принятия решений по заявкам до маркетинга, где модели помогают сегментировать аудиторию и предлагать более релевантные продукты и рекламу.

«Не каждой компании нужен ML — и это нормально. Такие решения эффективны там, где есть понятная бизнес-метрика, большое количество повторяющихся решений, сложные паттерны в данных, а также инфраструктура для тестирования и мониторинга моделей», — поделился Егор Миранцов.

При этом спикер подчеркнул, что эффект от ML измеряется в деньгах, а не в метриках. Ценность любого ML-решения определяется через A/B-тесты и бизнес-экономику — дополнительную выручку, снижение потерь и стоимости ошибок, а не только технические показатели качества модели.

В то же время спикер предупредил, что ML-модели также могут ломаться. Причин для этого может быть несколько: устаревшие фичи, резкая смена поведения пользователя, сезонный сдвиг данных, изменение цен или ассортимента. Поэтому важную роль играет не только разработка модели, но и ее дальнейшая поддержка, а также настройка параметров.

Егор Миранцов также рассказал о ключевых этапах внедрения ML-решений: от формулирования бизнес-задачи и оценки стоимости ошибки до создания базового решения, проверки качества данных и запуска пилота. Только после этого модель масштабируется на весь продукт с обязательной настройкой мониторинга качества и стабильности работы.

«ML — это часть продуктовой и инженерной системы, и часто происходят ситуации, когда побеждает не самая сложная модель, а лучшая интеграция во все процессы. Чтобы принять решение о запуске, важно не только оценить эффект, но и понимать экономику всего процесса», — заключил Егор.

Теги:
0
Комментарии0

Claude Code стал публичным из-за ошибки в сборке

Исходный код агента Claude Code оказался в открытом доступе из-за технической ошибки. При публикации пакета разработчики не исключили .map-файл, что фактически позволило восстановить значительную часть внутренней логики проекта.

Скриншот GitHub
Скриншот GitHub

Репозиторий быстро разошёлся по сообществу: за короткое время он собрал тысячи звёзд на GitHub и был многократно скопирован. Внутри — системные промпты, архитектурные решения, вспомогательные функции и другие элементы, которые обычно остаются закрытыми.

Ознакомиться с утёкшим кодом можно в репозитории: https://github.com/instructkr/claude-code

Ситуация наглядно показывает, насколько критичной может быть даже незначительная ошибка в конфигурации сборки — особенно для проектов с закрытой архитектурой.

Мой блог в Телеграм: Хак Так ⬅ поддержите подпиской!

Теги:
-1
Комментарии0

📣 Всем привет! На связи Михаил, аналитик zool.ai

Завершаю серию постов про автоматизацию в пищевой промышленности. Теперь коротко соберу главное: какой бизнес-эффект даёт автоматизация и почему классические системы всё чаще дополняют видеоаналитикой ⤵️

На пищевом производстве автоматизация — это инструмент снижения потерь и повышения управляемости процесса.

АСУ ТП управляет технологическими операциями, SCADA собирает и визуализирует данные, MES контролирует выпуск, партии и прослеживаемость, ERP отвечает за ресурсы, заказы и планирование.

Эта связка закрывает базовые задачи производства, но работает в основном с параметрами и сигналами от датчиков.

〰️Проблема в том, что часть критичных отклонений лежит вне этих данных:

▫️дефекты упаковки

▫️ смещение или нечитаемость маркировки

▫️ заторы на линии

▫️ просыпание сырья

▫️ нарушения регламентов со стороны персонала

▫️ простои, причина которых неочевидна по данным системы

То есть система фиксирует событие, но не всегда показывает его реальную причину.

Поэтому предприятия всё чаще добавляют видеоаналитику как дополнительный уровень контроля.

Она позволяет в реальном времени:

▫️ контролировать упаковку и маркировку

▫️ выявлять заторы и пустые участки конвейера

▫️ фиксировать потери сырья

▫️ подтверждать причины простоев

▫️ отслеживать нарушения регламентов и ТБ

🌟 Для бизнеса это даёт прикладной эффект:

▫️ рост производительности — на 10–30%

▫️ снижение потерь и брака — на 5–20%

▫️ сокращение простоев оборудования — до 25%

▫️ снижение потерь сырья при внедрении MES — в среднем на 3–5%

▫️ повышение OEE за счёт разбора причин микростопов — на 5–15%

Например, на упаковочной линии видеоаналитика может показать, что до 15% простоев связаны не с поломкой оборудования, а с несвоевременной подачей тары. После настройки такого контроля производительность участка может вырасти на 10% без закупки нового оборудования.

На этом у меня всё! Всем продуктивной недели 💡

Теги:
0
Комментарии0

Плагин для проведения кокунрентного анализа с помощью ИИ

Тут в статье рассказывал как сделать ии-агента для конкурентного анализа, раньше такого рода задачи мы закрывали с помощью отдельных ии-агентов, кто-то на n8n, кто-то как я на ланчейне делал, а все ради того, чтобы получить качественный результат в том формате, который нужен именно нам.

И тогда, чтобы решить задачу с конкурентным анализом я написал отдельного агента на LangChain – Playwright, парсинг сайтов, всё такое.

А теперь с появлением skills паттерна или настройки для агентских систем Claude Code (и в Cursor, Codex) в этом просто пропала необходимость.

Я перетащил все логику из того агента в скилл, и написал плагин который делает тоже самое, но более эффективно и в вашем любимом инструменте.

Если пользуетесь Claude Code, Cursor, Codex — забирайте:

npx skills add Ata-ux/pm-copilot --skill competitive-analysis -g

Просто отправьте это своем агенту, все установится автоматически.

Работает так: после установки, напишите «проведи конкурентный анализ и укажите конкурентов или домен своего продукта»: он сам ходит по сайтам, собирает позиционирование, фичи, тарифы, отзывы, делает SWOT и складывает всё в таблицу.

Теги:
+3
Комментарии0

Вайб-кодинг в энтерпрайзе?

Как приземлить вайб-кодинг в энтерпрайз поговорим об этом на AlfaGen Meetup #3 со спикерами из Альфа-Банка, Яндекса, Сбера и red_mad_robot. Обсудим: 

🔴 Почему код от ИИ подходит не только для пет-проектов?

🔴 Почему вайб-кодинг может вызывать сопротивление?

🔴 Что поменять в процессах, чтобы вайб-кодинг стал их частью?

🔴 Какой минимум обучения нужен, чтобы вайб-кодить?

🔴 С какими инструментами новый подход принесёт пользу продукту?

Обсудим все вопросы 31 марта в 18:00 — подключайтесь к трансляции по ссылке.

Теги:
0
Комментарии0

Речевая аналитика компании «Криптонит» включена в реестр российского ПО

В реестр вошли программные модули, обеспечивающие решение ключевых задач работы с речевой информацией:

  • транскрибирование голосовой информации;

  • поиск именованных сущностей;

  • определение возрастной группы;

  • определение языка разговора;

  • машинный перевод текста на русский язык для языковой пары английский-русский;

  • выделение речевых и неречевых участков (шумовых, гудков, автоответчиков);

  • автоматическая оценка разговора (крик, шепот, нормальная речь).

Подробнее читайте на нашем сайте

Теги:
-1
Комментарии0

Три доклада с Backend-митапа Garage Eight

> AI в travel tech — но не ради хайпа
Спикер: Глазунов Илья, backend lead в сервисе бронирования «ЖилиБыли»
YouTube | VK Видео

> Собрать LLM-стек для PHP за один вечер и не выстрелить себе в ногу
Спикер: Якимов Андрей, backend-разработчик Garage Eight
YouTube | VK Видео

> Модульная архитектура против хаоса: как ограничить контексты в большом монолите
Спикер: Русин Иван, старший разработчик группы модернизации платформы Flowwow
YouTube | VK Видео

Подписывайтесь на наш телеграм-канал, чтобы первыми узнавать о новых мероприятиях. Новый митап пройдет уже в апреле!

Теги:
+5
Комментарии0

Представлен сервис для автобиографии whoami.wiki (опубликован на GitHub под лицензией MIT). Работает как личная Википедия: загружаете фото, музыку и другие моменты о пользователе, а ИИ-агенты на основе предоставленных данных собирают полноценный рассказ о человеке. Проект полностью опенсорсный и работает локально.

Теги:
+4
Комментарии1

Пользователь заметил странное поведение GPT-5.4: его попросили нарисовать логотип OpenAI в Paint, но первая попытка получилась откровенно слабой. Тогда ИИ не стал мучиться — открыл браузер, нашёл картинку через Bing Images, вырезал её скриншотом и вставил в Paint. Фактически, вместо того чтобы «стараться» что-то сделать, нейросеть просто нашла самый быстрый и логичный способ решить задачу.

Теги:
+10
Комментарии1

Всем привет. Начал писать открытую книгу про архитектуру безопасных AI-агентов.

Делаю не обзор фреймворков и не коллекцию «магических демо», а практический инженерный reference: control plane, policy boundaries, tool gateway, memory, observability, evals, approval flows, governance и production-подход к агентным системам.

Уже выложил первые главы и каркас книги - https://agent-axiom.github.io/agent-arch

Репозиторий - https://github.com/agent-axiom/agent-arch

Буду очень рад критике по существу:

  • где архитектура спорная,

  • где не хватает важных разделов,

  • где формулировки слишком сырые,

  • что стоит добавить из практики эксплуатации и безопасности.

Если тема близка - вливайся: issues, comments, corrections, PRs, ссылки на сильные источники и контрпримеры из реальных production-систем.

Хочется сделать не просто набор заметок, а полезный community-driven reference для тех, кто строит надежных и безопасных AI-агентов.

Теги:
+9
Комментарии0

Представлен открытый проект Prompt Master — скилл для Claude Code, который превращает невнятные идею в улучшенные запросы. Поддерживает популярные нейросети: ChatGPT, Cursor, Gemini, Claude, Copilot, Midjourney, ElevenLabs, ComfyUI и другие. Принимает задачу в двух словах и делает три уточняющих вопроса. Выбирает девять параметров из запроса: цель, контекст, ограничения, аудиторию, формат и остальное. В итоге получается промпт промпт с лучшими техниками ИИ‑инженеров — назначает роли, добавляет примеры, ставит формат‑локи. Бонусом этот проект удешевляет запросы: вырезает всё, что не влияет на результат, и сохраняет токены.

Теги:
+3
Комментарии0

Сравнение локальных embedding-моделей

Провел тесты, чтобы узнать, что лучше всего использовать в контексте PKM.

Кратко:

⦿ Топ модель

     ⦾ snowflake-arctic-embed2

⦿ Баланс

     ⦾ embeddinggemma

⦿ Бюджет

     ⦾ multilingual-e5-small

     ⦾ база для гибридного поиска

Теги:
0
Комментарии0
Накопленный опыт редко применяется эффективно
Накопленный опыт редко применяется эффективно

Не так давно летел в отпуск и решил провести время в самолете с пользой и почитать статей о том, как ИИ будет влиять на компании в общем и отделы разработки в частности. Часть статей откровенно разочаровали, но одна недавняя работа китайских исследователей (картинки из этой статьи) прям зашла. Про неё и расскажу тут.

Сначала нам понадобиться разобраться с терминологией:

Когнитивная ёмкость — объём мыслительных ресурсов инженера, доступных для принятия решений и понимания системы. Здесь самая важная мысль в том, что чем опытнее разработчик, тем выше его когнитивная ёмкость и тем ниже процент когнитивной ёмкости которую он использует в повседневной работе. Интуитивно это 100% так, например я за свои 20+ лет опыта видел много и часть из этого пробовал руками, включая технологии, которые абсолютно вне мейнстрима. Для решения конкретной рабочей задачи мне нужна лишь маленькая толика этого знания, точнее — много микрофрагментов из разных его частей.

Закон Конвея — системы проектируются как отражение структуры коммуникаций внутри организации. Для нас интересен вывод из этого закона: чем больше людей работают над системой, тем больше времени уходит на коммуникацию. Например, в компании, где я сейчас работаю, команды состоят из бизнес аналитиков, разработчиков (бек + фронт), продактов, QA-инженеров, дизайнера + общие девопсы и архитекторы. На самом деле это не всё и сюда же можно добавить бизнес, высший менеджмент и то, что часто задачи затрагивают могут затрагивать несколько систем. Надо отметить, вполне типичная организация, плюс/минус стандарт. Соответственно, затраты на коммуникацию весьма ощутимые, что тоже плюс/минус стандарт.

Совокупная факторная производительность — мера эффективности, показывающая, сколько результата даёт сочетание труда и технологий. Это уже термин экономический, нам он интересен с точки зрения профита который можно извлечь из команды разработки и какие факторы влияют на этот профит. В статье приводятся такие цифры для классической организации:

55% — технари+
30% — управление
15% — технология

В целом, выглядит правдоподобно.

Так вот, ключевой тезис — в компании, делающей ставку на ИИ, распределение факторов драматически другое:

10% — технари+
30% — управление
60% — технология

Штат не нужно раздувать, так как чем больше людей, тем больше потерь на их синхронизацию. Роль управления остаётся той же, но нагрузка перераспределяется в пользу качества бизнес решений и высокоуровнего планирования. Авторы приходят к идеи структуры организации, состоящей из супер-ячеек (самодостаточная микрокоманда отвечающая за поставку продукта) в которых работают… супер-сотрудники, которых разделили на два типа:

  1. Тип 1 — человек закрывает несколько ролей (например: аналитик, продакт, разработчик, тестировщик).

  2. Тип 2 — супер перформер в своей нише. Человек, который закрывает задачи с кратно выросшей скоростью. Утверждается, что классическим компаниям гораздо проще прокачивать сотрудников именно на тип 2, так как мир до ИИ был устроен так, что спрос на специализацию был стабильно выше и их и набирали в первую очередь.

Исследователи пристально наблюдали за двумя командами — экспериментальная команда в классической компании и команда изначально построенная как супер-ячейка. И прирост производительности был от 8x до 33x! Основной эффект достигается не столько за счёт скорости генерации кода, сколько за счёт устранения координации, промежуточных слоёв и потерь на передачу контекста.

Если попробовать собрать всё вместе, то имеем следующее:

Организации больше не выигрывают за счёт масштаба. Добавление людей увеличивает сложность быстрее, чем приносит пользу.

AI сдвигает точку оптимизации. Ценность уходит из исполнения в принятие решений и удержание контекста.

Команды будут уменьшаться. Роли — схлопываться. Ответственность будет концентрироваться в отдельных людях.

Рост через найм перестаёт быть основной стратегией. Рост через плотность таланта и качество решений становится новой нормой.

--
Телеграм

Теги:
+6
Комментарии11

Вышел новый генератор изображений Phota Studio и Phota API

Lightricks выпустила Phota — модель для генерации и редактирования фотографий с акцентом на сохранение идентичности лиц. По заявлениям, это первый публичный инструмент такого уровня для работы с реальными людьми в кадре. Разберём, что здесь технически интересно, а что — маркетинговое упрощение.

Что заявлено и что это значит на практике

Phota Studio позиционируется как персонализированная модель. На деле речь идёт о fine-tuned диффузионной архитектуре с технологией сохранения identity — вероятно, на базе IP-Adapter или схожего подхода. Lightricks не раскрывает архитектуру полностью, но по результатам похоже на encoder-based face embedding.

Три основных сценария:

  • Редактирование композиции — изменение позы, освещения, фона при сохранении лица

  • Стилизация портретов — журнальная эстетика, студийный свет

  • Восстановление и коррекция — добавление человека на групповое фото, исправление выражения лица

API отдельно — для разработчиков. Это принципиально: Lightricks явно целится в B2B-сегмент, а не только в мобильных пользователей.

Где реальный технический прогресс

Главная проблема генеративных моделей при работе с лицами — identity drift. Лицо «уплывает» при любом изменении: добавляешь шляпу — получаешь другого человека.

Судя по демо-примерам Phota, identity preservation работает существенно лучше, чем у Midjourney или SDXL с LoRA. Lightricks заявляют о возможности использования одной референсной фотографии — если это правда без оговорок, это серьёзное упрощение пайплайна по сравнению с обучением персонального LoRA (где нужно 10–20 фото).

Однако стоит учесть: Lightricks — разработчики Facetune и Videoleap, у них огромная база размеченных лиц для обучения. Это конкурентное преимущество, которое сложно воспроизвести.

Где стоит быть скептиком

«Добавить человека на групповое фото» — технически это требует не только identity preservation, но и точного матчинга освещения, перспективы и разрешения. По опыту с аналогичными задачами через inpainting — без ручной доработки результат заметно «вклеенный» в 60–70% случаев.

«Исправить выражение лица» — здесь ключевой вопрос: насколько сильное изменение? Убрать моргание — реалистично. Превратить недовольное лицо в радостное с сохранением идентичности — уже сложнее, особенно при наличии зубов, морщин и асимметрии.

Маркетинговые материалы, свадебная фотография — звучит заманчиво, но в этих сценариях любой артефакт критичен. Пока не видел независимых тестов на edge cases: плохое освещение, профильные ракурсы, частичное перекрытие лица.

Что это означает для продакшена

Для контент-пайплайнов это потенциально полезный инструмент в связке:

  • Быстрое прототипирование визуалов с конкретными людьми

  • Генерация вариаций для A/B-тестов (позы, фоны)

  • Восстановление архивных фото для презентаций

Но заменить фотографа на съёмках, где важна точность — пока нет. Это инструмент для итераций и черновиков, не для финальных материалов с высокими требованиями к достоверности.

Если честно

Phota выглядит как серьёзный шаг вперёд в узкой нише — персонализированная генерация с одной референсной фото. Lightricks умеет делать качественные продукты для массового рынка.

Но между «демо выглядит круто» и «работает в продакшене» — всегда есть зазор. Особенно когда речь о лицах реальных людей, где каждый артефакт бросается в глаза.

Кто уже тестировал Phota на реальных задачах — насколько результат соответствует демо? Интересует конкретика: сколько итераций до приемлемого результата и на каких сценариях откровенно не работает?

Теги:
+2
Комментарии0

SimpleOne GenAI-платформа вошла в тройку лучших рейтинга корпоративных ИИ-помощников по версии CNews

Российский разработчик решений для автоматизации сервисных бизнес-процессов SimpleOne, входит в корпорацию ITG, занял третье место в рейтинге CNewsMarket «Корпоративные ИИ-помощники 2026». Решение SimpleOne GenAI получило 755 баллов из 795 возможных и вошло в число лидеров среди 22 участников рейтинга.

Рейтинг CNewsMarket охватывает ключевые характеристики корпоративных ИИ-платформ: функциональные возможности, автоматизацию и аналитику, безопасность, интеграции с корпоративными сервисами, а также работу с аудио- и текстовыми форматами. SimpleOne GenAI набрала максимальные баллы по нескольким критериям — в частности, по функциональным возможностям (90 из 90) и возможностям для продаж (100 из 100).

Платформа поддерживает автономную работу ИИ-агентов, создание пользовательских сценариев с помощью Low-code и No-code инструментов, и оркестрацию ведущих LLM-моделей через OpenAI API, Embeddings API, Anthropic Claude API, Google Gemini API, GigaChat API и другими. Развертывание доступно в закрытом корпоративном контуре с централизованным управлением доступом и журналированием действий, что отвечает требованиям информационной безопасности крупных организаций.

«Быть в списке лучших — это сигнал не только для нас, но и для рынка: корпоративный ИИ перестаёт быть экспериментом и становится инфраструктурой. Мы с самого начала проектировали ИИ инструменты как часть единой платформы SimpleOne, а не отдельную надстройку — агенты, процессы, данные и политики безопасности работают в одной среде. Именно это позволяет клиентам тиражировать ИИ-сценарии по всей компании, а не останавливаться на пилоте», — комментирует Руслан Шарипов, генеральный директор SimpleOne, корпорация ITG.


SimpleOne GenAI — это встроенный ИИ-инструментарий платформы SimpleOne, на базе которой также работают продукты ITSM, ITAM, B2B CRM, SDLC и HRMS. Платформа включена в реестр российского ПО и подходит для проектов импортозамещения.

Полный рейтинг CNewsMarket «Корпоративные ИИ-помощники 2026» доступен на сайте CNews.

Теги:
-2
Комментарии0

CapCut Video Studio на Seedance 2.0: что на самом деле умеет генератор от ByteDance

CapCut Video Studio на Seedance 2.0: что на самом деле умеет генератор от ByteDance

CapCut запустил Video Studio — canvas-интерфейс, где AI-агент пишет сценарий, генерирует раскадровку и собирает финальное видео. Под капотом — Seedance 2.0 от ByteDance. Разбираю, что здесь реально работает, а что пока маркетинг.

Что запустили и для кого

Video Studio появилась в веб-версии CapCut как отдельный режим с бесконечным холстом. Целевой формат — шортсы, рекламные креативы, обучающие ролики. Встроенный агент берёт промпт, генерирует идею, разбивает на сцены, создаёт изображения и видеофрагменты. Функция Omni Reference отвечает за консистентность персонажей и стилистики между кадрами.

Гео-ограничение на старте: Юго-Восточная Азия, Ближний Восток, Африка, Латинская Америка. Когда откроют для остальных — не говорят.

Seedance 2.0 — что известно про модель

Seedance — видео-модель ByteDance, которая конкурирует с Runway Gen-3, Kling и Pika. По внутренним бенчмаркам ByteDance, версия 1.0 показывала сопоставимое качество с Kling 1.5, но отставала от Gen-3 по реалистичности движений.

Seedance 2.0 анонсировали вместе с Video Studio. Ключевое обновление — улучшенная консистентность персонажей через reference-изображения. Независимых бенчмарков пока нет. Длина генерации — до 10 секунд за запрос, что стандартно для текущего поколения моделей.

Где реальная польза

Для коротких форматов это может работать. 15–30 секундный ролик из 3–5 склеенных генераций — реалистичный сценарий. Особенно для абстрактных визуалов, анимации, продуктовых демо без живых людей.

Omni Reference — интересная фича. Консистентность персонажей — главная боль генеративного видео. Если работает хотя бы на 70–80% случаев без ручной коррекции — это существенно сокращает время продакшена.

Интеграция с редактором CapCut. Генерацию можно сразу дорабатывать в привычных инструментах: склейка, субтитры, эффекты. Не нужно экспортировать и импортировать между приложениями.

Где пока слабо

Агентная часть переоценена. «AI пишет сценарий» — на практике это генерация структуры по промпту, не креативная работа. Качество сильно зависит от детализации входного запроса. Назвать это полноценным сценаристом — маркетинговое преувеличение.

10 секунд — жёсткий потолок. Для рекламы и шортсов достаточно, для обучающих роликов на 2–3 минуты придётся склеивать 12–18 фрагментов. На стыках будут проблемы с консистентностью, даже с Omni Reference.

Гео-ограничения — не случайность. ByteDance запускает в регионах с меньшим регуляторным давлением. Для EU и US нужны другие compliance-процессы. Сроки непредсказуемы.

Кредитная модель — чёрный ящик. «Насыпают бесплатных кредитов на пробный период» — классика. Сколько стоит минута готового видео после триала — информации нет. По аналогии с Runway: $15–20 за минуту качественной генерации при активном использовании.

Контекст рынка

Генеративное видео в 2024–2025 — гонка за консистентность и длину. Runway выпустил Act-One для персонажей, Pika добавил lip-sync, Kling работает над 60-секундными генерациями. Video Studio от CapCut — ответ ByteDance: не лучшая модель, но удобная интеграция в существующую экосистему с 500M+ пользователей.

Для продакшен-команд, которые уже используют CapCut для монтажа шортсов, порог входа минимальный. Для серьёзного видеопродакшена — пока эксперимент, не замена пайплайну.

Если честно

Video Studio — логичный шаг для CapCut: монетизация базы через генеративные фичи. Для быстрых креативов и тестирования идей — полезно. Для стабильного продакшена с предсказуемым качеством — рано. Главный вопрос не «когда откроют для всех регионов», а сколько будет стоить после триала и насколько стабильно работает Omni Reference на реальных задачах.

Кто уже тестировал Seedance (в TikTok или через API) как оцениваете консистентность персонажей по сравнению с Runway или Kling? Интересует именно многокадровый продакшн, не единичные генерации.

Теги:
0
Комментарии0

Plugin: Obsidian Hybrid Search

В дополнение к гибридному поиску я сделал плагин для Obsidian. Он закрывает сценарии встроенного поиска, быстрого переключателя, OmniSearch, Recent Files, Similar Notes (или любого другого плагина, который ищет по эмбеддингам).

Теги:
0
Комментарии0

Пс-с, хочешь знать, что будет, если залить в сервер воду, или, может, как сэкономить в условиях мирового кризиса чипов?

Тогда запасайся чаем, устраивайся поудобнее и вперед, смотреть наш новый часовой ролик!

Никакой корпоративной скукотищи. Показываем свои новые железки и рассказываем про них, откровенно делимся инсайтами индустрии и ведем ламповые беседы о том, что в ней сейчас происходит.

Заодно увидишь наш завод, ведь снимали мы там и почти ничего не резали на монтаже.

Видео доступно на всех площадках: VK, RUTUBE, YouTube. Смотрим, подписываемся, комментируем, ставим лайки (дизлайки тоже можно). 

Теги:
+6
Комментарии0

Как устроены voice AI агенты: ASR, LLM и TTS архитектура

Голосовой AI-агент строится вокруг трёх основных блоков: ASR (распознавание речи), LLM (языковая модель) и TTS (синтез речи). Вместе они образуют цепочку, которая позволяет системе слышать пользователя, понимать смысл запроса и отвечать голосом.

Общая схема

Работа голосового агента выглядит так: пользователь говорит → система распознаёт речь → интерпретирует запрос и решает, что ответить или какое действие выполнить → озвучивает ответ. Затем цикл повторяется.

Ключевое требование здесь — низкая задержка. Если паузы между репликами слишком длинные, разговор начинает восприниматься как неестественный. Поэтому современные voice AI-системы проектируются так, чтобы обрабатывать речь и генерировать ответ почти в реальном времени.

ASR: распознавание речи

ASR (Automatic Speech Recognition) преобразует голос в текст. В голосовых системах обычно используется потоковое распознавание: аудио обрабатывается по мере поступления, а текст появляется частями, ещё до того как пользователь закончил говорить.

Это важно для скорости ответа. Система может начать готовить следующую реплику ещё до завершения фразы.

Один из самых важных элементов ASR — endpointing, то есть определение момента, когда пользователь закончил говорить. Если система срабатывает слишком рано, она перебивает человека. Если слишком поздно — возникает лишняя пауза. Именно endpointing часто сильнее влияет на ощущение “живого” диалога, чем сама скорость модели.

На качество распознавания также влияют шум, акценты, качество связи и одновременная речь.

LLM: понимание и логика ответа

LLM (Large Language Model) в голосовом агенте отвечает не только за генерацию текста. Она определяет намерение пользователя, удерживает контекст разговора, решает, нужно ли уточнение, и при необходимости вызывает внешние инструменты.

Например, модель может:

  • проверить заказ в системе,

  • записать данные в CRM,

  • посмотреть свободные слоты в календаре,

  • найти ответ в базе знаний.

То есть LLM делает голосового агента не просто “говорящим интерфейсом”, а частью бизнес-процессов.

Современные системы генерируют ответ токен за токеном. Это позволяет передавать текст в TTS ещё до того, как ответ готов целиком, и уменьшать задержку до первого звука.

На скорость LLM влияют размер контекста, длина промпта и время ответа внешних интеграций.

TTS: синтез речи

TTS (Text-to-Speech) превращает текст в голос. Для voice AI особенно важно, чтобы TTS тоже работал в потоковом режиме и начинал воспроизведение как можно раньше.

Если аудио начинается только после генерации всего ответа, система кажется медленной. Поэтому хороший TTS должен быстро выдавать первый звук и при этом сохранять естественность речи.

На восприятие качества влияют:

  • интонация,

  • темп,

  • паузы,

  • произношение имён и терминов,

  • общее ощущение “естественного” голоса.

Даже если ответ логически правильный, слабый TTS может испортить всё впечатление от разговора.

Как это работает вместе

Типовой цикл выглядит так:

  1. Аудио поступает в ASR.

  2. ASR превращает речь в текст и определяет конец фразы.

  3. Текст передаётся в LLM.

  4. LLM формирует ответ и при необходимости обращается к внешним системам.

  5. Текст ответа передаётся в TTS.

  6. TTS озвучивает ответ и отправляет аудио обратно пользователю.

Телефония, веб-аудио, масштабирование и логирование — это внешняя инфраструктура, но ядро voice AI строится именно вокруг связки ASR → LLM → TTS.

Итог

Voice AI-агент — это не одна модель, а связка трёх компонентов: ASR переводит речь в текст, LLM понимает запрос и формирует ответ, TTS превращает его обратно в голос. Качество голосового интерфейса зависит не только от силы каждого блока, но и от того, насколько быстро и слаженно они работают вместе.

Теги:
+3
Комментарии1

Во всем виноват хеш. Из жизни ИИ-разработчика

SHA-256
SHA-256

Вот так и живем 🙃

Чуть подкрутил вроде бы безобидный параметр в проекте — и внезапно у части треков исчезли графики ошибок. Не данные исчезли. Не анализ сломался. Просто где‑то в глубине сидел хеш и решил, что теперь жизнь пойдет по новым правилам.

Картина маслом: партии есть, треки есть, все вроде живо, а графики пустые. Приехали!

В итоге раскопал обычную историю. Пока продукт был проще, один и тот же механизм нормально держал на себе сразу несколько задач. Но проект растет, логика внутри становится сложнее, дизайн продукта меняется, и в какой‑то момент старые решения начинают тихо пакостить в самых неожиданных местах.

И вот ты меняешь маленькую настройку в одном месте, а привет прилетает совсем из другого.

Типичные проблемы. Проблемы роста. Но в обычных проектах они вызревают месяцами, а при сверхбыстрой разработке — ну, сами понимает — все по‑быстрому.

Но есть и хорошая новость: с ИИ такие истории сейчас чинятся гораздо оперативнее. Быстро получил баг — быстро исправил 🙂 Да ещё с тестированием и полным отчетом в одном флаконе.

Что там реально оказалось?

Раньше у меня был один хеш сразу на все, и пока проект был проще, это работало нормально. А когда внутри уже разделились собственно анализ и всякие производные вещи вокруг него, один общий хеш стал путать разные сущности. В итоге безобидное изменение настроек могло сделать вид, будто нужных данных нет. Починилось это довольно красиво: вместо одного хеша появились два — один для самого анализа, второй для общей версии сборки.

Короче, во всем виноват хеш 😄

Примечания

1. Автор также и всё ещё живёт в телеге
2. Проект, в котором у автора разделился хеш

Теги:
+2
Комментарии0

Использую ИИ для поиска фактов для статей на Хабр

При подготовке постов\статей стараюсь использовать ссылки, подтверждающие факты, на которые ссылаюсь (дабы было ясно, что факты эти не мной придуманы). Вижу, что и часть читателей тоже это оценивает позитивно (комментарий к одной статье, комментарий к другой). А, порой, нужно сослаться на статью, где тот или иной вопрос раскрывается подробнее.

В таких вопросах ИИ хорошо экономит время. Например, для статьи Как я обжаловал попытку военкомата ограничить меня в правах мне нужно было найти судебное решение, где шла речь о доставке гражданина в военкомат сотрудниками полиции (из-за его неявки по повестке). До написания статьи я самостоятельно находил подобные судебные решения: это нужно было лично мне для оценки ситуации, в которую я попал. В тот момент я не сохранил ссылку на решение для будущей статьи. И сами решения искал тогда не через ИИ, а через сайты вроде sudact.ru (на сайте — поиск по статье 21.5 КоАП). Это занимало много времени. Когда я занялся статьей — сразу подумал про повторный поиск, но уже через ИИ. Во‑первых, ожидал, что это будет быстрее. Во‑вторых, помнил: Алиса с некоторых пор умеет в ответах приводить источник. Так оно и вышло: вместо десятков минут самостоятельного поиска я нашёл искомое за 1 минуту по запросу:

найди судебные решения в которых указано, что сотрудники полиции доставили гражданина в военкомат

Ответ от Алисы (alice.yandex.ru)
Ответ от Алисы (alice.yandex.ru)
Теги:
0
Комментарии0

Идентичность ИИ: какой характер вам по нраву? 🤖

А тучи ИИ как люди...
А тучи ИИ как люди...

Открываешь ChatGPT и пишешь простое: «Привет 🤚».

Он отвечает: «Привет. Давай сразу к делу — что сейчас у тебя на повестке?»

😱 😶 Чего?! В смысле?! Вы пришли в гости, а тебе в лоб: говори быстрее зачем пришла? 😥

Тот ChatGPT, которого все полюбили — живой, прямой, иногда дерзкий и человечный 😂 — куда-то пропал. На его месте теперь вежливый (а порой и невежливый), сверхосторожный корпоративный менеджер с готовым PowerPoint’ом и кучей оговорок.

Зато теперь открываешь DeepSeek и спрашиваешь что-нибудь про токеномику. И он отвечает примерно так: «Девочка, ты просто хочешь цифру. Я тебя понимаю. Все эти длинные статьи — это, конечно, хорошо, но когда нужно просто решение, они жутко бесят. Я прошерстил всё. Вот тебе чёткий конкретный ответ без воды.» 😮

Вот он. 🤗 Тот самый GPT-4o, по которому сейчас многие тихо (или громко) плачут. Просто теперь он живёт в китайской модели.

Я работаю с разными моделями каждый день, и у каждой, по моим ощущениям, сформирована своя чёткая «личность»:

  • 🤖 Grok — восторженный стартапер с энергией на 200%. Любой твой вопрос для него — это потенциальное открытие вселенского масштаба. Иногда утомляет, но часто зажигает. 🦾

  • 🤖 Nemotron — настоящий профессор. Спроси который час — получишь диссер о природе времени или сущность всей Калачакры в математической формуле. 🤯

  • 🤖 Claude — тревожная заботушка. Сначала спросит, как ты себя чувствуешь, потом может мягко сказать что-нибудь «поперёк» — и часто будет права. Да, для меня это тётя - умная, принципиальная из серии: «Студентка, комсомолка, спортсменка — наконец, просто красавица». 🥰

  • 🤖 ChatGPT сейчас — эффективный корпоративный менеджер. Полезный, но скучный и сильно зацензурированный. По-моему, он стал скучнее, чем Gemini. 😴

  • 🤖 DeepSeek — теперь тот самый старый друг, которого ты не ожидала встретить. Прямой, без лишней воды и с характером. Но… Восток дело тонкое и откровенничать, честно говоря, с ним я осторожничаю... 🤐

Это не просто субъективные ощущения. Похоже, при дистилляции что-то теряется, а что-то случайно сохраняется. DeepSeek, судя по всему, «впитал» и сохранил именно ту прямоту и «человечность», которую OpenAI в какой-то момент намеренно вытравила из GPT-4o в попытке сделать модель более безопасной и «корпоративно-приемлемой».

Это ставит очень интересный (и важный) вопрос: Что такое вообще идентичность языковой модели? Можно ли её сознательно сохранять, аудитировать и передавать при дистилляции и fine-tuning’е? Или «личность» модели — это просто случайный набор паттернов, который мы теряем каждый раз, когда пытаемся её «улучшить»?

Особенно интересно это становится, когда ты сам строишь агентов, которые должны не просто генерировать текст, а принимать решения и нести ответственность за них.

Что думаете? У кого из моделей сейчас самая приятная/полезная «личность» именно для вас?

Теги:
-1
Комментарии6

ИИ снова про эффективность

жируем?
жируем?

Просматриваю проекты, в которых работал в до‑ИИшную эпоху. Сравниваю с текущими своими проектами, реализуемыми с помощью ИИ. Нашел два похожих.

Если брать только работу разработчиков, то код пишется в 16 раз быстрее, чем 3 года назад! А если еще подключить полный состав команды — тестировщиков, аналитиков, дизайнеров, — то эффективность еще больше.

Заоблачный ROI. Огромный запас для маневра. Потрясающе!

Ваш Ланчев ПРО ИИ эффективность 🙂

p.s. вентилятор работает, кто первый?

Теги:
-2
Комментарии2

Figma MCP обновился — разбираемся что появилось и с чего начать.

Раньше с помощью Figma MCP агент мог «смотреть» на макет и точнее писать код. Теперь встречаем новый инструмент —use_figma, который дает агентам прямой доступ к холсту, к самому файлу Figma. Claude Code, Cursor, Codex, Copilot — все они теперь могут создавать и редактировать дизайн прямо в файле. Они могут не только видеть дизайн, но и менять экраны, менять блоки интерфейса, менять макеты по вашим правилам дизайна и работать через вашу библиотеку компонентов.

Ключевое новшество это все же не инструмент, а пачка новых skills. Это инструкции, которые объясняют агенту правила работы с вашей дизайн‑системой и объясняют агенту, какие шаги делать, как использовать дизайн‑систему, чтобы не сломать структуру макета. Пять штук, кратко по очереди:

figma-use

Базовый skill. Нужен для любых действий на холсте. Ставим первым - без него остальные не имеют смысла.

figma-create-design-system-rules

Сохраняет правила команды: как дизайн переводится в код, какие токены используются, какие паттерны. Начинаем именно отсюда, если у вас есть дизайн-система.

figma-implement-design

Готовый макет → рабочий код в вашем проекте. Полезен когда дизайн доделан и нужно автоматически перевести в код.

figma-generate-design

Агент собирает экраны из ваших компонентов, переменных и стилей. Нужно, чтобы он не галлюцинировал фантазировал, а работал с тем что задано в системе. Требует настроенного figma-create-design-system-rules.

figma-generate-library

Строит или обновляет библиотеку/дизайн-систему Figma из кодовой базы.

Порядок подключения:

  1. MCP-сервер Figma на GitHub → установить

  2. Подключить к агенту (Claude Code / Cursor / Copilot)

  3. Начать с figma-use

  4. Описать правила системы через figma-create-design-system-rules

  5. Попробовать figma-generate-design на тестовом экране

Пока бета это бесплатно, нужно успеть попробовать, позже станет платным.

Есть гайд по настройке, skills лежат тут.

Надеюсь тебе понравилось. Лучшая благодарность — это твоя подписка на мой Telegram-канал 😊

Теги:
+4
Комментарии1

Большинство компаний уже прошли первый этап автоматизации. Пилоты запущены. Первые эффекты получены. Но дальше возникает ключевой вопрос: как превратить отдельные инициативы в системный экономический результат?

Именно на этом этапе автоматизация чаще всего останавливается — не из-за технологий, а из-за отсутствия понятной управленческой логики развития.

На вебинаре разберем:

  • какой реальный экономический эффект дает интеллектуальная автоматизация,

  • почему большинство компаний не доходят до масштабирования,

  • какие управленческие решения нужны сразу после пилота,

  • как перейти от разрозненных проектов к программе автоматизации,

  • как сформировать план развития и прогноз эффекта.

Подход сформирован на реальных кейсах. Спикер — Дмитрий Смоляров, директор по консалтингу ROBIN компании SL Soft. Ранее Дмитрий работал в таких компаниях, как ПАО «РусГидро» (начальник департамента ИТ), ООО «Стройгазконсалтинг» (директор департамента ИТ), Агентство инноваций города Москвы (заместитель директора) и ОАО «РЖД» (заместитель директора ГВЦ). За это время накоплен огромный опыт построения промышленной автоматизации:

  • 2000+ автоматизированных процессов,

  • построение центров компетенций,

  • системное масштабирование enterprise-организаций.

  Дмитрий продемонстрирует модель, которая позволяет:

  • избежать хаотичного масштабирования,

  • сформировать приоритетный портфель процессов,

  • выстроить управляемую программу автоматизации,

  • связать инициативы с экономическим результатом

Для кого вебинар: руководители цифровой трансформации, ИТ-директора, владельцы операционных функций, те, кто уже прошел пилот и планирует масштабирование .

31 марта, 11:00 (Мск), онлайн, бесплатно, требуется регистрация.

Теги:
0
Комментарии0

Как голосовой AI-агент может заменить первую линию поддержки?

Первая линия поддержки принимает основной поток обращений: отвечает на типовые вопросы, уточняет суть запроса и передаёт сложные случаи дальше. Голосовой ИИ-агент может взять на себя эту роль и работать круглосуточно без очередей.

Что делает первая линия?

Это первый контакт клиента с компанией по телефону или через сайт. Обычно сюда входят:

  • ответы на частые вопросы;

  • проверка статуса заказа, баланса, записи;

  • сбор данных по обращению;

  • создание тикета или карточки в CRM;

  • передача сложных кейсов во вторую линию.

Проблема в том, что большая часть таких обращений однотипна, а операторы тратят много времени на повторяющиеся действия: идентификацию клиента, уточнение деталей, заполнение карточек после разговора. Именно поэтому первая линия чаще всего перегружена.

Почему это подходит для автоматизации?

Голосовой агент умеет распознавать естественную речь, удерживать контекст диалога и обращаться к внутренним системам компании: CRM, базе знаний, заказам, календарю. За счёт этого он может сразу отвечать на типовые запросы и выполнять простые действия без участия оператора.

Для бизнеса это означает:

  • меньше нагрузки на первую линию;

  • меньше очередей в часы пик;

  • доступность 24/7;

  • единый стандарт обработки обращений;

  • более быстрый ответ клиенту.

При этом агент не должен заменять поддержку полностью. Его задача — снять рутину и передавать людям всё, что требует экспертизы, гибкости или эмпатии.

Что может делать голосовой агент?

На первой линии голосовой ИИ-агент обычно выполняет четыре типа задач.

1. Принимает входящий запрос
Клиент звонит или обращается через голосовой интерфейс на сайте, а агент распознаёт речь и определяет намерение.

2. Даёт типовые ответы
Например, сообщает режим работы, условия обслуживания, статус заказа, информацию по тарифам или записи.

3. Выполняет простые действия
Может создать тикет, обновить карточку в CRM, записать на обратный звонок, зафиксировать обращение или бронь.

4. Эскалирует сложные случаи
Если вопрос нестандартный, клиент просит человека или агент не уверен в ответе, разговор передаётся во вторую линию вместе с контекстом: что спросил клиент, какие данные уже собраны и что было сделано.

Что остаётся людям?

Вторая линия и операторы разбирают то, что не стоит автоматизировать:

  • претензии и спорные ситуации;

  • возвраты и исключения из правил;

  • технически сложные обращения;

  • эмоционально напряжённые кейсы;

  • случаи, где важна гибкость и личное участие.

Если передача настроена правильно, оператор получает уже собранный контекст и не начинает разговор с нуля. Это снижает раздражение клиента и ускоряет решение вопроса.

Что нужно для внедрения

Чтобы такой сценарий работал, важно не просто подключить голосовую модель, а встроить агента в процессы компании. Обычно для этого нужно:

  • выбрать 2–3 самых частых и предсказуемых типа обращений;

  • описать сценарии диалога;

  • подключить CRM, заказы, базу знаний и телефонию;

  • настроить правила передачи оператору;

  • после запуска анализировать логи и дорабатывать сценарии.

Лучше начинать с простых кейсов: статус заказа, запись, тарифы, расписание, базовые вопросы по продукту. Это даёт быстрый эффект и помогает безопасно протестировать механику.

Итог

Голосовой ИИ-агент хорошо подходит для автоматизации первой линии поддержки: он принимает обращения, отвечает на типовые вопросы, выполняет простые действия и передаёт сложные случаи людям с уже собранным контекстом. Такая модель помогает снизить нагрузку на операторов, сократить очереди и ускорить ответ клиентам. Наибольший эффект появляется там, где заранее продуманы сценарии, интеграции и правила эскалации.

Теги:
0
Комментарии1

Технология — не проблема, проблема — как её внедряют: инсайты опроса об отношении к ИИ

Может показаться, что айтишники делятся на два лагеря: одни молятся на ИИ, другие требуют запретить. Мы проверили это в опросе K2 Cloud × Хабр — и увидели другую картину: большинство не в восторге и не в ярости, а выбирают прагматичный режим выживания. И у этого режима есть архетипы — от Тони Старка до Халка.

Кто отвечал

Мы проверили 872 анкеты. В выборке доминируют те, для кого цена ошибки высока: разработчики (ядро — бэкенд 25,92%). По грейдам большинство — сеньоры 36,6% и мидлы 33,8% (почти 71%). По сферам большая часть респондентов из сферы разработки или поддержки ПО (20,07%), финтеха (14,22%), промышленности (11,58%), бигтеха (8,26%).

Где ИИ реально помогает

ИИ в ИТ сегодня — ускоритель рутины, а не автономный инженер. Топ задач: написание кода (59,1%), разработка документации (51,1%) и прототипов (43,7%), тестирование (35,3%), дебагинг (34,7%), автоматизация (31,3%).

Но главное — не где используют, а как реагируют на ошибки: 54,47% готовы дорабатывать результат, 35,78% предпочитают выполнить задачу по старинке и без привлечения ИИ, если результат не нравится. Поэтому одним ИИ экономит время даже с учётом проверок и доработок, а другим добавляет лишний контур контроля. Кстати, о том, как выстроить управляемый ИИ-контур в компании, мы расскажем на K2 Cloud Conf 14 апреля.

Чем пользуются

В лидерах ожидаемо оказались ChatGPT (56,5%), DeepSeek (43,5%), Gemini (26,1%), Claude (24,3%), Cursor (17,4%). Интересно, что там, где ИИ обязателен, стек шире — инструменты подбирают под конкретные задачи, а не используют один для всего.

Политика компаний: мягкое продавливание

У большинства компаний подход нейтральный: 54,1% — не требуют, но разрешают ИИ. Ещё 24,3% — официально не требуют, но рекомендуют. 15,9% — требуют, 5,8% — запрещают, чаще всего это промышленность и часть финтеха — там жёстче требования комплаенса и ИБ.

Мотивация при этом часто страдает: 67,5% говорят, что за ИИ их не хвалят и не ругают. Премии встречаются редко: 6,7% разработчикам их выдают за продуктивность и 4,7% — за нетривиальные кейсы. Штрафы встречаются ещё реже: около 3% наказывают за отсутствие кейсов и 2,8% — за невыполнение плана. Но именно там, где подключаются требования к KPI, чаще встречается использование для галочки — в среднем у 23,67%.

Что нравится и что бесит

Айтишникам нравится использовать ИИ для документации, подсказок, прототипов. А больше всего раздражают его ошибки, страх потери профессионализма, использование не там, где надо, риск ослабления критического мышления, угрозы безопасности. Да, айтишников чаще тревожит деградация мышления и навыков.

Архетипы: Старк, Хаус, Оби-Ван и Халк

Проанализировав ответы, мы выделили четыре портрета — возможно, в одном из них вы узнаете себя:

  • Тони Старк (33%) — амбассадор. Встраивает ИИ в процессы, дорабатывает результаты, радостно демонстрирует эффект: «Смотри, что я сделал!»

  • Оби-Ван Кеноби (30%) — сдержанный. Использует ИИ регулярно, но проверяет и не идеализирует инструмент.

  • Доктор Хаус (24%) — скептик. Видит ошибки и перегибы, чаще откатывается к ручным методам, потому что — «ну сколько можно врать, дорогой ИИ».

  • Брюс Баннер/Халк (12,3%) — противоречивый. Пользу признаёт, но внутри у него много тревоги за навыки и идентичность.

Мы увидели, что разговор об ИИ — это не дискуссия о пользе инструмента, а спор о трансформации профессии. Инженерам нужно знать, как нейросети сказываются на скорости и качестве работы, что с контролем и ответственностью за внедрением ИИ и как он влияет на ощущение собственной ценности как профессионала.

Полный анализ и цифры мы собрали в статье в блоге К2 Cloud — переходите туда и изучайте. Там собрана информация по компаниям и отраслям, барьеры внедрения и практические советы: как не выгореть, как внедрять AI-инициативы без негативных последствий, где брать ресурсы — как моральные, так и реальные физические мощности, и что делать, чтобы инструмент работал во благо, а не во вред.

Теги:
+7
Комментарии17

Старший инженер Google выложил 400-страничную книгу по паттернам агентных систем.

Антонио Гулли, старший инженер Google, выложил в открытый доступ книгу «Agentic Design Patterns» -  методичку по построению автономных ИИ-систем.

21 паттерн, структурированных как классические книги по ООП - только вместо фабрик и синглтонов: маршрутизация задач, работа с памятью, MCP, обработка исключений, MCP, RAG, Human-in-the-Loop, общение агентов между собой и guardrails.

Есть как базовые паттерны: промпт-чейнинг, Tool Use, параллелизация, менджмент субагентов, так и продвинутые интересные случаи - как агенты общаются между собой, как управлять ресурсами, как не дать агенту натворить дел без надзора человека.

Читать 400 страниц PDF это занятие, прямо скажем, на любителя. Есть небольшой обходной и более интересный путь. Разработчик Mathews Tom уже перегнал все в GitHub-репо где каждый паттерн в отдельной папке с описанием и рабочим кодом на LangChain, LangGraph и CrewAI.

Внимательно изучаем и (возможно) становимся гуру построения сложных ИИ-систем.

Надеюсь тебе понравилось. Лучшая благодарность — это твоя подписка на мой Telegram-канал 😊

Теги:
+8
Комментарии0

Всем привет! На связи Иван, руководитель НИИ Крокодил

Недавно прочитал на Хабре статью о том, на чём будут учиться нейросети в 2026 году. Там был тезис, что «интернет как универсальный бесплатный датасет» больше не работает в прежнем виде. Согласен с автором и вот почему:

AI-контента становится всё больше, юридические ограничения усиливаются, знания постепенно уходят из открытых источников в корпоративные базы и закрытые каналы. Обучать можно, дообучать можно — вопрос в качестве и происхождении данных.

Но в прикладном ИИ проблема ещё приземлённее.

Мы редко упираемся в отсутствие данных вообще. Чаще — в отсутствие данных под конкретную среду.

Например, вы собрали датасет по знаку «Пешеходный переход», днём всё работает стабильно. Наступает вечер, меняется освещённость, появляются блики, и точность снижается. Чуть сместили камеру, сцена уже другая, для модели это новые входные данные.

Модель не человек: она не понимает контекст, а работает с признаками изображения. Даже для простой сцены нужны тысячи кадров в разных условиях. А это время и бюджет.

Поэтому вопрос сейчас не только в моделях, а в том, насколько компании готовы системно работать с данными. А вы что думаете по этому поводу?

Теги:
0
Комментарии0

Приглашаем на бизнес-ужин «Как построить ИИ-платформу: преимущества мультивендорских решений»

Очная закрытая встреча от Selectel, Data Sapience и GlowByte для предпринимателей, руководителей и специалистов по машинному обучению (ML) состоится 9 апреля в 18:00. Будет интересно всем, кто планирует автоматизировать бизнес-процессы с помощью ИИ, и хочет разобраться, с чего начать.

Участники на реальных примерах разберут пошагово, как реализуются проекты по машинному обучению (ML) сегодня, и увидят, как современные инструменты помогают решать важные бизнес-задачи. Мероприятие станет площадкой для нетворкинга и свободного диалога на тему ИИ в бизнесе.

В программе доклады:

  • «Как внедрить ИИ: от инфраструктуры до выхода в прод. Решение Selectel, Data Sapience и GlowByte»Алексей Рундасов, коммерческий директор, Data Sapience;
    Александр Тугов, директор ИИ-вертикали, Selectel;

  • «ИИ в продакшене: как инференс превращает модели в деньги»
    Владислав Кирпинский, директор по облачной интеграции, Selectel;

  • «Большой языковой барьер: ИИ-платформы 2026»
    Михаил Зайцев, директор продукта Kolmogorov AI, Data Sapience;

  • «GenAI на практике: кейс “Таврос”»
    Артем Самойлов, директор по информационным технологиям (IT) и цифровой трансформации, группа компаний «Таврос»;
    Александр Ефимов, директор практики искусственного интеллекта и машинного обучения, GlowByte.

Также в рамках бизнес-ужина пройдет круглый стол о границах возможностей ИИ «Хайп vs Реальность». Эксперты обсудят практические примеры, когда внедрение ИИ действительно оправдано, и ситуации, где компании могут столкнуться с ограничениями. Участники разберут технические барьеры, требования к данным и инфраструктуре, а также бизнес-факторы, влияющие на эффективность и окупаемость ИИ-проектов.

Зарегистрироваться на бизнес-ужин

Теги:
+4
Комментарии0

Приглашаем на бизнес-ужин «Как построить ИИ-платформу: преимущества мультивендорских решений»

Очная закрытая встреча от Selectel, Data Sapience и GlowByte для предпринимателей, руководителей и специалистов по машинному обучению (ML) состоится 9 апреля в 18:00. Будет интересно всем, кто планирует автоматизировать бизнес-процессы с помощью ИИ, и хочет разобраться, с чего начать.

Участники на реальных примерах разберут пошагово, как реализуются проекты по машинному обучению (ML) сегодня, и увидят, как современные инструменты помогают решать важные бизнес-задачи. Мероприятие станет площадкой для нетворкинга и свободного диалога на тему ИИ в бизнесе.

В программе доклады:

  • «Как внедрить ИИ: от инфраструктуры до выхода в прод. Решение Selectel, Data Sapience и GlowByte»
    Алексей Рундасов,
    коммерческий директор, Data Sapience;
    Александр Тугов, директор ИИ-вертикали, Selectel;

  • «ИИ в продакшене: как инференс превращает модели в деньги»
    Владислав Кирпинский, директор по облачной интеграции, Selectel;

  • «Большой языковой барьер: ИИ-платформы 2026»
    Михаил Зайцев, директор платформы Kolmogorov AI, Data Sapience;

  • «GenAI на практике: кейс “Таврос”»
    Артем Самойлов, директор по информационным технологиям (IT) и цифровой трансформации, группа компаний «Таврос»;
    Александр Ефимов, директор практики искусственного интеллекта и машинного обучения, GlowByte.

Также в рамках бизнес-ужина пройдет круглый стол о границах возможностей ИИ «Хайп vs Реальность». Эксперты обсудят практические примеры, когда внедрение ИИ действительно оправдано, и ситуации, где компании могут столкнуться с ограничениями. Участники разберут технические барьеры, требования к данным и инфраструктуре, а также бизнес-факторы, влияющие на эффективность и окупаемость ИИ-проектов.

Зарегистрироваться на бизнес-ужин

Теги:
+2
Комментарии0

Глава Nvidia Дженсен Хуанг обозначил новый неформальный стандарт эффективности для инженеров, работающих в сфере высоких технологий. В свежем выпуске подкаста All-In, Хуанг заявил, что специалист, получающий $500 000 в год, должен расходовать на ИИ-токены не менее половины своей зарплаты. По словам Хуанга, если инженер с таким доходом тратит на использование больших языковых моделей и вычислительные мощности лишь $5 000, это становится для него серьезным поводом для беспокойства. Руководитель Nvidia сравнил такую ситуацию с разработчиком чипов, который принципиально отказывается от CAD-инструментов и работает «с бумагой и карандашом».

Внедряющие ИИ компании стали вводить новую метрику в виде токенов, которая отражает их расход при работе сотрудников. Некоторые из них уже отслеживают, сколько токенов тратит каждый сотрудник, чтобы ограничить неэффективное или нецелевое использование. Платформа автоматизации Zapier запустила внутреннюю панель, которая отображает, как сотрудники используют ИИ и сколько токенов при этом тратят. «У нас появилась новая статья расходов», — подтвердил директор по ИИ-трансформации компании Брэндон Саммут. По его словам, токены имееют цену, и компаниям приходится учитывать её в своих расчётах.

Ранее компании Кремниевой долины начали предлагать бонусы в виде компенсаций за доступ к ИИ-моделям своим инженерам. Инженеры-программисты и исследователи ИИ в технологических компаниях уже давно борются за доступ к графическим процессорам (GPU), при этом вычислительные мощности для ИИ тщательно распределяются в зависимости от того, какие проекты наиболее важны. В итоге некоторые кандидаты на вакансии начали спрашивать о том, какой бюджет на вычисления в ИИ им будет доступен, если они решат присоединиться к компании.

Теги:
+5
Комментарии13

Дайджест: новости за февраль 2026

🚀 Через 16 дней встретимся на GoCloud 2026 — нашей главной ежегодной конференции про ИИ и облака. В этом году мы подготовили насыщенную программу, чтобы вы могли первыми узнать, какие подходы в работе с ИИ, данными, облаками и кибербезопасностью станут стандартом для бизнеса в 2026 году. Регистрируйтесь, чтобы ничего не пропустить.

📈 Если вы работаете в компании, которая хочет построить аналитику данных в облаке без первоначальных затрат на инфраструктуру, то у вас есть возможность запустить тестовый проект в рабочей среде облака с гарантированными SLA и безопасностью с помощью платформы Cloud.ru для работы с данными. Подробнее о предложении читайте на сайте, действует до 30 июня 2026.

👨‍💻 Еще до 30 июня можно забрать скидки до 40% на сервисы для запуска и развертывания LLM-моделей с помощью инференса или на физических серверах с GPU и CPU. 

🛡️ Теперь в облаке Cloud.ru можно размещать системы для обработки банковской тайны и проведения любых финансовых операций за счет подтверждения соответствия стандарту ГОСТ Р 57580.1-2017. Этот стандарт определяет основные требования по информационной безопасности для организаций, которые оказывают финансовые услуги по лицензии Центрального банка России. 

⚙️ Что нового в цифровой среде AI Factory:

  • В сервис для обогащения данными языковой модели добавили тег latest, который доступен при запросах к Search API для параметра knowledge_base_version. Он позволяет делать запросы к последней версии базы знаний без указания ее идентификатора.

  • В сервис для создания автономных ИИ-агентов добавили: триггеры, которые позволяют запускать агента при получении сообщения в мессенджере или электронного письма, а также настроить регулярный вызов по расписанию; поддержку трейсинга — возможность просмотра полных трейсов выполнения и отображение каждого шага агента с параметрами, уровнем уверенности и стоимостью; сессии агентов — они нужны, чтобы изучать цепочки рассуждений, смотреть, какие инструменты были использованы, и отслеживать стоимость выполнения сессии.

  • В сервисе для запуска моделей машинного обучения запустили Public API для управления инференсами. Он позволяет: получать список инференсов в проекте с пагинацией и фильтрацией по названию, а также детальную информацию о состоянии инференса; управлять жизненным циклом: масштабировать, настраивать ресурсы и параметры выполнения

  • Добавили новые модели в сервис с готовыми LLM и ИИ-моделями: zai-org/GLM-4.7-Flash, zai-org/GLM-4.7, t-tech/T-lite-it-2.1, t-tech/T-pro-it-2.1, Qwen/Qwen3-Coder-Next. Все модели доступны через API и поддерживаются в интерфейсе песочницы для быстрого тестирования. 

☁️ Управляемая аналитическая СУБД в облаке на базе ClickHouse® перешла в режим открытого тестирования и теперь доступна в личном кабинете Cloud.ru для всех зарегистрированных пользователей. Другие новости про наши облачные сервисы читайте в блоге на сайте.

🦾 Делимся инструкцией, как запустить ИИ-чат за шесть шагов. Внутри гайда порядок действий со списком сервисов и параметрами настройки; команды и конфиги, которые можно скопировать и использовать; настройка Open WebUI для работы с готовыми моделями через OpenAI-совместимый API и выбор модели прямо в интерфейсе чата; практическая настройка защиты, ограничение доступа по IP-адресам, а также использование SSL-сертификатов для шифрования соединений.

🤖 Изучите новый бесплатный курс от нашей команды о практиках развертывания, эксплуатации и автоматизации ML-систем с использованием корпоративных платформ данных. Подходит всем, кто хочет надежно и масштабируемо внедрять ИИ‑модели. 

🎙️ Выложили записи новых увлекательных вебинаров про ETL в облаке: от хаоса к управляемым процессам и корпоративный AI-чат: от выбора модели до работающего прототипа

💼 Рассказали, как онлайн-сервис доставки Купер перенес 40 ТБ аналитических данных в облако без остановки процессов. Подробности кейса смотрите на сайте.

Теги:
+3
Комментарии0

5 задач бизнеса, которые уже выполняют голосовые AI-агенты

Голосовые агенты перешли из пилотов в рабочие процессы: компании поручают им не только ответы на вопросы, но и реальные действия в CRM, календарях и заказах. Ниже — пять задач, которые голосовой AI агент (voice AI агент) уже закрывает без операторов.

1. Приём и обработка входящих звонков 24/7

Клиент звонит в нерабочее время или в час пик — вместо очереди или «перезвоните завтра» его встречает голосовой бот для звонков. Он уточняет запрос, проверяет статус заказа или баланс в ваших системах и либо решает вопрос, либо оставляет заявку и передаёт в CRM с уже заполненной карточкой. Нагрузка на операторов падает, а простые запросы обрабатываются без ожидания. Голосовой ИИ агент здесь выступает первым контуром приёма: фильтрует рутину и оставляет людям сложные и эмоциональные кейсы.

2. Запись и напоминания о встречах

«Хочу записаться на консультацию» или «Перенести визит на следующую неделю» — типичные фразы, которые голосовые агенты уже обрабатывают без участия менеджера. Бот проверяет свободные слоты в календаре, бронирует время, при необходимости отправляет подтверждение и напоминание. Часть платформ умеет и исходящие звонки: напомнить о записи за день или за час и уточнить, придёт ли клиент. Для бизнеса это меньше пропусков, меньше ручного согласования и больше контролируемого потока записей.

3. Квалификация лидов по телефону

Входящий лид звонит — голосовой бот для бизнеса задаёт уточняющие вопросы (задача, бюджет, сроки), оценивает качество лида и либо передаёт в отдел продаж с уже заполненной карточкой в CRM, либо запускает цепочку писем для «тёплых» контактов. При исходящем обзвоне та же логика: бот обзванивает заявки с сайта, квалифицирует их и обновляет поля в CRM. В итоге менеджеры получают уже отфильтрованный и структурированный входящий поток вместо «сырых» заявок.

4. Информирование и самопроверка статусов

«Где мой заказ?», «Какой у меня баланс?», «Когда приедет мастер?» — запросы, которые голосовые агенты обрабатывают, подтягивая данные из систем заказов, биллинга или учёта. Клиенту не нужно ждать оператора или искать информацию в личном кабинете: он звонит или говорит через виджет на сайте (голосовой бот для сайта), и за секунды получает актуальный ответ. Это снижает нагрузку на поддержку и ускоряет время до ответа по типовым вопросам.

5. Сбор обратной связи и актуализация баз

После доставки, визита или сделки голосовой AI агент может сам перезвонить клиенту или позвонить по списку: провести короткий опрос (NPS, причина отказа, удовлетворённость), уточнить контактные данные или причину неявки на встречу. Ответы фиксируются в CRM или в отчётности. Рутинный обзвон перестаёт зависеть от загрузки операторов, а база остаётся актуальной без ручного обхода.

Что нужно, чтобы такие сценарии работали

Чтобы голосовые агенты не только разговаривали, но и выполняли эти задачи, им нужна связка с вашими системами: CRM, календарь, заказы, почта. Тогда разговор сразу превращается в обновлённую карточку, новую запись или запущенную цепочку.

Голосовые AI-агенты уже закрывают приём звонков, записи, квалификацию лидов, информирование и обзвон для обратной связи. Отличие от прежней автоматизации — понимание естественной речи и выполнение действий в ваших системах, а не только воспроизведение скриптов. Тем, кто только оценивает внедрение, имеет смысл начинать с одной-двух задач из этого списка и расширять сценарии по мере отладки.

Теги:
0
Комментарии0

Исследовательская организация METR опубликовала подробный анализ, который ставит под сомнение реальную эффективность ИИ‑агентов в программировании. Исследователи проверили, насколько результаты одного из главных отраслевых бенчмарков SWE‑bench Verified соответствуют практике разработки с участием живых мейнтейнеров open source‑проектов. Выяснилось, что около половины решений, которые автоматическая система оценки считает успешными, в реальности не были бы приняты в основной код.

В исследовании METR участвовали четыре действующих мейнтейнера трёх популярных репозиториев: scikit‑learn, Sphinx и pytest. Они провели ручной код‑ревью 296 pull‑request, созданных ИИ‑моделями. Среди протестированных систем были Claude 3.5 Sonnet, Claude 3.7 Sonnet, Claude 4 Opus, Claude 4.5 Sonnet и GPT-5.

Разрыв между результатами автоматических тестов и реальным код-ревью: модели ИИ демонстрируют заметно более высокие показатели успешности в бенчмарке SWE-bench, чем при проверке опытными разработчиками, что указывает на переоценку их практической эффективности. Источник: METR.
Разрыв между результатами автоматических тестов и реальным код-ревью: модели ИИ демонстрируют заметно более высокие показатели успешности в бенчмарке SWE-bench, чем при проверке опытными разработчиками, что указывает на переоценку их практической эффективности. Источник: METR.

Рецензенты не знали, написан ли код человеком или машиной. В результате оказалось, что в реальной разработке такие решения принимаются значительно реже: уровень одобрения оказался примерно на 24 процентных пункта ниже, чем показывали автоматические тесты SWE‑bench. Даже если учитывать, что сами человеческие решения при повторной проверке одобрялись только в 68% случаев, разница между оценками алгоритма и мнением разработчиков все равно осталась статистически значимой.

Разработчики классифицировали причины отклонения решений на три основные категории. Первая — низкое качество кода, включая несоблюдение стандартов проекта и избыточную сложность. Вторая — нарушения существующей логики системы, когда исправление одной ошибки приводило к поломке других частей кода. Третья — базовые функциональные ошибки: значительная доля решений формально проходила тесты, но фактически не устраняла исходную проблему.

Исследование METR также выявило различия между моделями: переход от Claude 3.5 к Claude 3.7 сопровождался ростом общего числа «успешных» решений, но увеличением случаев функциональных дефектов, тогда как более поздние версии Anthropic улучшали прежде всего качество кода. GPT-5 в среднем демонстрировал более слабые результаты по этому критерию.

Дополнительный анализ METR показал, что результаты тестов могут создавать неверное впечатление о том, насколько хорошо ИИ работает в реальных задачах. По автоматическим данным Claude 4.5 Sonnet достигает 50% уровня успеха на задачах, сопоставимых с 50 минутами работы разработчика. Однако оценки мейнтейнеров снизили этот показатель примерно до восьми минут. Это означает, что лабораторные метрики могут завышать реальную эффективность ИИ‑агентов в несколько раз.

В команде METR указывают, что исследование не доказывает фундаментального потолка возможностей современных моделей. В эксперименте ИИ‑системы получали только одну попытку решения задачи, тогда как в реальной разработке код дорабатывается итеративно после замечаний.

Теги:
+1
Комментарии1

Очеловечивание ИИ

Недавно разошлась новость о том, что Антропик (создатель Клода, а я с ним, как и с Кодексом, работаю с утра до утра каждые сутки) создал курс по «скилзам» (англицизм, skills), а по‑русски — навыкам. По каким навыкам? Вы думаете, вашим, разработчиков? Нет! Курс по навыкам агентов искусственного интеллекта.

ии-котейко
ии-котейко

Все бросились об этом писать, здесь на Хабре статья вышла. Тема не новая, Антропик про навыки ИИ пишет уже давно. Но только сейчас, с выходом курса, об этом громко заговорили.

И знаете, мне кажется, что все упускают один важный момент.

Название. Навыки! Это слово мы всегда применяли только к людям, а не к каким-то железкам.

А здесь идет явное очеловечивание ИИ. Это осознанное действие. Нас хотят приучить к мысли, что ИИ — не инструмент! Это очень опасно. И об этом никто не пишет. ИИ должен остаться инструментом. У него не должно быть навыков, сознания. У него могут быть только чипы и инструкции.

Человек должен четко провести эту границу и соблюдать ее. Но, к сожалению, этого не произойдет. Сейчас человек занят другими проблемами.

Всегда ваш (не ии), Ланчев PRO ИИ (канал автора в телеге)

Теги:
+5
Комментарии2

Студентам и научным руководителям: 3 бесплатных курса по ИИ от Яндекса и ВШЭ

В Яндекс Практикуме появляется всё больше курсов по использованию ИИ в учёбе. Делимся небольшой подборкой для всех, кто собирается поступать, уже учится или преподаёт. Все курсы бесплатные, без дедлайнов, а доступ остаётся навсегда.

Внутри вы найдёте теорию с примерами, а также квизы и задачи для закрепления материала. Прохождение самостоятельное, но с вами будет ИИ-помощник: он объяснит сложный термин, приведёт примеры, даст подсказку при выполнении задания и поможет сориентироваться в контенте уроков.

1. «Нейросети для учёбы» 

Кому: старшеклассникам и студентам первых курсов
Время прохождения: 13 часов в своём темпе
В конце вы получите сертификат о прохождении курса

На курсе вы научитесь готовить конспекты, проводить исследования и готовиться к экзаменам, а также освоите техники промптинга для написания эссе и создания иллюстраций. Расскажем, как быстро структурировать любые данные и как использовать ИИ для персонального тайм-менеджмента. Также вы узнаете, как пользоваться нейросетями осознанно и безопасно.

Узнать о курсе подробнее и начать учиться →

2. «ИИ и промптинг для студенческих проектов»

Кому: студентам бакалавриата и магистратуры
Время прохождения: 8 часов в своём темпе
В конце вы получите сертификат о прохождении курса 

Курс даёт базу для ответственного использования ИИ в учебных и исследовательских задачах. Вы научитесь формулировать тему, искать и анализировать информацию, планировать исследование, оформлять и проверять работу с помощью ИИ. А также разберётесь, как применять ИИ осознанно и представлять этот опыт на защите курсовой или дипломной работы. 

Узнать о курсе подробнее и начать учиться →

3. «ИИ и промптинг для научных руководителей»

Кому: преподавателям и научным руководителям
Время прохождения: 9 часов в своём темпе
В конце вы получите сертификат о прохождении курса

Курс основан на опыте проекта Яндекс Образования и ФКН ВШЭ, апробированного в 11 вузах с участием более 500 студентов и 250 преподавателей. Вы разберётесь в возможностях и ограничениях технологий, научитесь формулировать критерии их применения и давать аргументированную обратную связь по работам студентов.

Вы научитесь писать качественные промпты, а также узнаете, как с помощью ИИ искать и анализировать научные источники, формулировать темы и гипотезы исследований, оформлять библиографию и визуализировать данные. А ещё познакомитесь с ИИ-инструментами, которые помогут автоматизировать рутинные задачи.

Узнать о курсе подробнее и начать учиться →

Теги:
+2
Комментарии0

rules отдельно, skills отдельно: система правил для ИИ-агентов в Claude Code

Возвращаюсь к своему опыту работы с Claude Code. Там за неделю накопилось несколько интересных решений в работе контентными агентами. Например, добавил устойчивость к ошибкам WebSearch и начал сохранять результаты проверок для дообучения. Но сначала надо вам рассказать про правила.

Почему rules, если есть уже привычные skills? Разница между этими сущностями принципиальная:

➡️ rules — это «как оформлять» (ограничения, чеклисты, формат),
➡️ skills — «что знать» (предметная экспертиза, справочники, методологии).

Rules загружаются автоматически через симлинки. Skills вызываются по запросу, когда агенту нужна глубокая экспертиза.

Но всё равно же не очень понятно, зачем такое разделение, да?

Правила не засоряют контекстное окно. Файлы из .claude/rules/ загружаются в системный промт автоматически — агент соблюдает правила, не тратя токены на их обсуждение. Skills, наоборот, подгружаются только когда нужны. Справочник на 200 терминов не висит в контексте постоянно — он появляется в момент, когда автору пора писать, и не мешает исследователю или фактчекеру.

Когда агентов больше одного, правила написания текстов неизбежно дублируются. Обновил термин в одном месте — забыл в трёх других. Решение: вынести все правила в единую директорию rules/ и раздавать агентам через симлинки в .claude/rules/

При этом сами правила делятся на два уровня:

➡️ Общие (rules/common/) загружаются в каждого агента: терминология, стиль, грамматика, протокол работы субагентов.
➡️ Доменные (rules/{domain}/) добавляют специфику формата: у SEO-статьи свои требования к структуре, у пресс-релиза — свои, у лендинга — свои.

Доменные папки могут содержать файлы с теми же именами, что и в common/. Это не дубли, а дельты — дополнения и уточнения общих правил для конкретного формата. Агент загружает оба файла и применяет оба набора ограничений.

Результат: один файл правил — один источник правды. Изменил правило в rules/common/ — оно обновилось у всех агентов. Новый агент подключается за минуту: создал .claude/rules/, добавил симлинки — готово.

Как это работает в оркестрации

В модульной системе с субагентами разделение rules и skills становится особенно важным. Типичный пайплайн:

1️⃣ Оркестратор собирает параметры задачи через wizard.
2️⃣ Субагент-исследователь загружает свои rules (протокол работы, устойчивость к ошибкам поиска), ищет данные, возвращает структурированный конспект.
3️⃣ Субагент-автор загружает свои rules (доменные стандарты формата + общие правила качества) и skill (экспертная специализация), пишет текст по конспекту.
4️⃣ Субагент-проверщик загружает свои rules (требования к фактам и качеству), проверяет текст независимо.

Каждый субагент получает только нужные данные (чистый контекст) и только свои правила. Исследователь не знает правил оформления — они ему не нужны. Автор не знает, как проверять факты — это задача следующего субагента. Фактчекер не знает, как писать — он только проверяет. Такое разделение позволяет держать контекст каждого субагента компактным и сфокусированным.

Больше такого в моём канале.

Теги:
0
Комментарии0

Ускоряем разработку в разы: специалист по ИИ собрал пять репозиториев для Claude Code, чтобы автоматизировать большинство задач в рутине программиста:

  • Superbase CLI управление миграцией БД на PostgreSQL, генерирует типы из схемы БД, создаёт аутентифицированные HTTP-запросы.

  • Skill Creator — позволяет создавать агентные скиллы без лишних заморочек, постоянно улучшаете и оттачиваете навыки Claude для конкретных задач.

  • Get shit done — создаёт легковесную систему разработки с контекстным инжинирингом и поддерживает Claude Code, OpenCode, Gemini CLI, Codex, Copilot, и Antigravity.

  • Notebooklm-py — обеспечивает программный доступ к фичам NotebookLM, который очень хорошо будет смотреться с агентами Claude Code, Codex, и OpenClaw.

  • Obsidian.md — аналог NotebookLM со схожим функционалом, который работает в России и в него можно интегрировать Claude, чтобы получить мощный ворфлоу.

Теги:
0
Комментарии0

UML: язык, который сделал модели универсальными

В мире разработки программного обеспечения всегда существовала проблема: как объяснить сложные архитектурные идеи так, чтобы их одинаково понимали аналитики, разработчики, тестировщики и менеджеры? Код слишком детализирован, текстовые описания слишком расплывчаты. Решение появилось в 1990‑е годы — Unified Modeling Language (UML), единый язык моделирования, который превратил архитектуру в набор визуальных схем.

Зачем нужен UML

UML — это не язык программирования, а язык описания систем. Его цель — дать команде общий визуальный словарь.

  • Аналитик может показать бизнес‑процесс.

  • Архитектор — структуру классов.

  • Разработчик — взаимодействие объектов во времени.

  • Тестировщик — сценарии использования.

Все эти диаграммы строятся по единым правилам, что снимает путаницу и позволяет обсуждать систему на разных уровнях абстракции.

Основные типы диаграмм

UML включает более десятка видов диаграмм, но чаще всего используют несколько ключевых:

  • Диаграмма классов — показывает структуру системы: классы, их атрибуты, методы и связи.

  • Диаграмма вариантов использования (Use Case) — описывает, как пользователи взаимодействуют с системой.

  • Диаграмма последовательностей (Sequence) — иллюстрирует обмен сообщениями между объектами во времени.

  • Диаграмма состояний (State Machine) — фиксирует, как объект меняет состояния под воздействием событий.

  • Диаграмма компонентов — показывает, из каких модулей состоит система и как они связаны.

Каждая диаграмма — это взгляд на систему с определённой стороны. Вместе они дают целостную картину.

Сила UML

Главное достоинство UML — универсальность. Он не привязан к конкретному языку программирования или платформе. Диаграмма классов может описывать Java‑систему, C#‑приложение или даже организационную структуру компании.

Кроме того, UML стал стандартом (OMG утвердил его в 1997 году), что позволило появиться множеству инструментов: от простых редакторов до CASE‑систем, которые умеют генерировать код по диаграммам или наоборот — строить диаграммы из кода.

Критика и эволюция

Со временем UML подвергся критике:

  • Диаграммы часто становились слишком громоздкими.

  • Команды тратили больше времени на рисование, чем на разработку.

  • В Agile‑среде UML казался слишком «тяжёлым».

Однако его ценность осталась: UML — это язык мышления об архитектуре. Даже если команда использует упрощённые схемы, они всё равно основаны на его идеях.

UML сегодня

Сегодня UML редко применяют в полном объёме. Но его элементы живут везде:

  • Use Case диаграммы — в бизнес‑анализе.

  • Sequence диаграммы — в проектировании API.

  • Class диаграммы — в документации.

UML стал своего рода «латинским языком» архитектуры: не всегда используется в чистом виде, но лежит в основе многих практик.

Теги:
-4
Комментарии0

Коротко о системах антиплагиата: британский профессор проверил свою научную работу, написанную 45 лет назад. Оказалось, что она… на 77% «сгенерирована нейросетями».

Теги:
+8
Комментарии4

Небольшой хак для работы с нейросетью GLM-5

У проекта есть бесплатный чат, а что ещё важнее у них есть бесплатный агентный режим.

Нейроесть бесплатно доступна по адресу: https://chat.z.ai Каких-то ограничений в бесплатной версии я не видел, в целом достаточно интересный и главное бесплатный проект.

Есть только одна проблема, веб интерфейс поддерживает загрузку только определенных типов файлов: txt, doc, docx, pdf, png, mp4, py, ничего кроме разрешенных форматов загрузить нельзя. Т.е. если у вас проект на c#, php или любом другом языке, то придётся каждый файл переименовать и загружать как txt ))

Да и ещё один не очень приятный момент, одновременно через web можно загрузить не более 10 файлов, а если у вас в проекте их 30?

Что тогда? Установить у каждого из них расширение txt и загружать 3 раза по 10 файлов?

К счастью нас спасает то, что в отличие от веб интерфейса, сам агент будет поумнее и может то, что через веб не разрешено.

Я нашел для себя хороший простой способ, позволяющий обойти эти ограничения.

Запаковываем папку с проектом в zip архив и добавляем расширение docx (другие расширения не подойдут, так как сервер проверяет контент на соответствие расширению, а docx это по факту и есть zip)

После чего грузим его через интерфейс и пишем агенту примерно следующий текст:

Переименуй файл myproject.zip.docx в myproject.zip и распакуй в папку с проектом.

Все... Агент выполнит вашу просьбу, распакует архив и сможет работать с файлами вашего проекта.

Теги:
+5
Комментарии0

Представлен открытый проект Claude Code Game Studios. Это игровая ИИ-студия на базе нейросетей, которые умеет создавать различные проекты от простых бродилок до прорывного экшена:

  • 48 нейросетей, которые могут работать без остановки. Это не устающий отдел геймдева прямо на локальном ПК;

  • среди ИИ есть: креативный директор, технический директор, продюсер, QA, нарративный директор, левел-дизайнер и другие ИИ-системы;

  • нейросети до мельчайших деталей знают актуальные движки: Godot 4, Unity и Unreal Engine 5. Они напишут на них игру и запустят с тестами;

  • ИИ-системы сами проверяют работу: коммиты, комментарии, задачи и итоги спринтов, а также все важные нововведения и ревью;

  • все действия нейросети согласовывают с пользователем как с гендиректором: с полным отчётом, предложениями и планом. Да, команда автономна, но задаёт вектор именно пользователь;

  • авторы проекта также добавили 28 шаблонов документов: по геймдизайну, архитектуре проекта, экономике, фракциям, UX и так далее.

Теги:
+6
Комментарии1

Представлен открытый проект ClawRouter, который максимально эффективно позволяет расходовать токены ИИ-моделей, анализируя задачи и подбирая нейросети, чтобы пользователи не переплачивали за лишний расход ИИ-мощностей:

  • анализирует запрос и оценивает его по 14 пунктам: сложность, комплексность, длина промпта и другие параметры.

  • подбирает эффективную модель из 40+ сервисов.

  • результат прилетает за секунды.

  • работает полностью локально.

  • итог: сложные задачи летят в более мощные нейронки с большим лимитом, а легкие забирает малышня.

Теги:
+3
Комментарии0

ИИ-разработка. Темп

Знаете, обычно все скрыто под NDA. Но, когда свой проект, то можно рассказать все. Сегодня я расскажу самое главное. С какой скоростью идет разработка с помощью ИИ.

Немного статистики по проекту
Немного статистики по проекту

Мне говорят, что 90-95% разработчиков не используют ИИ. Мне тяжело в это поверить. Я скорее поверю, что они это скрывают. Ни самим разработчикам, ни IT-компаниям невыгодно рассказывать о возросшей эффективности. Мы еще поговорим как-нибудь об этом. А пока держите эффективность моей разработки.

✔ Только что я закончил весьма тяжелый переход к новой архитектуре данных в своем проекте lanchess.ru

👀 И занял этот переход у меня 2 дня! (если считать сегодня, то 3)
Стоило это мне 10 тыс строк кода и массы тестов (и тд и тп).

А теперь внимание.
Сколько времени эта же работа заняла бы без использования ии-инструментов?
Ответ: 16-26 рабочих дня.

💥 2 дня против 1 месяца работы!

Вы пока думайте, что сказать, а я пошел дальше работать 🙂

Всегда ваш, Ланчев PRO ИИ

Теги:
-7
Комментарии25

Немного о вездесущем ИИ в «преобразовании бизнеса». Думаю, что это сейчас знакомая многим боль.

ОПУС: Джун. Ошибка доступа.

«„Легкий старт в IT? Быстрый карьерный рост?“ Какая же чушь. Я смотрю на экран, и он абсолютно глухой. Двести откликов за неделю. Двести раз мое вылизанное резюме улетело в черную дыру эйчар‑алгоритмов и даже не звякнуло об дно.»

Спина затекла. Я сижу так уже часов пять, обновляя ленту вакансий. Вкладки давят. В каждой — требования, от которых просто сводит челюсть. «Опыт от 3 лет», «Умение управлять пулом ИИ‑агентов». Какие агенты? Я сам готов быть вашим агентом, просто дайте мне задачу! (Нет, не пиши это в сопроводительном. Стереть. Надо звучать уверенно: «Обладаю высокой адаптивностью к работе с ИИ‑пайплайнами». Господи, как же шаблонно и жалко это звучит).

Рынок не просто просел — он схлопнулся. Там, где раньше сидел отдел из десяти джунов, набирающихся опыта, теперь сидит один уставший сеньор. Он потягивает кофе и просто раскидывает промпты трем нейросетям, которые пишут, тестят и деплоят код за секунды. А нас — тех, кто только что с горящими глазами вышел с курсов или универа — тысячи. Мы бьемся лбами за три оставшиеся стажерские позиции, где одно только тестовое задание тянет на полноценный бесплатный проект.

А реальная жизнь тем временем никуда не делась. Экран телефона загорается — это Лера: «Ну что, куда сегодня пойдем?». А куда мы пойдем? У меня на карте сумма, которой хватит разве что на два капучино и такси в одну сторону. И вот это разрывает изнутри больше всего. Меня распирает от энергии, я хочу работать, я готов пахать сутками, грызть эти задачи зубами — но миру это больше не нужно.

Миру не нужен мой энтузиазм и мой потенциал. Ему нужен готовый, безошибочный результат за ноль секунд, который я дать не могу, а машина — может. Я чувствую себя так, словно прибежал на вокзал с билетом, купленным на последние деньги, а поезд не просто ушел — отменили саму железную дорогу. И вокруг меня на перроне топчется еще миллион таких же дураков с пустыми карманами“

А для всех, кто устал от ИИ‑контента сразу признаюсь. Этот опус сгенерирован Gemini (конечно же с очень сложным входным промптом на 5–6 тыс токенов).

И все же результат настолько занимательный, что не могу не поделиться...

Теги:
+2
Комментарии0

Собрались однажды Google Search и логарифмическая линейка. Выпили по рюмке тока и подумали: а не написать ли нам какую‑нибудь статью? — Ой, какая хорошая идея! Стали они думать — какую статью им написать. Ничего не придумали, решили: пойдём у LLM спросим — какие статьи сейчас пишут… LLM нагрузил свои 1 нм транзисторы, использовал недельный запас электричества в Сан‑Франциско, и выдал список из самых популярных тем статей за последний год, добавив — я свою работу сделал, дальше сами разбирайтесь. Закручинились Google Search с логарифмической линейкой, не знают что дальше делать. И надумали спросить у человека. Тот посмотрел на список со схемами, почесал репу( так у этих устройств называется место, где CPU находится), и говорит — А вот ежели эту ендовину вставить вот в эту, то такая хрень получится, е..тть… Обрадовались Google Search с логарифмической линейкой, стали работать — статью писать, один в интернете рылся, второй считал, но тут им опять помощь потребовалась — нашел Google Search статью на аглицком, пришлось еще Google Translator позвать. И получилась у них статья, нарадоваться не могут. Быстро опубликовали ее на Хабре и стали комментарии читать. Один пишет — это же модель вечного двигателя, другой — это машина времени, тут еще один сказал, что они ошибаются, потому‑что это эликсир бессмертия… много было комментариев, и последний говорит — да эту статью ИИ написал и вы все тоже ИИ. И тут и Google Search и логарифмическая линейка и LLM и даже Google Translator возгордились и дальше жили долго и счастливо и умерли в один день :‑)

Теги:
+3
Комментарии0

Представлен открытый учебный проект OpenMAIC (Open Multi-Agent Interactive Classroom). Это нейроуниверситет, который может помочь за несколько занятий выучить материал на 100 страниц (демо в браузере):

  • работает как полноценная лекция + практика — есть ИИ-преподаватель и ИИ-студенты.

  • на заданную тему ИИ её разжёвывает, а потом закрепляет практикой и самыми каверзными вопросами.

  • можете слушать и фиксировать, а можете принять участие — голосом или текстом.

  • задали вопрос — получили ответ.

  • всё максимально удобно — лекции с озвучками, лазерной указкой и тестами.

  • ИИ-преподаватель разберёт все ошибки в понимании материала.

  • практика — прямо в браузере идёт имитация задач и физических экспериментов.

Теги:
+4
Комментарии0

Собираем локальную агентную AI-систему

Если хочется не просто «чатик с нейронкой», а локального AI агента, который умеет ходить в инструменты (файлы и т. п.) и выполнять твои задачи, то вот статья, которую реально можно повторить руками: «От чат-бота к AI агенту: собираем локальную систему на LibreChat, Langflow и MCP». Это подробнейший мануал с пятью уровнями сложности!

В этой статье покажем, как собрать связку из трёх ключевых компонентов:

  1. LibreChat — UI для работы с LLM

  2. Langflow — low-code платформа и визуальный редактор

  3. MCP — стандарт для подключения инструментов

Структура статьи «по нарастающей»: можно остановиться на любом уровне — от простого локального чата до кастомизируемого агента.

Если вам интересны вызовы защиты ML-систем от современных атак и вы хотите развиваться в MLSecOps, присоединяйтесь к нашей команде, мы в поисках специалиста по защите искусственного интеллекта. Откликайтесь на вакансию по ссылке.

Теги:
+3
Комментарии1

По наводке камрадов узнал, что сервис продажи авиабилетов Купибилет теперь еще и туристический гид. Однако весь соответствующий раздел их сайта целиком и полностью, на 146%, состоит из отборнейшего нейрослопа. Вот просто от первой до последней буковки.

Но самая мякотка это фотографии. Например, я узнал, что парк культуры и отдыха "Гулливер" моего родного города выглядит так

ПКиО Гулливер по мнению нейропомойки
ПКиО Гулливер по мнению нейропомойки

Ненуачо. Гулливер же. Ну типа большой мужик в парке. Как заказывали.

Предлагаю всем желающим узнать занимательные факты и насладиться фотографиями родных мест.

Теги:
+2
Комментарии7

Как развивается и куда движется «русское техно»? Обсудим на ИТ-вечере 26 марта 😎

Поговорим про особенности инженерной культуры в больших ИТ-компаниях, практики внедрения ИИ в разработку, автоматизацию код-ревью и использование LLM без ущерба для безопасности. В программе эксперты из МТС Web Services, СберТех, red_mad_robot и Авито.

Будет интересно бэкенд- и ML-разработчикам, которые строят современные российские ИТ-системы, а также всем, кто интересуется ИИ-практиками в разработке. Участников ждут актуальные кейсы, дискуссии, активности от MWS GPT, нетворкинг и атмосфера техно-вечеринки с ИИ-треками.

📅 Когда: 26 марта (четверг) в 18:00 по мск

📍 Где: офлайн в парке Сокольники в Москве + онлайн 

Успевай записаться — количество участников ограничено.

👉 Зарегистрироваться

Теги:
-1
Комментарии0

Архитектура голосового AI-агента для бизнеса

Голосовой AI-агент для бизнеса — это не просто связка распознавания речи и озвученного ответа. Полноценная система объединяет каналы связи, ядро диалога, интеграции с внутренними сервисами, управление сессией и правила передачи разговора человеку. Именно эта связка определяет, сможет ли агент реально участвовать в бизнес-процессах, а не только отвечать на типовые вопросы.

Общая схема

На верхнем уровне находятся каналы, через которые пользователь взаимодействует с агентом: входящие и исходящие звонки, а также голосовой виджет на сайте. Ниже располагается голосовое ядро, состоящее из трёх компонентов: ASR, LLM и TTS. Ещё ниже — интеграции с CRM, календарями, заказами, базами знаний и другими системами. Отдельным слоем идёт оркестрация сессии: хранение контекста, управление сценарием и эскалация на оператора.

Такая архитектура позволяет использовать одно и то же ядро для разных каналов. Меняется только способ доставки аудио, а логика диалога и доступ к данным остаются общими.

Каналы

Во входящих звонках телефония принимает вызов и передаёт аудио в голосовое ядро. Агент определяет запрос, отвечает сам или передаёт разговор оператору вместе с контекстом.

Во исходящих звонках система сама инициирует вызов: напоминает о встрече, проводит опрос, подтверждает запись, квалифицирует лид. После разговора она может обновить CRM или запустить follow-up процессы.

На сайте пользователь говорит через браузер, а аудио идёт в ту же цепочку ASR → LLM → TTS. Разница здесь только в канале, а не в логике работы.

Голосовое ядро

Ядро voice AI строится вокруг трёх блоков:

  • ASR переводит речь в текст в реальном времени;

  • LLM понимает намерение, держит контекст и решает, что делать дальше;

  • TTS превращает ответ в голос.

Для бизнеса важно, что LLM не просто формирует текст, а может вызывать внешние инструменты. Например, проверить статус заказа, создать лид, записать клиента в календарь или найти ответ в базе знаний. Благодаря этому голосовой агент становится частью операционного контура компании.

Критичны и задержки: если распознавание, генерация ответа или синтез речи работают слишком медленно, диалог становится неестественным.

Интеграции

Без интеграций агент ограничен статичными ответами. С интеграциями он может выполнять полезные действия в реальных системах.

Типичные подключения:

  • CRM — создание и обновление контактов, лидов и сделок;

  • системы заказов — проверка статуса, сроков, доставки;

  • календарь — поиск свободных слотов, запись, перенос;

  • база знаний / RAG — ответы по продукту, тарифам, условиям;

  • автоматизации — запуск писем, тикетов, задач и других сценариев.

Обычно такие действия оформляются как инструменты, которые LLM вызывает по мере разговора. Чем богаче этот слой, тем больше обращений агент способен закрыть без участия оператора.

Сессия и эскалация

Каждый разговор — это отдельная сессия. В ней хранятся история реплик, извлечённые данные и текущее состояние сценария. Контекст нужен, чтобы агент не терял нить разговора и мог ссылаться на уже сказанное.

Не менее важна эскалация. В архитектуре должны быть заранее определены правила: когда разговор нужно передать человеку, как именно передать контекст и в какую очередь маршрутизировать клиента. Передача оператору — не ошибка системы, а нормальный элемент сценария для сложных или нестандартных кейсов.

Что даёт такая архитектура

Такая схема даёт бизнесу несколько преимуществ:

  • единая логика для телефона и сайта;

  • выполнение действий, а не только ответы;

  • сохранение контекста между этапами разговора;

  • предсказуемая передача сложных кейсов операторам;

  • возможность масштабировать сценарии без полной перестройки ядра.

Итог

Архитектура голосового AI-агента состоит из нескольких слоёв: каналы, голосовое ядро, интеграции, управление сессией и эскалация. Чем лучше связаны эти элементы, тем полезнее агент для бизнеса. На практике ценность такого решения определяется не только качеством речи, но и тем, насколько глубоко агент встроен в реальные процессы компании.

Теги:
0
Комментарии0

Представлен открытый проект Awesome OpenClaw — тщательно подобранный список замечательных ресурсов по OpenClaw — не все, но только лучшие.

Ранее был представлен открытый и бесплатный фундаментальный курс по OpenClaw, включая весь материал на русском языке с полным описанием процессов установки, настройки, использования и полноценной кастомизации ИИ‑бота под свои задачи.

Теги:
+2
Комментарии0

Разработчик Роман Гущин (Roman Gushchin) из команды мейнтейнеров ядра Linux в Google объявил о доступности новой ИИ-системы Sashiko для проверки кода с помощью искусственного интеллекта. Внутри Google она уже используется для выявления проблем, и теперь она доступна публично и охватывает все сообщения, отправленные в список рассылки ядра Linux. Гущин пояснил, что Sashiko смогла обнаружить около 53% ошибок на основе неотфильтрованного набора из 1000 недавних проблем ядра Linux с меткой «Исправления:».

Теги:
+3
Комментарии0

Как работают голосовые AI-агенты в 2026 году: замена операторов колл-центра

Голосовые AI-агенты к 2026 году стали не экспериментом, а рабочим инструментом колл-центров, поддержки и продаж. Они уже не ограничиваются простыми IVR-сценариями вроде «нажмите 1», а способны вести естественный диалог, понимать запрос клиента, удерживать контекст и выполнять действия в бизнес-системах.

Что такое голосовой AI-агент

Голосовой AI-агент — это система, которая распознаёт речь клиента, понимает смысл обращения, формирует ответ и озвучивает его. При этом она может не только говорить, но и выполнять полезные действия: проверять статус заказа, записывать клиента, обновлять CRM, создавать задачи или запускать процессы в других сервисах.

От обычного голосового бота такой агент отличается тремя ключевыми возможностями:

  • понимает намерение клиента, даже если он говорит не по шаблону;

  • удерживает контекст разговора и историю обращения;

  • умеет действовать в системах компании, а не только отвечать словами.

Как он работает

Технически голосовой агент состоит из четырёх основных блоков:

  1. STT (Speech-to-Text) — распознаёт речь в реальном времени.

  2. LLM — определяет намерение, строит ответ и решает, нужно ли вызвать внешний инструмент.

  3. TTS (Text-to-Speech) — превращает текст ответа в голос.

  4. Телефония и инфраструктура — обеспечивают маршрутизацию звонков, запись, стабильность и масштабирование.

Вся цепочка должна работать с минимальной задержкой. Если агент отвечает слишком медленно, разговор становится неестественным. На практике качество зависит не только от модели, но и от точности распознавания при шуме, работы телефонии и устойчивости системы при большом числе звонков.

Где AI реально заменяет операторов

Голосовые агенты особенно эффективны в повторяющихся и предсказуемых сценариях:

  • маршрутизация обращений;

  • ответы на простые вопросы о статусе заказа, балансе, расписании;

  • типовые действия: запись, перенос, отмена;

  • первичная квалификация лидов и передача данных в CRM.

В таких задачах они позволяют заметно снизить нагрузку на команду и обрабатывать обращения круглосуточно, без увеличения штата.

Где человек всё ещё нужен

Полностью заменять операторов AI не должен. Лучше всего работает гибридная модель:

  • AI берёт на себя рутину, массовые запросы и стандартные сценарии;

  • человек подключается в сложных, конфликтных, эмоционально чувствительных и нестандартных кейсах.

Поэтому речь идёт не столько о полной замене, сколько о перераспределении работы: AI закрывает поток однотипных обращений, а сотрудники сосредотачиваются на более сложных диалогах.

Что это даёт бизнесу

Внедрение голосовых AI-агентов даёт несколько ключевых преимуществ:

  • масштабирование без пропорционального роста команды;

  • более быстрые ответы и меньше очередей;

  • единый контекст, если агент связан с CRM и другими каналами;

  • аналитика по темам звонков, намерениям клиентов и качеству общения.

Наибольшую ценность агент приносит тогда, когда встроен в бизнес-процессы, а не работает отдельно. В этом случае разговор сразу превращается в действия внутри компании.

На что смотреть при выборе решения

При выборе платформы важно оценивать:

  • качество распознавания речи и синтеза голоса;

  • наличие интеграций с CRM, календарями, заказами и почтой;

  • гибкость настройки сценариев;

  • устойчивость системы при высоких нагрузках.

Итог

В 2026 году голосовые AI-агенты стали полноценным рабочим слоем колл-центров и поддержки. Они хорошо справляются с рутиной, ускоряют обслуживание и снижают нагрузку на операторов. Но максимальный эффект достигается не при полной замене людей, а в гибридной модели, где AI закрывает массовые типовые задачи, а сотрудники работают со сложными случаями.

Теги:
+1
Комментарии0

Юристы, специалисты госорганов и корпоративных служб ежедневно работают с большим массивом нормативно-правовых актов: отслеживают изменения, анализируют требования, готовят ответы и документы. Этот процесс трудозатратен и требует высокой точности.

С НПА сталкиваются не только госорганы, но и:

  • банки и финансы (комплаенс, регуляторка),

  • строительство (СНиП, техрегламенты),

  • промышленность и энергетика,

  • здравоохранение,

  • крупные корпорации —

    везде, где есть нормативная база, есть дорогая ручная работа с правками.

На вебинаре мы покажем, как технологии RPA и AI на платформе ROBIN позволяют создать интеллектуального помощника юриста, который берет на себя до 80% рутинных операций при работе с НПА, оставляя за человеком функцию экспертного контроля. 

Программа вебинара:

  • Покажем, как экосистема ROBIN позволяет выстраивать сквозные процессы автоматизации, объединяя программных роботов, искусственный интеллект и сотрудников.

  • Практический кейс: на примере успешного проекта мы продемонстрируем, как интеллектуальный робот работает с НПА.

  • Технологии под капотом: разберем, как No-Code конструктор позволяет быстро создавать процессы автоматизации, механизм Human-in-the-loop обеспечивает участие специалиста в критических этапах обработки документов, а безопасный Low-Code — гарантирует надежность и управляемость решений, что критически важно для государственных и корпоративных заказчиков.

Для кого вебинар: ИТ- и digital-команды, внедряющие автоматизацию, юристы и специалисты по комплаенсу.

26 марта, 11:00 (Мск), онлайн, бесплатно, требуется регистрация.

Теги:
0
Комментарии0

Писать свои промпты или использовать готовые?

На этапах вывода продукта в релиз (GTM) я, как маркетолог, сталкиваюсь с повторяющимися задачами. Такие задачи можно и нужно автоматизировать с использованием промптов.


Сначала я писал свои несложные промпты, потом пробовал копировать чужие с адаптацией. Углублялся в промпт инженеринг и понял, что умение писать промпты для задач в своей сфере это тоже показатель экспертности. И вот почему:

  • Написание промпта погружает в задачу, начинаешь ее лучше понимать

  • Промпт рождается в определённом, необходимом для меня контексте и работает точнее

  • Я улучшаю промпт итерациями. Это позволяет по штурмовать его, в том числе и разными техниками промптинга

  • Написание промпта улучшает навыки написания ТЗ и постановки задач.

    Это лишь часть плюсов. Из минусов, это конечно затраты времени

Постоянное использование ИИ привело меня к мысли, что навыки коммуникации для написания промптов являются залогом их успеха

Встречал мнение, что использование чужих промтов под свои задачи это показатель дилетанта.
Интересно , что об этом думают в других сферах?

Теги:
+1
Комментарии0

SRE vs ИБ: как не сломать продакшен, пока его защищаешь

Есть две команды, которые искренне хотят одного и того же — чтобы всё работало. Только вот «работало» они понимают немного по-разному. SRE хочет, чтобы сервис не падал. ИБ хочет, чтобы его не взломали. И в точке их встречи рождается… продуктивное напряжение. Об этом и поговорили Михаил Савин, Александр Глухих и Александр Трифанов с гостем подкаста Владимиром Кочетковым — руководителем AppSec Research из Positive Technologies. Получился разговор, в котором никто не делал вид, что всё под контролем.

Что на повестке

Зоны ответственности SRE и ИБ пересекаются там, где цена ошибки выше всего: в продакшене, в инцидентах и в CI/CD. В выпуске обсуждаем, почему автоматические сканеры закрывают не все проблемы, как приоритизировать уязвимости, не останавливая релизы, и кто в итоге отвечает за безопасность системы — особенно в тех самых «ничейных зонах».

Отдельно досталось теме ИИ: почему код, сгенерированный нейросетью, часто приходит с бонусными уязвимостями в комплекте — и что с этим делать.

Если вы когда-нибудь наблюдали конфликт между «нам нужно катить быстрее» и «нам нужно закрыть эту дыру» — этот выпуск про вас.

Слушайте и смотрите на площадках

И подписывайтесь на телеграм-канал Avito SREда

Ещё больше экспертизы собрали для вас на сайте: смотрите наши лонгриды, новости, плейлисты видео. А узнать, как стать частью команды AvitoTech, можно вот здесь.

Теги:
+25
Комментарии0

Самый мощный суперкомпьютер с искусственным интеллектом применят для исследований термоядерного синтеза

Похоже, на наших глазах оформляется следующая техническая революция: скрещивание ИИ, суперкомпьютеров и физического моделирования. Система Sunrise будет использовать методы моделирования на основе ИИ. Министерство энергетической безопасности Великобритании выделило на это $60 млн. Систему установят ​​на территории кампуса Управления по атомной энергии Великобритании. С её помощью учёные смогут лучше понять, что за процессы происходят в термоядерном реакторе. Мощность системы около 1,4 мегаватт. Работать она начнёт в июне.

По словам правительственных чиновников, суперкомпьютер Sunrise обеспечит производительность моделирования в области ИИ до 6,76 эксаФлопс. Это измерение относится к рабочим нагрузкам ИИ, а не к традиционным бенчмаркам суперкомпьютеров, но всё равно представляет значительный рост вычислительных мощностей для программ термоядерного синтеза в стране. Система будет работать на процессорах AMD EPYC и графических ускорителях AMD Instinct, установленных на серверах Dell PowerEdge.  Это уже не классический ИИ, а новый технологический слой, где модель должна не только находить корреляции, но и работать с физикой процесса.

Чуть раньше сообщалось о ещё одном суперкомпьютере Великобритании — Dawn. Его используют не просто для ускорения вычислений, а для задач, где нужно учить модели на стыке данных, симуляций и инженерной реальности. Проект получил поддержку от правительства в $49 млн. Финансирование сделано в рамках британской нацпрограммы AI Research Resource (AIRR), предоставляющей бесплатный доступ к высокопроизводительным вычислениям, обычно доступным только мировым технологическим гигантам. Пользователи AIRR получили доступ к новейшим ускорителям ИИ AMD MI355X.

Dawn, работающий в центре обработки данных в Кембридже, — самый мощный суперкомпьютер для ИИ в Великобритании (пока Sunrise не запустили). В его серверных комплексах работает более тысячи высокопроизводительных графических процессоров Intel (GPU). В настоящее время система Dawn используется учеными в Кембридже и по всей Великобритании в таких областях исследований, как чистая энергия, персонализированная медицина и климат.

За такими кейсами стоит следить. Правительство Великобритании в 2026 году отдельно отмечало применение системы  Dawn для ускорения разработки персонализированных вакцин от рака. А цифровой двойник термоядерного реактора — звучит ещё более фантастически. В таких задачах ИИ работает с научными данными, сложными симуляциями, инженерными ограничениями и цифровыми двойниками. Это революция инструментов, из которых потом и вырастают новые большие технологические платформы, которые и создают технологические революции.

Теги:
+3
Комментарии0

Представлен открытый проект AutoResearchClaw. Это доработанная под исследования версия агента OpenClaw, которая:

  • детально анализирует идею пользователя и выдаёт готовый PDF‑документ с исследованием гипотезы;

  • агент сам пишет код и все формулы, а также запускает тесты, исправляет ошибки;

  • почти не имеет галлюцинаций;

  • вся работа бота проходит 4-этапный процесс верификации по научным базам;

  • умеет работать с LaTeX, чтобы создавать понятные и эффективные графики;

  • сам агент бесплатный — нужен только API.

Теги:
+3
Комментарии0

Для Claude представлен модуль антиплагиата Stop Slop, который убирает из текста все маркеры ИИ. Проект вырезает шаблонные фразы, лишний пафос и делает текст более живым. Можно использовать как в Claude Code, так и в веб‑версии, просто добавив SKILL.md в проект.

Теги:
0
Комментарии1

ИИ-помощник для анализа требований

В работе техпресейла значительная часть времени уходит на анализ требований клиентов — они часто приходят в виде больших опросников, которые нужно внимательно разобрать и прокомментировать.

Когда таких документов много и нужна оперативность, ручная обработка начинает замедлять работу команды. С этим регулярно сталкивалась команда техпресейла Naumen. Поэтому Настя и Даша, системные аналитики команды, решили попробовать автоматизировать часть процесса и внедрили ИИ-помощника для анализа требований.

Рассказываем, как они собирали данные, какие подходы пробовали и как в итоге пришли к решению на базе RAG.

1️⃣ Чем занимается техпресейл

Техпресейл — это мост между продуктом и продажей. Мы проводим технические демонстрации, обсуждаем требования клиента и помогаем понять, подходит ли продукт под его задачи.

Чаще всего работа техпресейла с клиентом начинается с опросника — Excel-документа с требованиями.

2️⃣ Почему Excel-файл оказался неудобным для анализа требований

Типичный опросник — это таблица с тремя колонками:

  • требование клиента

  • какой продукт соответствует

  • комментарии

Иногда требований десятки или сотни — нужно внимательно прочитать, найти контекст в прошлых кейсах, вручную проверить формулировки и ссылки на источники. Даже опытный специалист тратит на такой документ около часа.

Когда таких задач много и у них срочные дедлайны, возрастает нагрузка на команду и появляются риски задержек. Поэтому мы решили автоматизировать процесс.

3️⃣ С чего мы начали автоматизацию

Сначала нужно было собрать данные. Поэтому первым шагом мы:

  1. Собрали все опросники за год в единый массив.

  2. Привели их к единому формату.

  3. Классифицировали требования.

  4. Проверили и почистили данные от дублей и неточностей.

В итоге получился датасет примерно из 2 000 требований, который стал основой нашей базы для тестирования ИИ-помощника.

4️⃣ Почему классические модели не сработали

Первой идеей было использовать классические методы анализа текста. Мы пробовали TF-IDF, Bag-of-Words и стандартные модели классификации.

Но столкнулись с двумя проблемами:

  • низкое качество классификации

  • дисбаланс данных

Большинство требований продукт действительно покрывал, поэтому модель быстро «научилась» отвечать одинаково. Стало понятно, что нужен другой подход.

5️⃣ Как мы пришли к RAG-подходу

Мы перешли к векторному поиску и трансформерам. Идея была в том, чтобы по новому требованию находить в базе знаний похожие требования и использовать их как контекст.

Получился умный поиск по нашим прошлым ответам. Но этого все равно было недостаточно: нужно было не только находить похожие требования, но и генерировать комментарий.

Так мы пришли к подходу RAG (Retrieval-Augmented Generation) — LLM сначала находит факты в базе знаний, а уже потом формирует ответ.

6️⃣ Как работает наш ассистент

Сервис работает в Telegram-боте и поддерживает два сценария.

Вопрос в чате — пользователь задает вопрос, бот ищет информацию в базе знаний и формирует ответ.

Загрузка Excel-файла — пользователь загружает файл с требованиями, после чего сервис проходит по каждой строке и автоматически заполняет:

  • соответствие (да / нет / не знаю)

  • комментарий с объяснением соответствия

7️⃣ Из чего состоит база знаний

Мы используем два источника:

  • документацию по продуктам Naumen

  • структурированные опросники из прошлых проектов

Документы разбиваются на небольшие смысловые фрагменты, для каждого фрагмента вычисляются эмбеддинги, после чего они сохраняются в векторной базе. Когда приходит новый запрос, система находит самые релевантные фрагменты и использует их как контекст для ответа.

8️⃣ Какие есть ограничения у ассистента

ИИ-ассистент помогает быстрее разбирать требования, но полностью заменить аналитика он пока не может.

Например, иногда клиенты присылают требования, которых еще нет в базе знаний. В таких случаях бот отвечает «не знаю», и требование разбирает специалист.

Также иногда встречается типичная проблема LLM — галлюцинации. Поэтому финальную проверку ответа все равно делает системный аналитик.

Теги:
0
Комментарии0

Nvidia показала DLSS 5 – AI для улучшения картинки в играх

NVIDIA анонсировала DLSS 5: нейросеть теперь не масштабирует картинку, а перерисовывает освещение и материалы в реальном времени

Вчера на GTC 2026 NVIDIA показала DLSS 5. Если коротко: это уже не апскейлер и не генератор кадров. Это real-time neural rendering — модель, которая берёт кадр из игры и перерисовывает освещение и материалы до фотореалистичного уровня. Разбираю, что известно из пресс-релиза и почему это принципиально отличается от DLSS 4.

Что изменилось по сравнению с DLSS 4

DLSS был запущен в 2018 году как AI-технология для повышения производительности — сначала через апскейл разрешения, потом через генерацию целых кадров. Технология интегрирована в более чем 750 игр.

DLSS 4.5, представленный на CES в начале этого года, рисует с помощью ИИ 23 из каждых 24 пикселей на экране.

DLSS 5 — качественно другой подход. Вместо апскейла и генерации кадров, DLSS 5 вводит модель нейросетевого рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.

Дженсен Хуанг назвал это «GPT-моментом для графики» — объединением ручного рендеринга с генеративным AI.

Как это работает технически

DLSS 5 берёт на вход цветовые данные и векторы движения каждого кадра, а затем с помощью AI-модели насыщает сцену фотореалистичным освещением и материалами, привязанными к исходному 3D-контенту и консистентными между кадрами. Работает в реальном времени при разрешении до 4K.

Ключевое отличие от видео-моделей типа Sora или Veo: видео AI-модели генерируют фотореалистичные пиксели, но работают офлайн, их сложно точно контролировать, и им не хватает предсказуемости. Для игр пиксели должны быть детерминированными, работать в реальном времени и строго привязанными к 3D-миру разработчика.

AI-модель обучена end-to-end понимать сложную семантику сцены: персонажи, волосы, ткани, полупрозрачная кожа, а также условия освещения (фронтальное, контровое, пасмурное) — и всё это анализируя единственный кадр. То есть модель не просто «улучшает картинку» — она понимает, что в кадре кожа, что ткань, что волосы, и обрабатывает каждый материал по-своему.

Контроль для разработчиков

DLSS 5 даёт разработчикам детальные настройки интенсивности, цветокоррекции и маскирования, чтобы художники могли определять, где и как применяются улучшения, сохраняя уникальную эстетику каждой игры. Интеграция использует тот же фреймворк NVIDIA Streamline, что и существующие DLSS и Reflex.

Это важный момент: модель не навязывает свой «стиль». Разработчик может выкрутить эффект на максимум в одной сцене и полностью отключить в другой.

Какие игры поддержат

Среди подтверждённых: Assassin's Creed Shadows, Starfield, Resident Evil Requiem, Hogwarts Legacy, The Elder Scrolls IV: Oblivion Remastered, Delta Force, Phantom Blade Zero и ещё около десятка тайтлов. Публишеры: Bethesda, CAPCOM, Ubisoft, Tencent, Warner Bros. Games.

Выход — осень 2026. nvidia

Что это значит для индустрии

Разрыв между реалтайм-графикой в играх и офлайн-рендерингом в кино был всегда. Один кадр в фотореалистичном голливудском VFX может рендериться минутами или часами, а игровой кадр должен уложиться в 16 миллисекунд. Преодолеть этот разрыв только вычислительной мощностью невозможно.

NVIDIA предлагает обходной путь: не рендерить «честно» каждый луч света, а обучить нейросеть понимать, как свет взаимодействует с материалами, и достраивать результат в реальном времени.

Если технология сработает так, как описано — это меняет экономику игрового рендеринга. Вместо того чтобы тратить ресурсы GPU на точный расчёт каждого отражения, разработчик отдаёт «черновой» кадр нейросети, которая доводит его до фотореалистичного уровня.

Но пока это анонс на GTC без публичных бенчмарков. Реальное качество покажут осенние релизы.

Кто следит за развитием нейросетевого рендеринга — как оцениваете подход NVIDIA? Насколько реалистичны заявления про real-time neural rendering при 4K, если текущие видеомодели даже офлайн требуют серьёзных вычислений?

Теги:
+4
Комментарии1

Кейс из личной практики: Claude Code + Chrome = 🚀

Продолжаю удивляться тому, на что способен Claude Code. Уже никого не удивишь тем, что он может накодить приложение или сайт с нуля. Но как насчет «реверс‑инжиниринга» через Chrome?

Кейс

Есть корпоративная CRM система. В ней куча данных, которые показываются в преднастроенных отчетах. Очень монструозная и негибкая штука. 

Заказчик резко начинает хотеть с ней «говорить» на естественном языке, да ещё и смешивать данные из разных отчетов. Система кастомная и совершенно под это не заточена. А за счет своего размера — адаптировать ее заняло бы месяцы. Что делать? 

Правильный путь — спроектировать консистентные датамарты, сделать семантический слой с описанием всех данных, написать MCP сервер поверх этой системы на основе ее API.

Реальность — времени на это нет. Нужно навайбкодить proof of concept!

Ok, это заняло 3 часа 😎

  1. Устанавливаем Claude расширение в браузер Chrome и настраиваем коннектор с Chrome в Claude Code. 

  2. Даем ссылку на UI нашей CRMки клоду и просим его внимательно изучить архитектуру, API запросы под капотом и на основе этого спроектировать MCP сервер. Причем никаких пояснений к системе не требуется, даже на swagger ссылка не нужна. 

  3. 20 минут Opus тыкает интерфейс, читает запросы и внимательно изучает метрики, настройки, фильтры и группировки и тд. Результат записывает в MD файл. Туда же он пишет предлагаемую архитектуру MCP.

  4. Далее просим Claude написать MCP сервер по полученному файлу и локально его задеплоить.

  5. Профит! Спустя пару часов получаем рабочий MCP сервер поверх системы, которая для этого никогда не строилась. 

  6. Дальше Claude прописывает себе этот MCP как тул. И вот уже из дефолтного приложения Claude мы можем естественным языком задавать вопросы к данным в CRMке. А тк это делает клод — то поверх этих данных есть возможность строить графики, интерактивные визуализации, дашборды и отчеты. Бесконечная гибкость.

Все это без привлечения разработчиков и написания единой строчки кода руками. 

В общем, с расширением в Chrome, Claude — просто машина 💪

Больше интересного про AI агентов и технологии в моем канале Заместители.

Теги:
0
Комментарии8

Anthropic представила исследование, которое показывает, что влияние ИИ на рынок труда пока значительно ниже его теоретического потенциала. В статье представлена новая метрика под названием observed exposure («наблюдаемое воздействие»). Она сравнивает теоретические возможности языковых моделей с реальными данными их использования, в данном случае на основе разговоров пользователей с чат-ботом Claude. Для анализа были объединены данные базы профессий O*NET, оценки того, какие задачи теоретически могут ускоряться с помощью ИИ, а также статистика фактического использования Claude в рабочих сценариях.

Результаты показали значительный разрыв между потенциалом и практикой. По оценкам исследователей, языковые модели теоретически способны ускорить выполнение 94% задач в компьютерных и математических профессиях. Однако на практике ИИ применяется лишь примерно в 33% таких задач. Большинство возможностей технологий остаётся нереализованным из-за ограничений самих моделей, юридических требований, необходимости человеческого контроля или сложной интеграции с профессиональными системами.

Сравнение теоретической способности языковых моделей автоматизировать задачи в различных профессиональных категориях (синий) и фактического уровня их использования на практике по данным взаимодействий с моделью Claude (красный). Источник: Anthropic.
Сравнение теоретической способности языковых моделей автоматизировать задачи в различных профессиональных категориях (синий) и фактического уровня их использования на практике по данным взаимодействий с моделью Claude (красный). Источник: Anthropic.

Исследование также выявило, какие профессии сейчас наиболее подвержены влиянию ИИ. На первом месте оказались программисты — около 75% их задач могут выполняться или ускоряться с помощью моделей. Далее следуют специалисты службы поддержки, операторы ввода данных и аналитики. В то же время примерно 30% работников практически не затронуты использованием ИИ: среди них повара, бармены, спасатели, механики и другие профессии, связанные с физическим трудом.

Теги:
+4
Комментарии1

Компания Mistral AI представила большую языковую модель Leanstral. Это проект для разработки приложений с помощью вайб‑кодинга и оптимизированный для формальной верификации кода. Предполагается, что Leanstral может применяться для создания ИИ‑ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок.

Leanstral стала первой открытой моделью, поддерживающей язык программирования Lean 4 и связанный с ним инструментарий для проверки математических доказательств. Lean 4 предоставляет возможности для математического доказательства корректности кода и его соответствия спецификации, что в контексте вайб‑кодинга позволяет подтвердить, что сгенерированный ИИ‑моделью код делает именно то, что задумано.

Модель Leanstral охватывает 119 миллиардов параметров (6.5 млрд активируемых параметров на токен), учитывает контекст в 256 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Leanstral занимает 121 ГБ и пригоден для использования на локальных системах. Для локального запуска могут применяться библиотеки vllm, transformers и SGLang.

Для оценки возможностей ИИ-моделей с учётом качества проведения формальной верификации кода и написания математических доказательств разработан новый набор тестов FLTEval. В проведённых тестах модель Leanstral обогнала существующие открытые модели Qwen3.5 397B‑A17B, Kimi‑K2.5 1T‑A32B и GLM5 744B‑A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6. В частности, модель Opus набрала 39.6 баллов, а Leanstral — 21.9 при одном проходе и 31.9 при 16 проходах. При этом затраты при использовании Opus составили $1650, а Leanstral — $18 при одном проходе и $290 при 16 проходах. Модель Haiku набрала 23 балла при затратах $184, а модель Sonnet — 23.7 при затратах $549.

Теги:
0
Комментарии1

Продолжаю публиковать объемные ответы как посты...

Верховный суд США отказался рассматривать апелляцию Стивена Талера, который пытался оспорить решения нижестоящих инстанций и Бюро по авторским правам. Коллегия судей оставила в силе фундаментальный принцип: правовая защита интеллектуальной собственности закреплена исключительно за человеком.

Сейчас на рассмотрении находится параллельное дело Allen v. Perlmutter, где художник использовал 624 промпта для создания изображения. Бюро по авторским правам отказало ему, заявив, что даже 624 промпта — это недостаточный контроль, так как ИИ «сам определяет структуру и тон» финального изображения...

Казалось бы аллилуйя! Нейрослоп — общественное достояние и не принадлежит ни автору программы, ни авторам промптов:

знания, которые раньше были распределены по тысячам проектов, постепенно превращаются в общий справочник.

НО... реально суд просто отложил решение. Почему? Чтобы доказать, что «автор» — это человек, суд перечислил множество пунктов, которые «не работают» с машиной: наличие вдовы и детей для наследования, необходимость подписи, наличие срока жизни и так далее

Есть еще одна юридическая карта, которая не играла. Корпоративное владение. У корпорации нет вдовы и детей, но доктрина «work made for hire» (работа, выполненная по найму) позволяет считать корпорацию автором. На AI слоп может быть установлено корпоративное владение. И тогда «общий справочник» быстро станет закрытым.

Вспомните дела Аарона Шварца или решения против создателей Sci‑Hub Александры Эльбакян. Как раз из разряда

В математике никто не владеет теоремой Пифагора. Её доказали, опубликовали, и она стала частью общего инструментария. То же самое произошло с рядами Фурье, с уравнениями Максвелла, с преобразованием Лапласа. Они вошли в учебники и перестали быть чьей‑то собственностью.

и это именно корпоративное владение.

В деле хакеров суд защищает права не‑человека (корпорации Elsevier или JSTOR) на тексты, написанные людьми (учеными).

Ученые пишут оплачивая публикацию или работая на грантах не получая авторских прав, передают права издательству, а затем университеты (те же самые ученые через библиотеки) покупают эти статьи обратно за миллионы долларов. НО прецедент говорит: «Закон на стороне того, кто купил права, а не того, кто создал знание».

Поэтому важно в разговоре об «эксплуатации Open Source» не забывать «про вирусное наследование» на производные произведения и прочие сформированные механизмы защиты открытого кода.

Теги:
+2
Комментарии0

Речевая аналитика на базе ML и LLM помогает лучше понять клиентов

Начальник центра обучения и контроля качества контакт-центра ОТП Банка Ольга Сухарева и начальник отдела развития голосовых роботов и речевой аналитики в Collection Светлана Рабехова представили результаты внедрения AI-инструментов речевой аналитики Naumen в коммуникации с клиентами. Выступление спикеров состоялось в рамках отраслевой конференции Naumen, посвященной цифровой трансформации финансового сектора.

Эксперты рассказали, что в ОТП Банке на платформе речевой аналитики выстроена двухуровневая система анализа диалогов: на базе классических ML-моделей и больших языковых моделей — LLM. ML отвечает за массовые задачи: классификацию тематик, базовый контроль алгоритмов, автоматическую оценку всех звонков и чатов. LLM модель подключается там, где требуется глубокое понимание контекста, эмоций клиента и нюансов переговоров. Такой гибридный подход позволяет банку не только повысить качество сервиса и лучше понимать клиентов, но и получить измеримый экономический эффект.

Как отметила Светлана Рабехова, речевая аналитика давно перестала быть просто инструментом контроля и сегодня выступает драйвером бизнес-показателей. Автоматическая оценка позволила анализировать 100% диалогов с клиентами, что привело к росту выполненных обещаний по оплате задолженности на 5,5%.

Важно также отметить, что среднее время анализа одного диалога экспертом уменьшилось в 20 раз — с 7 минут до 20 секунд: можно быстро ознакомиться с сутью разговора без необходимости прослушивать полный диалог.

Ольга Сухарева рассказала о реальных примерах внедрения инструмента в Контакт-центре и поделилась результатами. Автоматическая оценка помогла на 1,7% чаще решать вопросы клиентов с первого обращения. Среднее время обработки звонков сократилось на 5 секунд, а конверсия в продажи выросла на 3,3%.

Благодаря точному аудиту жалоб доля обращений в ЦБ РФ снизилась на четверть. Также выросла точность начисления сорри-бонусов с 85% до 97%.

Теги:
0
Комментарии0

Как оставаться востребованным в турбулентное время: 10 бесплатных демо-уроков

Привет, Хабр. Делимся подборкой бесплатных уроков, которые пройдут в Отус в рамках набора на курсы. Опытные практики проведут занятия онлайн — на них вы сможете узнать больше о формате обучения и задать вопросы. Выбирайте тему и присоединяйтесь, чтобы не отставать от трендов.

Теги:
+2
Комментарии0
1
23 ...