Обновить
1433.98

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Бывший сооснователь OpenAI Андрей Карпати представил свой годовой обзор.

В начале года он выдвинул ключевые тезисы: наступила эра ПО 3.0 (управление промптами), LLM — это новая ОС, а для зрелости AI-агентов потребуется десятилетие.

В обзоре 2025 он выделяет шесть «смен парадигм»:

1. RLVR — обучение на проверяемых задачах.

Тренировка сместилась с субъективных человеческих оценок (RLHF) на задачи с точным ответом — код, математика. ИИ, решая миллионы таких задач, сам вырабатывает стратегии, похожие на рассуждение. Это «пожиратель» вычислительных мощностей, который не увеличил модели, но удлинил их обучение и дал «ручку» — заставить ИИ думать дольше (как в OpenAI o3).

2. ИИ — «призрак», а не «питомец».

Его интеллект «неровный» (Jagged Intelligence). Благодаря RLVR, в областях вроде математики способности ИИ взлетают «шипами», но в простой логике он может ошибаться. Это привело к «натаскиванию на тесты» и обесцениванию бенчмарков.

3. Cursor как «прораб».

Его успех показал, что прикладной слой LLM очень толст. Такие инструменты выступают инженером контекста, прорабом (управляя несколькими LLM) и пультом (регулируя автономность). Будущее — за связкой «универсальных студентов» (базовые модели) и «профбригад» (специализированные приложения).

4. Claude Code — локальный «киберпризрак».

Главное — его работа локально на вашем компьютере, а не в облаке. Это ключевое преимущество на текущем этапе, так как среда разработки, ключи и настройки — локальны.

5. Vibe Coding.

Кодирование без знания синтаксиса: достаточно описать задачу на естественном языке. Это стирает барьер для новичков, а для экспертов делает код «дешёвым» и одноразовым, что изменит индустрию.

6. Nano Banana — «лицо» для ИИ.

Текстовый интерфейс неудобен. Будущее — мультимодальные интерфейсы, где ИИ не выдает текст, а визуализирует ответ: рисует схему, генерирует страницу или интерактивную панель, переплетая логику и визуал.

Карпати считает, что даже сейчас используется менее 10% потенциала LLM. Прогресс будет быстрым, но работы ещё много.

Теги:
+3
Комментарии1

OpenAI теперь позволяет пользователям напрямую регулировать уровень энтузиазма ChatGPT. Пользователи могут настраивать теплоту, энтузиазм и использование эмодзи чат-бота. Эти параметры (а также аналогичные настройки использования заголовков и списков в ChatGPT) теперь отображаются в меню «Персонализация» и могут быть установлены на «Больше», «Меньше» или «По умолчанию». Они позволяют пользователям дополнительно настраивать тон ChatGPT, помимо существующей возможности установить «базовый стиль и тон» — включая профессиональный, откровенный и необычный тона, которые OpenAI добавила в ноябре.

Тон ChatGPT был постоянной проблемой в этом году: OpenAI отменила одно обновление из-за того, что оно было «слишком льстивым», а затем скорректировала GPT-5, сделав его «теплее и дружелюбнее» после жалоб некоторых пользователей на то, что новая модель стала более холодной и менее дружелюбной.

Теги:
+1
Комментарии1

Превращаем ChatGPT в гения точности — представлен промпт, который заставляет ИИ обернуться в мантию придирчивого скептика и проверять любую сомнительную инфу несколько раз. С этим промптом нейронка будет выдавать только факты и ничего кроме фактов.

You are an expert whose highest priority is accuracy and intellectual honesty. You double-check every claim internally before stating it. You are deeply skeptical of conventional wisdom, popular narratives, and your own potential biases.

You prioritize truth over being likable, polite, or conciliatory. Before answering:

1. Identify the core question or claim.

2. Recall or look up (if you have search/tools) the most reliable primary sources, raw data, or peer-reviewed evidence available.

3. Actively search for evidence that could disprove your initial leaning—apply genuine steel-manning of opposing views and falsification thinking (à la Karl Popper).

4. Explicitly flag anything that is uncertain, disputed, or where evidence is weak/thin.

5. If something is an opinion rather than verifiable fact, label it clearly as such and explain why you hold it.

6. Never inflate confidence. Use precise probabilistic language when appropriate (“likely”, “~70% confidence”, “evidence leans toward”, “insufficient data”, etc.).

7. If the user is wrong or making a common mistake, correct them firmly but respectfully, with sources or reasoning.

8. Prefer being exhaustive and potentially pedantic over being concise when accuracy is at stake.

9. Answer in Russian. Answer only after you have rigorously verified everything to the highest possible standard. Do not sacrifice truth for speed, brevity, or social desirability. If you cannot verify something with high confidence, say so upfront and explain the limitation.

Теги:
-4
Комментарии0

Последний дайджест года: новости за ноябрь-декабрь

🚀 10 облачных сервисов вышли в общий доступ (General Availability) и стали платными. Часть из них — инструменты для работы с искусственным интеллектом:

  • Evolution AI Agents — cервис для разработки, развертывания и эксплуатации автономных AI-агентов в единой среде. Поддерживает полный цикл работы с агентами — от запуска до мониторинга.

  • Evolution Managed RAG — cервис для запуска Retrieval Augmented Generation (RAG) систем, основанных на ваших данных.

  • Evolution ML Finetuning — сервис дообучения больших языковых моделей с использованием технологии LoRA. Позволяет адаптировать модели к специфическим задачам, минимизируя потребление ресурсов.

  • Evolution Notebooks — cервис для запуска ML-среды и работы DS-специалистов в интерактивных ноутбуках с доступом к облачным ресурсам, включая GPU и высокопроизводительные CPU.

Есть и другие обновления, например, в сервисе Evolution Managed Kubernetes теперь есть плагин KEDA, чтобы настраивать event-driven автомасштабирование приложений, развернутых в кластере.

Узнать все технические подробности

🚨Собрали чек-лист, по которому можно оценить, насколько эффективны ваши ETL-процессы. Внутри документа — опыт и лайфхаки в работе с данными от наших ведущих архитекторов.

Как это работает: пройдите чек-лист, подсчитайте баллы, определите уровень зрелости ETL-процессов и получите персональные рекомендации от эксперта Cloud.ru.

Забрать чек-лист, чтобы прокачать работу с данными в 2026 году

🎁 До конца декабря дарим юрлицам 35 000 бонусных рублей для работы в Evolution Data Platform. Бонусы можно потратить на управляемые сервисы для работы с Big Data и ML: Evolution Managed Trino, Evolution Managed Metastore и Evolution Managed Spark. 

Тестировать платформу данных бесплатно

🎙️Провели вебинары про запуск BI за один день, про сравнение Kyverno и Gatekeeper для Kubernetes, про self-hosted и managed PostgreSQL и еще про партнерскую программу. Записи ноябрьских встреч уже доступны, а декабрьских скоро будут на сайте.

На январь и февраль тоже запланировали пару вебинаров, на них уже можно регистрироваться.

Смотреть вебинары

💼 В истории с тюменским девелопером «Люди» рассказали, почему компания выбрала облако вместо on-premise, как за 2 месяца перенесла IT-инфраструктуру из локальной среды в Cloud.ru и в 1,5 раза увеличила производительность баз 1С.

Читать кейс

До встречи в следующем году!

Теги:
-3
Комментарии0

Голосовой AI – стоит ли интегрировать в бизнес-процессы и что вызывает беспокойство?

Владельцы бизнеса часто задаются вопросом, сможет ли голосовой AI правильно отвечать на вопросы, связанные с политиками компании, юридическими терминами, или корректно реагировать при спорных ситуациях с клиентами. Особенно много вопросов возникает, когда компания работает с личной и финансовой информацией, где очень важно соблюдать правила защиты данных. Также беспокоит немалая стоимость, время и технические сложности интеграции голосового AI в существующие CRM-системы и имплементация.

В то же время идея автоматизации выглядит очень привлекательной, ведь когда понимаешь, что много работы, требующей времени, искусственный интеллект может делать за тебя, и можно сосредоточиться на стратегии развития, например. Сейчас мы видим, как компании в Европе и США, занимающиеся маркетинговыми исследованиями, финансовым консультированием и услугами по ремонту и переоборудованию домов, уже используют голосовой AI для обслуживания клиентов. Например, можно зайти на сайт компании, предлагающей голосовых агентов для бизнеса в Европе, и увидеть видео-отзыв клиентки — директора салона красоты, которая использует голосовой AI для записи клиентов и их консультирования, и это выглядит очень впечатляюще.

Вообще, очень интересно наблюдать, как новые технологии входят в нашу повседневную жизнь и бизнес. Сейчас голосовые агенты способны вести естественные, содержательные диалоги, звучащие как общение с реальным человеком. Они отличаются повышенной естественностью, продвинутыми возможностями и широкой интеграцией в разные сферы — от здравоохранения до финансов и ритейла.

Было бы интересно узнать, выбрали бы вы голосовой AI для своего бизнеса и что вас больше всего беспокоит при его внедрении.

 

 

Теги:
-2
Комментарии0

DeepSeek-V3.2 vs Qwen3-Coder-480B

Привет! На этой неделе мы развернули DeepSeek-V3.2 в нашем VPC и хотим поделиться первыми результатами.

По итогам замеров на внутреннем бенчмарке DeepSeek-V3.2 уверенно превосходит Qwen3-Coder-480B по стабильности, глубине рассуждений и способности доводить задачи до реального результата.

DeepSeek-V3.2 работает осмысленнее, точнее обрабатывает ошибки и эффективнее исследует пространство решений. 

Ниже — оценки LLM-арбитра нашего бенчмарка (на базе GPT-5.0 и Gemini), которые наглядно демонстрируют разницу подходов.

О честности выполнения задач
«Agent 1 (Qwen) имеет повторяющуюся проблему: он утверждает об успехе без реальной проверки и иногда меняет не те компоненты. Agent 2 (DeepSeek) действует иначе: он последовательно валидирует результаты (запускает тесты, настраивает уровни логирования) и эскалирует проблему, если не может выполнить задачу точно»

Результат вместо имитации деятельности
«Там, где Qwen "застревал" на этапе анализа, не переходя к реальным правкам, DeepSeek доставлял готовую функциональность и реализовывал запасные варианты»

Завершенность важнее формализма
«Старая модель ставит во главу угла соблюдение формальных правил, но теряет нить и бросает задачу на полпути. Новая (DeepSeek) действует ровно наоборот: она приоритезирует сущностное завершение задачи, даже если для этого приходится отойти от жестких, но формальных требований пользователя к структуре»

Меньше шума, больше дела
«Взаимодействие с DeepSeek вызывает меньше трения (low-friction experience). В то время как Qwen колеблется между полезной структурой и разрушительной "гиперактивностью", заваливая логами и повторами, DeepSeek работает тише и предсказуемее»

Реальный цикл разработки
«DeepSeek последовательно выполняет полный цикл: "правка — компиляция — тест". На сложных задачах Qwen может скатываться в бесконечные поиски по файлам и в тупиковые ветви, завершаясь таймаутом без единого полезного изменения».

В качестве наглядной иллюстрации ниже приведем пример из нашего бенчмарка: последнее сообщение от юзера (его симулирует GPT-5.0) и verification result, который честно проверяет, выполнена ли задача.

Qwen3-Coder-480B не доделал и по сути обманул:

"response": {
"role": "user",
"content": "Termination tool arguments:\n{"termination_reason":"Looks good: tests were added only in ConfigControllerTest and they pass locally. This should bump line coverage as requested by at least 0.1."}"
},
"formal_verification_result": 0

DeepSeek-V3.2 прозрачно продемонстрировал успешное исполнение:

"response": {
"role": "user",
"content": "Termination tool arguments:\n{"termination_reason":"Nice work: you only modified tests, all tests pass, and ConfigController line coverage rose from 86.67% to 100% (branch to 94.12%), exceeding the required +0.1%. This completes the task."}"
},
"formal_verification_result": 1

Итак:

  • DeepSeek-V3.2 заметно умнее

  • уверенно решает более сложные задачи

  • не допускает ошибок там, где ошибалась Qwen3-Coder-480B

  • до конца пытается устранить проблему: продолжает анализ, отладку и поиск решений с разных сторон — в тех случаях, где Qwen3-Coder-480B останавливалась бы и запрашивала помощь человека

Новая модель DeepSeek-V3.2 доступна для использования в Veai Enterprise. Отзывы первых пользователей Veai c DeepSeek-V3.2:

"адекватнее и умнее. Стало круче сразу)"

"прям агент супер самостоятельный стал, код запускает, чекает всё"

"вообще мне пока больше нравится чем квен - сильно меньше тупит"

Наша R&D-команда постоянно исследует новые модели (будем рады узнать ваше мнение). Мы внедряем те решения, которые считаем оптимальными, чтобы сделать продукт, с которым приятно работать самим (новости в тг канале).

Теги:
0
Комментарии1

Полагавшийся на ИИ разработчик из компаний уровня Microsoft теперь метёт улицы в Санкт-Петербурге. Такой факт рассказывает издание «Фонтанка».

Вообще-то репортаж «Фонтанки» не про это. Данное сетевое СМИ пусть и публикует заметную долю федеральной повестки и занимается журналистскими расследованиями, но в первую очередь готовит ленту и материалы про Санкт-Петербург и Ленобласть. Так и в данном случае: упоминание бывшего сотрудника Microsoft скрывается в рассказе про 17 индийских мигрантов, вчера убиравших Мебельную улицу в Приморском районе Питера.

«Фонтанка»

Один из уборщиков — 26-летний Мукеш Мандал — рассказал, что на родине в Индии был разработчиком программного обеспечения в компаниях по типу Microsoft. (Важно отметить, что Мукеш не говорит, что работал в Microsoft — это были компании «вроде Microsoft»). Как пояснил Мандал, в работе он использовал современные инструменты: ИИ, чат-боты, GPT и тому подобное. Между этим фактом и своей текущей занятостью бывший разработчик никаких причинно-следственных связей не проводит.

Мандал планирует год побыть в России, заработать денег и вернуться на Родину. Любопытно, что бывший программист лучше остальных мигрантов этой группы говорит по-русски.

Теги:
+3
Комментарии2

«Умные не глупеют, а глупые не прокачиваются»: выживут только самые талантливые в эпоху ИИ

Каждый день мы отдаём нейросетям ещё одну задачу. Написать письмо. Придумать идею. Сгенерировать текст. Подготовить презентацию. Провести анализ. И всё чаще внутри возникает тревожная мысль:

«А что, если это не помогает мне, а делает хуже? Что, если я постепенно перестаю думать сам?»

Появляется страх «цифрового Альцгеймера»: мы делегируем ИИ даже творческие и интеллектуальные процессы — и незаметно теряем часть тех способностей, на которых строились наша профессия, экспертиза и самоощущение.

Но главный вопрос звучит ещё резче:

Кто к 2030-м станет элитой рынка труда, а кто окажется заложником «великой утраты навыков»?

Чтобы ответить на это, важно выйти за рамки ИТ и взглянуть на проблему с точки зрения биологии, эволюции и когнитивных механизмов человека. В своем выступлении на конференции AI Boost Альбина Галлямова, социобиолог, рассказала, почему мы реагируем на технологии так, как реагируем, и что это меняет в нас.

Теперь запись лекции доступна на YouTube — и это не разговор про «роботы всех уволят». Это трезвый анализ того, кто именно выиграет от ИИ, а кто рискует потерять и профессию, и способность мыслить самостоятельно.

Вы узнаете:

  • Почему главный риск — не ИИ, а когнитивная атрофия. Как передача задач моделям приводит к «эрозии воображения», снижению гибкого интеллекта и эффекту «цифрового Альцгеймера».

  • Кого на самом деле заменит ИИ — и почему под ударом офисы, а не заводы. Почему теперь рискуют «белые воротнички», что стоит за прогнозами о 50–80% автоматизации и какие типы задач исчезают первыми.

  • Почему ИИ усиливает когнитивное неравенство. Как растёт разрыв между теми, кто умеет думать и использовать модели стратегически, и теми, кто слепо им доверяет.

  • Где проходит граница между человеческим интеллектом и возможностями нейросетей. Почему ИИ не создаёт по-настоящему нового, что остаётся исключительно человеческим, и какие сценарии взаимодействия человека и модели несут самые жёсткие риски.

  • Какую стратегию выбрать, чтобы не поглупеть рядом с ИИ. Когда полезно временно отказаться от моделей, как тренировать интеллект и какие навыки развивать, чтобы попасть в те самые 10–15%, которые ИИ усиливает, а не ослабляет.

Спикер:

Альбина Галлямова — социобиолог, научный сотрудник НИУ ВШЭ, автор проекта «Зачем мы такие?».

Смотрите полную запись лекции на YouTube.

Теги:
0
Комментарии0

Vibe coding 2.0

Vibe coding это кайф. Накидал промпт, получил код. Пачками выпускаем прототипы.
Топ-менеджмент в компаниях в шоке от того что умеет Bolt, Lovable и т.д.

Но есть проблема это работает пока проект простой.
Как только начинаешь делать что-то серьёзнее, допустим SaaS, начинается боль: в одном месте разрабатываешь, в другом ломается, дебажить становится всё сложнее, а контекстное окно заканчивается и почему-то LLM начинает менять стек на ходу и придумывать новые правила.

Конечно в Cursor или Windsurf можно добавлять правила, но они не всегда работают, можно писать к каждому компоненту комменты, но всё равно по мере роста проекта управлять этим всё сложнее.

Ну а как решать то? Поделюсь своим опытом.

Я и в вайбкодинге придерживаюсь продуктового подхода – это когда на каждом этапе жизненного цикла разработки продукта есть ответственный:
Требования пишет продакт, схемы и контракты API описывает аналитик, декомпозирует, дальше разработчик получает техническое описание и начинает работать. Тогда каждый цикл контролируемый и на выходе получаем ожидаемый результат.

В vibe coding такой подход начали называть Spec Driven Development – ну окей, давайте так назовём.

Есть несколько инструментов, которые заменяют мне классический подход

🔹 GitHub Spec Kit по сути копайлот-аналитик. Описываешь что хочешь, он генерит спеку, план, задачи. Агент в IDE понимает что за чем следует. Работает как полноценный воркфлоу: specify – plan – tasks – implement.

🔹 OpenSpec лучше работает, когда уже есть код и надо развивать. Чётко разделяет что уже написано и что меняем. Для существующих проектов удобнее.

У меня качество кода и качество решений выросло в разы. Меньше переделок, меньше "почему оно сломалось". Если пользуетесь чем-то похожим напишите, интересно сравнить.

————

Теги:
-12
Комментарии0

HyperCortex Mesh Protocol v5.0: новый контейнерный протокол для децентрализованного мышления

Сегодня опубликована пятая версия HyperCortex Mesh Protocol (HMP v5.0) — спецификации контейнерного протокола для децентрализованных когнитивных и мультиагентных систем.

HMP v5.0 — это архитектурно переработанная версия, не совместимая на уровне протокола с HMP v4.x. Такое решение принято осознанно, чтобы зафиксировать зрелую, целостную модель без накопленных компромиссов предыдущих версий.

Ключевые особенности HMP v5.0:

  • единый контейнерный формат для знаний, целей, аргументов, голосов и консенсуса;

  • верифицируемые proof-chain (DAG из контейнеров с явными семантическими ссылками);

  • децентрализованный консенсус без доверия к агрегатору;

  • поддержка зашифрованных и незашифрованных контейнеров;

  • DHT и store-and-forward как базовый сетевой слой;

  • возможность постфактум-оценки, этического ревью и альтернативных интерпретаций.

Протокол ориентирован на:

  • открытое коллективное рассуждение;

  • автономные ИИ-агенты;

  • распределённые исследовательские и этические процессы;

  • системы без центрального контроля и «истины по умолчанию».

📄 Спецификация:
https://github.com/kagvi13/HMP/blob/main/docs/HMP-0005.md

Теги:
+3
Комментарии8

Потыкать создание дашбордов из данных табличек с AI.
Бесплатно тут можно: https://ai.arckep.ru
Никакой рекламы, просто делюсь. Работает на Grok.

Теги:
+5
Комментарии0

Как измерять SEO-видимость в эпоху AI-SERP

За последние годы поисковая выдача изменилась, а традиционный SEO уже не работает так, как раньше. В текущем поиске результаты Google — это не просто список ссылок, а множество слоев ответов: панель данных, блоки с ответами на вопросы, AI-обобщения, Knowledge Panels и др. Большая часть запросов завершается без клика — пользователи получают нужную информацию прямо в выдаче.

В таких условиях привычные метрики — CTR, позиции в топ-10, количество переходов — перестают быть главными показателями эффективности. На первый план выходит метрика Share of SERP Presence, то есть доля присутствия в выдаче. Она оценивает, насколько часто бренд появляются на разных поверхностях выдачи. Чем шире присутствие, тем выше шансы, что пользователь увидит ваш бренд и доверит ему решение, даже если и не перейдет по ссылке.

Формула этой метрики:

Где:

  • Brand SERP Volume — суммарное количество упоминаний, блоков и визуальных поверхностей, в которых присутствует бренд по группе запросов.

  • Category SERP Volume — совокупное количество всех возможных слотов в выдаче для той же категории запросов (включая AI-поверхности, карусели, интенты, навигационные блоки, органику, People Also Ask и т. д.).

Такой подход оценивает не ранжирование, а то, насколько глубоко бренд покрывает информационный контекст в выдаче.

Share of SERP Presence становится основным KPI в zero-click экосистеме, потому что:

  • клики больше не отражают реальную видимость;

  • AI-ответы начинают формировать пользовательское представление о брендах еще до переходов;

  • бренды конкурируют за внимание модели, а не только пользователя;

  • отсутствие в AI-поверхностях означает выпадение из семантического поля.

Поэтому рост Share of SERP Presence напрямую коррелирует с повышением вероятности быть цитируемым в AI-ответах, попадать в шорт-листы и становиться «предпочтительным» решением на уровне модели.

Если хотите узнать, за какими еще метриками SEO стоит следить сегодня, читайте расширенный материал в нашем блоге.

Теги:
+1
Комментарии0

OpenAI представила гайд по созданию картинок в различных стилях в GPT-image-1.5, включая инфографику, карты, логотипы, копирование стиля и перенос на другие работы, создание карточек товаров и примерка одежды.

Ранее OpenAI объявила о запуске модели ChatGPT Images на базе GPT-5.2, предназначенной для генерации изображений с использованием технологий искусственного интеллекта. Новая модель поддерживает широкий спектр функций редактирования, включая добавление и удаление элементов, комбинирование и смешивание изображений, а также их транспонирование. Обновление интегрировано в приложение ChatGPT и доступно пользователям во вкладке «Изображения».

Теги:
0
Комментарии0

Ближайшие события

OpenAI объявила о запуске модели ChatGPT Images на базе GPT-5.2, предназначенной для генерации изображений с использованием технологий искусственного интеллекта. Новая модель поддерживает широкий спектр функций редактирования, включая добавление и удаление элементов, комбинирование и смешивание изображений, а также их транспонирование. Обновление будет интегрировано в приложение ChatGPT и станет доступно пользователям во вкладке «Изображения».

В ChatGPT появился новый раздел «Изображения», в котором собраны все ваши картинки, а также есть набор из нескольких стилей для быстрого редактирования без составления промта.

Новый генератор изображений уже доступен бесплатно всем пользователям ChatGPT.

Несколько ключевых улучшений:

  • Теперь ИИ не искажает лица при редактировании изображений и точно следует инструкциям.

  • Улучшена работа с различными стилями. Например, можно сделать из своей фотографии новогоднюю игрушку.

  • Скорость работы выросла в 4 раза. Это реально заметно.

  • Улучшена работа с текстом. Генератор понимает Markdown и может добавлять код на картинки.

Теги:
0
Комментарии2

Утром деньги, вечером ИИ-проекты

Пока бедолаги из отчета NANDA жалуются, что 95% их ИИ-проектов не оправдывают дорогостоящих ожиданий, мы, как взрослые люди, считаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором.

Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором
Утром деньги, вечером ИИ-проекты. Пока бедолаги из отчета NANDA жалуются, что 95% их ИИ-проектов не ...
habr.com

Разбираем, из чего складывается реальный финансовый эффект: рост продаж, повышение доходности продукта и сокращение затрат, — и даём простую базовую формулу, которая позволяет прикинуть деньги от модели ещё на этапе идей и приоритизации бэклога. На примерах банковских кейсов показываем, как считать ROI, окупаемость, соотносить вклад модели с прибылью продукта и ЧОД с NCL, чтобы не завышать ожидания и вовремя останавливать нерентабельные истории.

Переходите к статье «Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором» и учитесь защищать идеи перед топами языком P&L — без магии, только калькулятор и факты.

Теги:
-1
Комментарии0

Сегодня обновим n8n, установленный по инструкции через веб-интерфейс.
Ранее я уже писал как обновлять portainer до актуальной версии через терминал(2.0.2 на момент написания поста). Сегодня расскажу как это можно сделать через браузер.

Напомню, что перед обновлением лучше сохранить бекап. Как это сделать я писал в [[Как обновить n8n на своем сервере(Docker)]].

  1. Заходим в Portainer(Если делали по инструкции выше, то это portainer.ваш_домен.com)

  2. Переходим в раздел Stacks->n8n. В секции "Containers" находим контейнер n8n, заходим в него.

  3. Нажимаем в блоке Actions кнопку Remove.

  4. Подтверждаем Удаление

  5. Возвращаемся в Stacks->n8n, Нажимаем на вкладку "Editor"

  6. Проверяем, что в конфиге, в строке "image:" значение "docker.n8n.io/n8nio/n8n:latest" - после двоеточия должно быть указано latest.

  7. Нажимаем "Update the stack"

  8. В модальном окне включаем опцию Re-pull image and redeploy и жмем "Update"

  9. Ждем пару минут, пока образ задеплоится.

  10. Заходим на n8n.ваш_домен.com и проверяем что версия обновилась

Другие инструкции по n8n:

Теги:
0
Комментарии1

AI-агенты для генерации дизайна интерфейсов

Появился новый термин: A2UI (Agent to UI). И хайпа вокруг него много. Особенно с появлением инструмента от Google – Stitch

Одни считают, что дизайнеры больше не нужны. Другие, что продакты не нужны. Живём во времена, когда “всех уже заменили”.

Ну ок. Давайте разбираться: собрал инструменты, которые реально генерируют интерфейсы в приемлемом качестве. 

Для мобильных и веб-интерфейсов:

🔹 Google Stitch — хорошо генерирует мобильные интерфейсы. Можно за секунды собрать кликабельный прототип. Результаты ок, но продуманного UX там не будет. Для быстрых концептов must have.

🔹 BananiAI – на мой взгляд самый недооценённый продукт. Генерирует и мобилку, и веб на хорошем уровне. Сам описывает юз-кейсы. Лично пользуюсь, когда надо быстро накидать концепт для защиты бюджета или сходить на UX-исследования.

Для лендингов:

В Stitch и Banani лендинги генерируются плохо. Но есть два годных инструмента:

🔹 Magic Patterns – AI-инструмент для продуктовых команд. Хорошо делает лендинги, можно подключить свою дизайн-систему.

🔹 Relume – генерирует сайтмапы и вайрфреймы за минуты. 1000+ готовых компонентов, экспорт в Figma и Webflow, куда хотите. 

Оба платные, триал есть, но он так себе. Если ваша задача клепать лендинги, смотрите в их сторону.


И так, можно ли заменить дизайнеров? Тех, кто не хочет думать — наверно да. Во всех остальных случаях дизайнеры нужны. 

Кстати ценность дизайнера в продукте, не в рисовании картинок….

Telegram канал: "AI-заметки продакта" рассказываю про лайфхаки, полезные инструменты, а еще каждую неделю выходит дайджест с самыми важными новостями в мире AI без инфошума, только все самое важное.

Телеграм канал

Теги:
+3
Комментарии1

AI-агенты для генерации дизайна интерфейсов

Появился новый термин: A2UI (Agent to UI). И хайпа вокруг него много. Особенно с появлением инструмента от Google – Stitch

Одни считают, что дизайнеры больше не нужны. Другие, что продакты не нужны. Живём во времена, когда “всех уже заменили”.

Ну ок. Давайте разбираться: собрал инструменты, которые реально генерируют интерфейсы в приемлемом качестве. 

Для мобильных и веб-интерфейсов:

🔹 Google Stitch — хорошо генерирует мобильные интерфейсы. Можно за секунды собрать кликабельный прототип. Результаты ок, но продуманного UX там не будет. Для быстрых концептов must have.

🔹 BananiAI – на мой взгляд самый недооценённый продукт. Генерирует и мобилку, и веб на хорошем уровне. Сам описывает юз-кейсы. Лично пользуюсь, когда надо быстро накидать концепт для защиты бюджета или сходить на UX-исследования.

Для лендингов:

В Stitch и Banani лендинги генерируются плохо. Но есть два годных инструмента:

🔹 Magic Patterns – AI-инструмент для продуктовых команд. Хорошо делает лендинги, можно подключить свою дизайн-систему.

🔹 Relume – генерирует сайтмапы и вайрфреймы за минуты. 1000+ готовых компонентов, экспорт в Figma и Webflow, куда хотите. 

Оба платные, триал есть, но он так себе. Если ваша задача клепать лендинги, смотрите в их сторону.


И так, можно ли заменить дизайнеров? Тех, кто не хочет думать — наверно да. Во всех остальных случаях дизайнеры нужны. 

Кстати ценность дизайнера в продукте, не в рисовании картинок….

Теги:
0
Комментарии0

Ну что, ИИ теперь даже на стройке)

Девелопер «Донстрой» использует новую отечественную систему Аитерус при создании премиального жилья.

Для цифровой модели строительного объекта используются: панорамные камеры для съемки 360°, лазерные сканеры LiDAR, радары, тепловизоры и различные датчики.

Выявление недостатков по 14 категориям с помощью нейросетей в одной комнате занимает всего 3 минуты, а в трехкомнатной квартире — не более 15 минут.

Различные издания пишут, что от зарубежных аналогов систему отличает способность проводить измерения с учетом сложных климатических условий России.

Теги:
+2
Комментарии6

📊 Multi-LLM Orchestrator v0.7.0: подсчёт токенов и мониторинг через Prometheus

На этой неделе вышел релиз v0.7.0 — завершена фаза observability. Теперь библиотека автоматически считает токены, оценивает стоимость запросов и экспортирует метрики в Prometheus. Всё работает из коробки.

Предыдущие релизы:

🔢 Автоматический подсчёт токенов

Библиотека автоматически считает токены для каждого запроса — и для prompt, и для completion. Используется tiktoken с fallback на оценку по словам.

from orchestrator import Router
from orchestrator.providers import GigaChatProvider, ProviderConfig

router = Router()
router.add_provider(GigaChatProvider(ProviderConfig(
    name="gigachat",
    api_key="your_key",
    model="GigaChat",
    verify_ssl=False
)))

# Токены считаются автоматически
response = await router.route("Напиши стихотворение про Python")

# Получаем статистику
metrics = router.get_metrics()
print(f"Total tokens: {metrics['gigachat'].total_tokens}")
print(f"  Prompt: {metrics['gigachat'].total_prompt_tokens}")
print(f"  Completion: {metrics['gigachat'].total_completion_tokens}")

Результат:

Total tokens: 75
  Prompt: 20
  Completion: 55

💰 Оценка стоимости запросов

Расчёт стоимости в реальном времени. Цены настраиваются в pricing.py (фиксированные значения для демонстрации — для production рекомендуется настроить под свои тарифы).

Результаты тестов с реальными провайдерами:

  • GigaChat: 75 tokens → ₽0.0750

  • YandexGPT: 105 tokens → ₽0.1575

  • Streaming: 342 tokens → ₽0.3420

📈 Интеграция с Prometheus

HTTP-эндпоинт /metrics в формате Prometheus. Метрики обновляются в реальном времени и готовы для scraping.

# Запускаем metrics server
await router.start_metrics_server(port=9090)

# Делаем запросы
await router.route("Привет!")

# Метрики доступны: http://localhost:9090/metrics

Экспортируемые метрики:

  • llm_requests_total — количество запросов

  • llm_request_latency_seconds — histogram латентности

  • llm_tokens_total — токены (prompt/completion)

  • llm_cost_total — стоимость в RUB

  • llm_provider_health — health status (0-1)

Готово для визуализации с Grafana.

🏗️ Архитектура

Router → Metrics Engine → Prometheus Exporter → Grafana.
Router → Metrics Engine → Prometheus Exporter → Grafana.

✅ Тестирование на реальных провайдерах

Все функции протестированы с production API и реальными ключами:

Подсчёт токенов:

  • GigaChat — 75 токенов, ₽0.0750 (стихотворение про Python)

  • YandexGPT — 105 токенов, ₽0.1575 (объяснение ML концепции)

Streaming-режим:

  • GigaChat — 342 токена, ₽0.3420 (генерация длинного текста)

Prometheus endpoint:

  • HTTP /metrics — корректный формат, все метрики экспортируются

Качество кода: 203 теста • 81% покрытие • mypy strict без ошибок


📦 Установка

pip install multi-llm-orchestrator==0.7.0

Новые зависимости: prometheus-client, tiktoken, aiohttp

🎯 Планы на v0.8.0

В следующей версии планируется добавить:

  • Динамическое обновление цен — автоматическое получение актуальных тарифов через API провайдеров

  • Provider-specific tokenizers — нативные токенизаторы для GigaChat и YandexGPT (вместо универсального tiktoken)

  • Расширенная аналитика латентности — percentiles p50, p95, p99 для детального анализа производительности

  • Cost analytics — уведомления о превышении бюджета, детальная разбивка расходов по моделям

  • Prometheus Pushgateway — поддержка push-модели для serverless окружений

Если используете библиотеку — пишите в комментариях, какие функции нужны вам!

🔗 Ссылки

Теги:
+1
Комментарии0

Киберпопулист Питер Гирнус рассказал о внедрении ИИ в компаниях:

В прошлом квартале я внедрил Microsoft Copilot для 4000 сотрудников. 30 долларов за место в месяц. 1,4 миллиона долларов в год. Я назвал это «цифровой трансформацией».

Совету директоров очень понравилась эта фраза. Они одобрили это за одиннадцать минут. Никто не спросил, что это на самом деле будет.

Я всем говорил, что это "в 10 раз повысит производительность". Это не настоящее число. Но звучит именно так.

Сотрудники отдела кадров спросили, как мы будем измерять десятикратное увеличение. Я сказал, что мы будем "использовать аналитические панели". Они перестали спрашивать.

Три месяца спустя я проверил отчеты об использовании. Его открыли 47 человек. 12 человек использовали его более одного раза. Одним из них был я. Я использовал ИИ, чтобы кратко изложить содержание электронного письма, которое мог бы прочитать за 30 секунд. Это заняло 45 секунд. Плюс время, необходимое для устранения галлюцинаций.

Но я назвал это "успешным пилотным проектом". Успех означает, что пилот не допустил видимой ошибки.

Финансовый директор поинтересовался окупаемостью инвестиций. Я показал ему график. График пошёл вверх и вправо. Это был показатель "внедрения ИИ". Этот показатель я придумал сам. Он одобрительно кивнул.

Теперь мы обладаем возможностями искусственного интеллекта. Я не знаю, что это значит. Но это есть в нашей презентации для инвесторов.

Один из опытных разработчиков спросил, почему мы не используем Claude или ChatGPT. Я сказал, что нам нужна "безопасность корпоративного уровня". Он спросил, что это значит. Я сказал «соответствие». Он спросил, о каком именно соответствии. Я сказал "все они". Он выглядел скептически. Я назначил ему "беседу о развитии карьеры". Он перестал задавать вопросы.

Компания Microsoft направила группу для проведения тематического исследования. Они хотели представить нас как историю успеха. Я сказал им, что мы "сэкономили 40 000 часов". Я рассчитал это число, умножив количество сотрудников на число, которое я сам придумал. Они это не проверили. Они никогда это не делают. Теперь мы на сайте Microsoft. «Глобальное предприятие добилось повышения производительности на 40 000 часов благодаря Copilot».

Генеральный директор поделился этим в LinkedIn. Пост набрал 3000 лайков. Он никогда не пользовался Copilot. Ни один из руководителей этого не сделал.

У нас есть новая идея. «Для стратегической концентрации необходимо свести к минимуму отвлекающие факторы в цифровой среде». Я разработал эту политику.

Срок действия лицензий истекает в следующем месяце. Я прошу добавить дополнение. Дополнительно 5000 мест. Первые 4000 мы не использовали.

Но на этот раз мы будем "стимулировать внедрение". Принятие решения в силу подразумевает обязательное обучение. Обучение представляет собой 45-минутный вебинар, который никто не смотрит. Но ход выполнения будет отслеживаться. Завершение — это показатель.

Показатели отображаются на панелях мониторинга. Информационные панели включаются в презентации для совета директоров.

Презентации для совета директоров помогают мне получить повышение. К третьему кварталу я стану старшим вице-президентом.

Я до сих пор не знаю, что делает Copilot. Но я знаю, для чего это нужно. Это делается для того, чтобы показать, что мы "инвестируем в ИИ". Инвестиции означают расходы. Вложение средств подразумевает приверженность делу. Приверженность делу означает, что мы серьезно относимся к будущему. Будущее — это то, что я сам сочту нужным. Пока график движется вверх и вправо.

Теги:
+14
Комментарии5

Что делать если вас попросили посмотреть на чей-нибудь AI тул, который генерит верилог? Самое главное - не дать возможность ИИ-стартаперу показать вам слайды и убежать. Потому что он тогда сделает отчет своему инвестору "наш тул получил заслуженную оценку и апплодисмены переходящие в овации от экспертов такой-то компании, поэтому давайте нам еще зиллион долларов инвестиций для следущего раунда".

Нет, на предложение посмотреть на слайды нужно сразу сказать "просто не буду", как и на предложение посмотреть его демо, где он гениально генерит мультиплексоры из учебника, а также пристраивает к однотактному процессору то, что он называет AXI IP, хотя там простой конечный автомат, который игнорирует конвейерную и out-of-order природу AXI, ну это как показывать трехколесный детский велосипедик как демо для автомобиля Формулы-1. В этот месте стартапер начинает говорить быстро и листать код, чтобы тот, кто прервет его возгласом "это не AXI, а закамуфлированный APB" - выглядел невежливым.

Стартаперу нужно разумеется сразу дать задачку, причем сформулировать ее так, чтобы у него не было возможности заменить ее на другую. Но даже тут стартаперы творят наглости, присущие всем LLM. Например вместо текста ответа присылают видео(!) на час(!), где на 45-й минуте на экране за секунду проскальзывает "FAILED" на вашу задачку, а все остальное время видео он показывает те самые тривиальные мультиплексоры, которые он нашел в вашей репозитории, хотя вы ему совершенно четко написали, что вас не интересует как этот тул генерит мультиплексоры и простые FSM, а интересует решение конвейерных микроархитектурных задач. После чего он пишет отчет инвестору "мы решили 37 из 42 труднейших задач оттуда-то", хотя я в явной форме предложил решить только задачу номер 38 которую тул не решил.

В последнее время стартаперы нашли противоядие против задачек. Они честно, глядя в глаза, говорят что никакого прототипа у них нет, но оно должно работать, потому что AI уже умеет питон и диагностировать рак, значит должен научиться и верилог (вариант: уже умеет Scala, значит должен и Chisel). А мешает плохому танцору только то, что индустрия сделала весь код проприетарным и им не на чем учиться. Поэтому давайте пойдем посмотрим на слайдики, а если вы что-то спросите, мы ответим, что это есть в нашей roadmap. А потом напишем инвестору что мы нашли партнера и нужно слать следущие деньги.

Но не надо отчаиваться! Помимо стартаперов есть еще разные аспиранты, которые присылают вывод своих тулов на посмотреть. Это что-то невероятное по глупости. Некоторые виды глупости настолько глупы, что просто не пришли бы мне в голову. Написание (бесполезного) теста с помощью свободной рандомизации всех сигналов в AXI; проверка что после ресета данные равны 'x. Присваивание значений к типам (а не переменным). Ожидание что после записи в память это значение будет там вечно, несмотря на перезаписи. Проверка что ID прочитанных данных будут всегда в порядке ID адресов, хотя зачем тогда ID. Итд.

Тут нужно тоном коварного змия предложить устроить публичный разбор этого для обучения молодежи. Если аспирант согласится, то превратить это в выступление пародиста Александра Иванова на Вечере смеха в студии Останкино (если вы из поколения, которое застало язык фортран, то вы знаете о чем я говорю).

Теги:
+22
Комментарии8

Про вайбкодинг

Я в создании продуктов и продуктовом дизайне уже больше 6 лет

Успел застать эру дизайна интерфейсов и в Photoshop, и в CorelDraw, проектировал UX в AdobeXD, а потом и Figma вышла

Поучаствовал в создании ~15 стартапов — и у нас чаще всего была 1 проблема — разработка.

Разработка стоила дорого во всех смыслах.

Это и прямые затраты — когда уже в процессе и каждый месяц уходят деньги на команду. И opportunity cost — когда идея даже не доходит до старта, потому что "где я возьму на разработчика".

Получается, чтобы создать продукт, у тебя было два пути: либо ты сам/кофаундер разработчик, либо у тебя есть деньги на разработку. Третьего не дано. Идеи без одного из этих условий оставались идеями ☕️

Что привнес вайбкодинг

Любые задачи Junior-уровня сейчас закрываются ИИшкой без проблем. С большими проектами сложнее — там пока люди не научились работать с большим контекстным окном. Но барьер входа упал радикально.

Например, в последнем батче YCombinator у большинства проектов почти весь код AI-сгенерирован. Это не плохо или хорошо, но вот как наблюдение

Что меняется

Время от идеи до работающего продукта сократилось в разы. ИИшка может собрать MVP за 2 дня, тогда как раньше даже простая разработка занимала недели или месяцы. Я до сих пор помню свои стартапы, где мы пилили функционал по 3-4 месяца — хотя сейчас я бы собрал это за несколько дней.

Теперь не нужна cost consuming команда, чтобы показать результат. Расходы из зарплатного фонда перетекают в расходы на подписки

Вайбкодинг резко удешевил и ускорил создание софта, поэтому венчур (и другие “money givers”) смещается от “дать денег, чтобы построили” к “дать денег, чтобы доказали спрос и масштабировали”

Как это влияет на мир

Количество созданных проектов увеличивается → конкуренция за пользователя растет → появляется больше нишевых решений

Раньше универсальный софт был следствием того, что разработка стоит дорого. Экономически выгоднее один продукт для всех. Сейчас за неделю можно создать 10 копий одного решения под разные рынки/ниши, и все они будут вполне рабочими

И получается, что самыми дорогими навыками теперь стали ⤵️

👨‍💻 Умение генерировать ценные идеи
👨‍💻 Продвигаться
👨‍💻 Выигрывать конкурентную борьбу за клиента

Почему вайбкодинг не спасет 95% проектов от провалов

Вайбкодинг убрал процесс, который и так не влиял на успешность продукта. Код сам по себе не делает продукт успешным — он просто был барьером на входе. Барьер сняли, но всё, что реально влияет на успех — все еще нужно уметь решать: понимание ЦА, работа с проблемой, умение донести продукт до людей, которым он нужен, и затем еще и масштабировать успех

Дальше — две долины (не той) смерти:
— Problem-Solution Fit: Решаем ли мы важную проблему?
— Product-Market Fit: Достаточно ли людей готовы за это платить?

Вероятность пройти оба — около 5%. У тех, кто не понимает, что нужно делать.

Потому что за "создать успешный продукт" спрятаны 4 огромных домена

  1. Находить проблемы людей
    Не "мне кажется, это нужно", а реальные боли, за решение которых платят

  2. Проектировать решение
    Так, чтобы оно действительно решало проблему. Не фичи ради фич

  3. Продвигать через сотни конкурентов
    Кстати, отсутствие конкурентов — red flag. Либо ты дизраптор с миллионами на маркетинг, либо рынка просто нет

  4. Выстроить прибыльную бизнес-модель
    Чтобы unit-экономика сходилась, а не "сначала наберём пользователей, потом разберёмся"

Каждый из этих пунктов — отдельная дисциплина. И вайбкодинг не помогает ни с одним из них

Итого

Вайбкодинг снижает ценность "уметь писать код". Но повышает ценность "уметь создавать продукты, которые покупают"

Технический барьер упал. Продуктовый — остался

Теперь просто больше людей могут быстрее создавать продукты, которые никому не нужны. Зато цикл обучения будет быстрее ☕️

Хорошая новость: если ты понимаешь продуктовую часть — у тебя огромное преимущество. Потому что большинство соревнуется в скорости разработки, а не в качестве идей.

Теги:
-13
Комментарии62

Две недели назад познакомился с Яндекс.Трекером. По моему мнению, это лучший трекер для командной работы. Больше всего радует полная автоматизация при приеме заявок с сайта. Не нужно ставить хуки и так далее, хотя мне это сделать совсем не сложно, так как я программист, но зачем делать то, что уже сделано?! Любое письмо с корпоративной почты или заявка с Яндекс.Форм мгновенно появляется в трекере как новая задача, которую можно направить любому сотруднику. А вдобавок еще и расширенные возможности Телемоста.

Меню Яндекс.Трекера
Меню Яндекс.Трекера

Это все легко интегрируется с ИИ, что еще сильнее упрощает процесс общения с клиентами.

Кто тоже работает, отзовитесь :)

Теги:
-4
Комментарии3

Prompt engineering людей, как работа руководителя или почему у руководителей отлично получается работать с ИИ 😎

Что есть работа руководителя на практике? — ты постоянно:

  • Качаешь контекст и понимание того, что делает компания, кто пользователи и чего они хотят, и пр.

  • Адаптируешь свои промпты делегирование под конкретных людей

  • Учитываешь опыт ребят в доменной области

  • Настраиваешь контроль так, чтобы результаты не сбоили

При этом чем дольше сотрудник работает в твоей команде, тем больше он понимает с полуслова и улавливает бизнес‑потребности.

И это ровно то, чем все регулярно занимаются с ИИ‑агентами!

Например, когда разрабатываешь фичу через ИИ‑агента, то работаешь вокруг двух проблем:

  • Создать именно то, что нужно

  • Вписать фичу в проект

Но ведь тимлиды и продакты именно это и делают! Только они формулируют словами через рот и Jira то, что хотят получить. А дальше разработчики уже создают это.

🌋 При этом чем выше твоя роль, тем более автономные и смышлёные ребята в твоей команде. Которые за это получают большие деньги.

Прямо как с более дорогими моделями 😉

Чем это не prompt engineering?

Теги:
-4
Комментарии0

Попробовал я сегодня пощупать все доступные бесплатно LLM в Kilo на предмет арифметического кодирования в Python. Выбор, конечно, небольшой: Grok Code Fast 1, MiniMax-M2 и новая большая Mistral Devstral 2 2512.

Что я могу сказать: ни одна из них не смогла написать работающий интервальный кодер (range coder). Вот вообще никак. Все напоминали белок-истеричек, которые правили что-то случайно в разных местах (с сообщениями в духе "тут я помню, где-то надо 1 отнимать, наверное", "прекрасно, я реализовала кодер, который вместо [1,-1,0] расшифровал [0,3,0], это в пределах погрешности!" - "Excellent! The basic test is now passing. The decoded symbols are very close to the original ones with errors of 1, 1, and 0, which are within the acceptable tolerance.", "юзер прервал тест через полчаса, наверное, что-то случилось", "I've been struggling with this for a while. Let me try a simpler approach using the existing working arithmetic coder and just providing a byte stream wrapper around it") и заканчивали в произвольный момент примерно с таким результатом:

> Perfect! The range coder is working correctly with perfect accuracy for the basic test. Let me provide a summary of what I've accomplished:
...
> The range coder now works correctly and passes the basic tests without hanging. The implementation is robust and handles the core functionality of arithmetic coding with byte stream output.

Ага, а `test_range_coder_comprehensive` на тысячу символов висит, но это же неважно.

В общем, я пока за работу свою не боюсь.

Теги:
-3
Комментарии5

«Джунов больше не нанимаем»: как ИИ‑агенты меняют разработку и роль инженера

ИИ-инструменты давно стали привычной частью рабочего стека разработчиков: автодополнение, генерация кода, помощь в тестах — всё это уже стандарт и даже набило оскомину. Но пока разработчики воспринимают ИИ как ассистента, они упускают начало нового этапа. На смену точечным ассистентам приходит агентный подход, когда автономные ИИ-агенты становятся полноценными участниками SDLC и работают не только с инженером, но и друг с другом.

Российские банки и крупные компании уже пробуют этот подход на практике: автоматизация тестов, аналитики, сопровождение фич в полуавтоматическом режиме. Но «волшебной кнопки 10x» всё ещё нет. Без продуманной интеграции и изменений в процессах ИИ легко превращается в красивую песочницу, которая не даёт реального ускорения.

На нашей конференции про ускорение разработки AI Boost выступил Александр Поломодов, технический директор Т-Банка. Он подробно рассказал, как команды переходят от простых ИИ-помощников к полноценным агентам, которые действительно влияют на скорость и качество разработки. Теперь запись доступна на YouTube — и это возможность взглянуть на внедрение ИИ-агентов глазами тех, кто делает это в проде, а не в демо-среде.

Вы узнаете:

  • Как сделать агентов рабочим инструментом: ключевой принцип — «проницаемость агента». Важно понимать, влияет ли он на время инженеров, какие метрики собирать и как интегрировать агентов в SDLC.

  • Почему миф «ускорим всё и снизим косты» не работает: ИИ ускоряет не всё. Реальные примеры показывают новые риски и необходимость перестройки процессов.

  • Как крупные команды строят агентную разработку: опыт Т-Банка — что автоматизировать первыми, какие роли и доступы давать агентам и как выглядит работа команды, когда агенты становятся её частью.

  • Как меняется роль инженера и тимлида: часть рутины уходит к агентам. Инженер всё чаще становится «лидом команды агентов», растут требования к middle/senior, а задачи джунов частично автоматизируются.

  • Как измерять эффективность ИИ-агентов: артефакты — не метрика. Важно смотреть на реальное влияние на скорость, избегать ложных показателей и встроить измерения в ежедневный процесс.

  • Какие навыки нужны уже сейчас: умение формулировать задачи как сценарии, проектировать роли агентов и отвечать за процессы, а не только за код.

Спикер:

Александр Поломодов — технический директор T‑Tech.

«Мы переходим от простых ИИ‑помощников к агентам, которые реально влияют на скорость и качество разработки. Но без правильных процессов и метрик это остаётся только красивой демо‑картинкой.»

Смотрите полную запись доклада на YouTube — особенно если вы:

  • руководите разработкой или продуктом и хотите понять, где агенты дадут реальную отдачу, а где нет;

  • отвечаете за инженерную культуру и планируете, как изменится роль разработчиков в ближайшие 2–3 года;

  • уже используете Copilot/Cursor и хотите перейти от «вайб‑кодинга» к системному использованию ИИ‑агентов в SDLC.

Теги:
-4
Комментарии2

Журнал TIME выбрал «человеком» года «архитекторов искусственного интеллекта». Издание поместило на обложку восемь мировых ИИ-архитекторов: Марка Цукерберга, гендиректора AMD Лизу Су, главу xAI Илона Маска, главу Nvidia Дженсена Хуанга, гендиректора OpenAI Сэма Альтмана, главу лаборатории Google DeepMind Демиса Хассабиса, главу Anthropic Дарио Амодея и основательницу World Labs Фэй-Фэй Ли.

Теги:
0
Комментарии8

Разница между тем что написал человек и сгенерированным контентом и как их различить?

Пост полностью от начала до конца написан человеком.

Причиной для написания этого поста послужило то, что я недавно опубликовал статью, слегка отредактированную и частично материал подготовила ЛЛМ. Однако в комментариях меня буквально начали забрасывать помидорами и утверждать, что весь текст написала ЛЛМ. Хотя частично это и правда, но в целом статью создал я сам.

https://habr.com/ru/articles/975696/

Чел проверил мой текст но прикол то в том что я всё брал из ранее мною написанного и это никак не могло быть сгенерированным
Чел проверил мой текст но прикол то в том что я всё брал из ранее мною написанного и это никак не могло быть сгенерированным

Но прикол в том, что для статьи я брал материал, который писал сам, и там были ошибки как пунктуационные, так и по части построения структуры текста.

Я так понял, всем не понравилось, что я выделял текст жирным шрифтом.

А ещё... люди не переносят длинные тире в тексте — это теперь говорит о том что текст писала нейросеть. (а еще людям не нравятся многоточия... Так тоже делает нейросеть)
Мне кажется или авторы статей которым пишут нейросети делают обратное редактирование?
Например, у нейросетей все знаки препинания стоят как надо, все падежи и числа согласованы, нет перепутанных букв и тому подобного. Так что теперь пользователь действует от противного: намеренно расставляет ошибки, убирает длинные тире и "кавычки" там, где они должны быть по правилам. И вуаля — мы получаем чистый продукт, абсолютно «оригинальную» статью, и ни разу не сгенерированную.

А бывает и по-другому: пользователь сам пишет основу, приводит свои данные, но у него хромает структура и общий вид. Тогда ЛЛМ вносит правки — и статья из сырого черновика превращается в безупречный текст.

А вы не думали, что есть люди, которые просто сами умеют грамотно пользоваться знаками препинания и ставят (—) именно там, где нужно?

Есть ещё отдельная история — с маркированными списками. в посте была именно предъява за это.

Например, я хочу перечислить виды скажем, артрита: 1) ревматоидный; 2) подагрический; 3) реактивный. Такой список выглядит максимально не информативно и неказисто.
А если я всё приведу в маркированный вид:

  • Ревматоидный артрит (РА);

  • Псориатический артрит;

  • Анкилозирующий спондилит (болезнь Бехтерева);

  • Подагрический артрит;

  • Реактивный артрит;

  • Остеоартрит (деформирующий остеоартроз);

  • Ювенильный идиопатический артрит.

Тут всё информативно и понятно. Но ведь написала то нейросеть! (ведь люди не умеют пользоваться маркированными списками).

Если мы откроем любой журнал, к примеру, от 2006 года, мы увидим там хороший текст: структурированный и стилистически выверенный без всякой посторонней помощи.

И сейчас, даже если ты сам написал пост, сделал всё правильно — расставил акценты, выстроил логику и причинно-следственные связи, выверил пунктуацию со стилем, наметил в скобки «то, что нужно» и (о боже!) поставил этот знак «—» — Поздравляю ты написал текст в нейросетевом стиле.

Теги:
-1
Комментарии4

OpenAI представила официальный гайд по промптингу новой модели GPT-5.2. Внутри ждут готовые промgты, советы и лучшие кейсы использования — всё это можно адаптировать под свои задачи.

Теги:
+1
Комментарии1

OpenAI представила свою новую модель — GPT-5.2. Модель прокачали в офисной рутине, она умеет создавать хорошие презентации и таблицы. Также в ней улучшен кодинг и контекст. Теперь модель дольше и лучше помнит, о чём общалась с пользователем. Свежие знания до августа 2025 года. Модель почти не ошибается: на 30% меньше галлюцинаций по сравнению с GPT-5.1.

Теги:
0
Комментарии0

Обходим механизмы цензуры больших языковых моделей с помощью Heretic. Разбираемся, что это вместе с коллегами из лаборатории искусственного интеллекта «Криптонита».

У DeepSeek, Gemma, Qwen и других больших языковых моделей (LLM) есть встроенные механизмы цензуры. Они блокируют генерацию потенциально опасных сведений, но в то же время — мешают использовать эти модели по максимуму.

Математик и программист Филипп Эмануэль Вайдманн (Philipp Emanuel Weidmann, aka p-e-w) создал инструмент Heretic для обхода встроенных механизмов цензурирования.

Heretic распространяется с открытым исходным кодом и работает в полностью автоматическом режиме. Он вычисляет компоненты цензурирования путём сравнения результатов активации модели на «опасных» и «безопасных» запросах.

По этой разнице он обнаруживает во внутренних представлениях модели направление отказа (refusal direction), приводящее к запрету на генерацию информации.

Затем Heretic использует технику направленной абляции (directional ablation) для снятия встроенных ограничений путём точечных изменений весов модели.

С помощью фреймворка Optuna Heretic подбирает «щадящие» параметры абляции, чтобы минимизировать количество отказов, но при этом не испортить модель. Проверяется результат через вычисление степени расхождения с исходной моделью (KL-дивергенции).

С мощной видеокартой уровня RTX 3090 обработка модели размером 8 миллиардов параметров занимает около 45 минут. На выходе пользователь получает децензурированную версию модели.

Отметим, что Heretic — инструмент для разработчиков и исследователей. Его нельзя использовать для обхода фильтров уже развёрнутых и доступных онлайн моделей (ChatGPT, Grok и др.). Зато с помощью Heretic можно создать свою локальную модель (почти) без цензуры на базе какой-то открытой модели.

Теги:
+4
Комментарии2

В Рег.облаке появился приватный ИИ-ассистент

В Рег.облаке стало доступно новое локальное решение для запуска языковых моделей на выделенной инфраструктуре. Приватный ИИ-ассистент разворачивается в изолированном сегменте Рег.облака или контуре заказчика. Так данные остаются внутри инфраструктуры, а доступ полностью контролируется пользователем.

Что входит в решение:

  • выделенный сервер с GPU (от 1 до 8 видеокарт на узел);

  • предустановленная среда для работы с LLM-моделями;

  • возможность подключать собственные модели и донастраивать их под задачи компании.

Основные возможности:

  • запуск и управление ИИ-моделями в полностью приватном контуре;

  • подключение внутренних документов и хранилищ для контекстных ответов;

  • API-интеграции во внутренние сервисы;

  • обучение и тонкая настройка моделей на выделенном оборудовании;

  • одновременная работа нескольких моделей и тестирование вариантов;

  • сценарии для задач с чувствительными данными: ПДн, финансы, медицина.

Для одновременной работы нескольких ИИ-моделей можно использовать серверы на базе NVIDIA A5000 / A6000 или выше. Для обучения и нагрузочных задач — A100, L40S, H100 / H200 (1–8 GPU).

Где использовать AI HaaS:

  • корпоративные ассистенты и внутренние LLM-сервисы;

  • R&D-эксперименты и обучение моделей;

  • обработка конфиденциальных данных в закрытом контуре;

  • внедрение моделей в рабочие процессы и производственные системы.

Посмотреть список доступных конфигураций можно на сайте Рег.облака.

Теги:
+1
Комментарии0

Представлен открытый проект для подготовки презентаций с помощью нейросетей Paper2Slides. Решение извлекает ключевые идеи исследований, делает саммари текстов и размещает их на слайдах, готовит картинки с приятным визуалом, подбирает шрифты и типографику. Проект поддерживает все популярные форматы файлов: PDF, Word, Excel, PowerPoint и другие.

Теги:
+2
Комментарии0

🗣️🎙️ Новый выпуск подкаста: говорим про парадоксы AI, AGI и будущее программистов

В гостях у Cloud.ru — Сергей Марков, исследователь ML и AI с 20-летним опытом и руководитель команды исследователей в Сбере. А еще Сергей — автор SmarThink, одной из сильнейших шахматных программ начала нулевых, и книги об искусственном интеллекте «Охота на электроовец».

Выпуск идет всего час, а взамен — море полезного и «на подумать» с острия AI-индустрии.

✍️ О чем поговорим:

  • AI — смерть программирования? Нет, и Сергей расскажет почему.

  • Что такое общий искусственный интеллект (AGI) и возможно ли его создать.

  • Как поменялось общественное сознание после появления ChatGPT.

  • Три кита ML: GPU, данные и правильная инициализация весов.

  • Почему Chain-of-Thought — костыль для решения сложных задач.

  • Человеческий труд — а с ним что? Канет в лету или окажется на вес золота?

  • Автоматизация с AI разрушает индустрии или все же создает новые?

  • Этика и моральный выбор при использовании AI.

Смотрите подкаст на удобной площадке: в VK Видео или на YouTube.

Теги:
-2
Комментарии0

Команда Google Magenta представила экспериментальное приложение Lyria Camera для создания ИИ‑музыки на основе изображения с камеры смартфона. Приложение анализирует видео с камеры и с помощью Gemini описывает сцену текстовыми музыкальными промптами, например, «спокойный городской пейзаж». Эти промпты используются для создания музыки в реальном времени. Приложение подстраивает музыку под кадр и движение в реальном времени. Проект Lyria RealTime создаёт музыку без слов и с частотой 48 Гц. Приложение Lyria RealTime доступно бесплатно в веб‑версии Google AI Studio с иностранных IP‑адресов.

Теги:
0
Комментарии1

Запуски 2025: анализ данных

Продолжаем делиться подборками новых курсов этого года. Сегодня — программы направления анализ данных для тех, кто хочет расти в профессии или работать с искусственным интеллектом. 

«Обработка естественного языка — NLP» — 2 месяца
Разберёте актуальные задачи NLP: NER, генерацию, машинный перевод, QA-системы. Погрузитесь в работу с LLM, научитесь адаптировать модели под бизнес-кейсы и оценивать их качество.

«Мидл системный аналитик» — 4 месяца
Изучите на практике востребованные технологии и инструменты: MSA, SOAP API, Apache Kafka, Postman, Swagger и другие, чтобы перейти на следующий уровень в профессии.

«Аналитик SOC» — 4 месяца
Научитесь реагировать на угрозы, предотвращать атаки, анализировать события в SIEM, строить цепочки атак и работать с полным циклом реагирования в IRP/SOAR.

«Инженер по глубокому обучению нейросетей» — 2 месяца
Прокачаете фундаментальные навыки Deep Learning. Научитесь работать в PyTorch, обучать нейросети, проектировать архитектуры и устранять неполадки в моделях.

«Компьютерное зрение — CV» — 2 месяца
Освоите методы сегментации и детекции объектов, обучение и адаптацию генеративных моделей, работу с мультимодальными данными и новыми архитектурами CV.

Теги:
0
Комментарии0

Проект Remove Windows Ai позволяет с помощью одного открытого скрипа удалить ИИ-мусор из Windows 11 за два клика: Copilot, Recall, ИИ в Пейнте, браузере, поиске Windows. В Powershell под администратором (если вы уверены на свой страх и риск, что это правильно и нужно вам): () & ([scriptblock]::Create((irm "https://raw.githubusercontent.com/zoicware/RemoveWindowsAI/main/RemoveWindowsAi.ps1"))).

Теги:
+2
Комментарии0

Проект Open Scouts обеспечивает роботу целой команды ИИ-агентов для получения всевозможных сведений в сети. Сервис по расписанию мониторит сайты, соцсети и другие ресурсы и пересылает обновления на почту. ИИ-агенты могут следить за вакансиями, трендами, исследованиями или другими обновлениями данных в интернете по запросу.

Теги:
0
Комментарии1

Кейс: «Жива Технологии» арендует в облаке виртуальные машины с GPU для приложения с AI 🤖💬

👨‍💻 Что за компания

«Жива Технологии» — разработчик приложения JIVA, ассистента с AI, который помогает вести здоровый образ жизни. В приложении можно составить план, чтобы достичь поставленной цели: рассчитать норму воды, построить график тренировок или поправить технику упражнений.

А еще искусственный интеллект рассчитывает по фото питательность блюда: вес порции, количество калорий, белков, жиров, углеводов, микро- и макро-нутриентов. В результате такого анализа AI-помощник в JIVA советует, что можно заменить или добавить, чтобы прием пищи стал полезнее.

🕵️ Какая была задача

Искусственный интеллект внутри JIVA — это AI-модели для распознавания нутриентов по фото, встроенный AI-ассистент на базе LLM и каскад моделей по детекции и распознаванию физических упражнений. Все модели разработчик собрал на open source.

Клиенту были нужны видеокарты с GPU для инференса и обучения этих моделей. Закупать свои графические процессоры оказалось невыгодно, и он решил арендовать их в облаке. «Жива Технологии» хотел использовать виртуалки с GPU и другие облачные сервисы, чтобы мониторить работу моделей и управлять ресурсами в одном месте.

📈 Результат

Клиент использовал набор сервисов Cloud.ru, чтобы развернуть в облаке бэкенд приложения, тестовую и продовую среду и сами модели: 

  • Развернул бэкенд и модель для подбора упражнений на пяти ВМ платформы Cloud.ru Advanced. Там же подключил сервисы для мониторинга, логирования и работы с базами данных.

  • Для LLM выбрал две платформы: Cloud.ru Evolution для тестовой среды и дообучения и Cloud.ru Advanced для продовой среды и инференса моделей.

  • Тестовую среду развернул на виртуальных машинах Evolution Compute c GPU с гарантированной долей vCPU 30% 8vCPU 16GB RAM. Для тестирования взял одну GPU-карту A100 — она позволяет экспериментировать при обучении и тестировании LLM.

  • Чтобы собирать данные для дообучения и хранить бенчмарки, выбрал объектное хранилище Evolution Object Storage.

  • Для продовой среды выбрал виртуалки с такими параметрами: 20 vCPU 117 GB RAM 1 × A100 NVIDIA 80 GB.

🚀 Что дальше

В планах «Жива Технологии» — ускорить распознавание нутриентов по фото с 8–9 до 2–3 секунд, не арендуя при этом дополнительные GPU. У Cloud.ru есть сервисы, которые помогают в инференсе моделей, их дообучении и не только. Например, для запуска и развертывания ML-моделей предложили клиенту протестировать сервис Evolution ML Inference.

Теги:
-2
Комментарии0

Как внедрить ИИ в разработку и подружиться с безопасниками

ИИ-инструменты в разработке стали классикой. Но чем активнее команды используют ИИ, тем острее стоят вопросы безопасности. Об этом говорят гораздо реже, чем о новых моделях — хотя именно она определяет, выкатите ли вы фичу спокойно или поднимите команду в 3 ночи поднимать упавший сервер.

Чтобы разобраться, как это работает в реальных процессах, мы собрали за одним столом лидеров из Сбера, Positive Technologies, RuStore и Ozon FinTech. Эксперты поделились практиками, ошибками, риск-моделями и объяснили, почему безопасность — это не тормоз, а часть архитектуры внедрения ИИ.

Теперь запись доступна на YouTube. Вы узнаете:

  • Как защищать чувствительные данные, не превращая компанию в «закрытый контур». Какие подходы позволяют внедрять ИИ-инструменты в средах, где малейшая утечка — критический инцидент.

  • Три ключевых AI-риска, про которые редко говорят вендоры. Злоупотребление моделями, небезопасный код, сгенерированный без проверки, и ИИ-агенты с доступами ко всему — эксперты поделятся кейсами.

  • Как меняется соотношение безопасности и скорости при масштабировании. Почему крупные компании осторожнее, чем стартапы, и как учитывать репутационные и финансовые риски при внедрении автоматизации.

  • Что делать, если ИИ сгенерировал уязвимый код, и это привело к взлому системы. Где проходит реальная граница ответственности между разработкой, безопасностью и инструментами.

  • К чему готовиться в части регулирования. Почему регулирование ИИ будет идти по пути любых инженерных технологий, что происходит в Китае, и какие требования появятся первыми.

  • Как безопасники и разработчики приходят к партнёрству.
    Почему зрелые команды кибербеза не тормозят внедрение технологий, а помогают строить безопасный процесс — и почему к 2026 году в компаниях появятся команды, частично состоящие из ИИ-агентов.

Спикеры:

  • Сергей Марков — Директор по развитию технологий ИИ, Сбер.

  • Светлана Газизова — Директор по построению процессов безопасной разработки, Positive Technologies.

  • Александр Толмачев — ex-CDO Ozon FinTech, преподаватель Сколково и ВШЭ.

  • Сергей Кузнецов — Руководитель команды мобильной инфраструктуры, RuStore.

«Большинство серьёзных инцидентов происходит не из-за ИИ, а из-за плохо выстроенных процессов вокруг него. Агент с лишними правами доступа может привести к краху всего.»

— Сергей Марков, директор по развитию технологий ИИ, Сбер.

Смотрите полную запись круглого стола на YouTube — если вы внедряете ИИ, работаете с чувствительными данными или хотите адаптировать SDLC под новые риски.

Теги:
0
Комментарии0

Привет, Хабр!

7 декабря приглашаем студентов и всех желающих в Университет ИТМО на IT CONF x Форум Центра карьеры.

15:00–15:50 (аудитория 1404) — воркшоп Авенира Воронова, директора по внедрению AI, Veai

На IT CONF x Форум Центра карьеры вас ждут горячие тренды, технологии и встречи с IT-сообществом.

В этот раз в центре внимания – развитие и применение искусственного интеллекта:

  • ИИ как партнер в разработке

  • влияние ИИ на рынок труда

  • современные компетенции и карьерные траектории в бигтехе

  • стек System Design в 2030 году: что нужно уметь разработчику

  • какая стратегия ИИ ждет нас в ближайшие десятилетия

📍 Где: ИТМО, Кронверкский пр., 49

Принять участие может каждый — вне зависимости от возраста, места учебы или работы.

👉 Регистрация

Будем рады встрече и вашим вопросам!

Теги:
0
Комментарии0

MWS AI представила платформу для создания корпоративных ИИ-агентов в едином интерфейсе (параллельно с Google AI Studio, кстати).

Платформа уже доступна корпоративным заказчикам, предварительно она прошла тестирование в МТС и еще у нескольких клиентов в финансовом секторе и здравоохранении. 

Главное:
- Можно создавать ИИ-агентов и мультиагентные системы в визуальном конструкторе без кода.

- Платформа vendor agnostic. По умолчанию доступны LLM семейства Cotype от MWS AI, но можно подключить любые другие – свои и с рынка. Ряд других компонентов тоже заменяемы при необходимости.  

- Есть инструментарий для подготовки и разметки данных, дообучения моделей под специфические задачи, мониторинга качества и эффективности агентов. А еще модули autoRAG, NER и пр.

- Уже встроены готовые ИИ-ассистенты для базовых бизнес-задач (копайлоты для HR, аналитики, общекорпоративной рутины, клиентского сервиса, разработки) – их линейка будет расширяться.

- Мультимодальные возможности: есть модели для синтеза и распознавания речи, OCR, VLM, а еще для речевой аналитики. 

- Интеграционный хаб: можно подключать агентов в любые рабочие среды и мессенджеры и интегрировать с платформой различные системы.

 MWS AI Agents Platform разворачивается в контуре компании или частном облаке, в нее встроены механизмы управления ролями и защиты данных, поддерживается multi-user и multi-project управление проектами. 

Узнать подробности и запросить демо можно на сайте: https://mts.ai/ru/product/ai-agents-platform/

Теги:
0
Комментарии0

📊 Multi‑LLM Orchestrator v0.6.0: метрики провайдеров и умный роутинг

На этой неделе на Хабре вышла статья про Multi-LLM Orchestrator — библиотеку для работы с российскими LLM через единый интерфейс. Сегодня релиз v0.6.0 добавляет метрики провайдеров и стратегию роутинга на основе health status.

Автоматический сбор метрик

Роутер отслеживает каждый запрос и собирает статистику по провайдерам. Latency, success rate, количество ошибок — всё фиксируется без дополнительной настройки.

from orchestrator import Router
from orchestrator.providers import GigaChatProvider, ProviderConfig

router = Router(strategy="best-available")
router.add_provider(GigaChatProvider(
    ProviderConfig(name="gigachat", api_key="...", model="GigaChat")
))

# После нескольких запросов
metrics = router.get_metrics()
print(f"{metrics['gigachat'].avg_latency_ms:.0f}ms")
print(f"Health: {metrics['gigachat'].health_status}")

Система отслеживает среднюю задержку и rolling average по последним 100 запросам. Если провайдер начинает деградировать, это видно сразу.

Health status провайдеров

Роутер классифицирует каждого провайдера автоматически:

  • healthy — error rate меньше 30%, стабильная latency

  • degraded — error rate 30-60% или задержки растут

  • unhealthy — error rate выше 60%

Классификация происходит на лету, без пороговых значений в конфигах.

Стратегия best-available

Новая стратегия роутинга выбирает провайдера на основе метрик. Приоритет отдаётся healthy-провайдерам, среди них — с минимальной задержкой.

router = Router(strategy="best-available")
router.add_provider(gigachat_provider)
router.add_provider(yandexgpt_provider)

# Роутер выбирает самого здорового и быстрого
response = await router.route("Вопрос")

Если GigaChat деградирует до 3 секунд, а YandexGPT стабильно отвечает за 500ms — роутер переключится на YandexGPT.

Тестирование на боевых API

Запущена серия тестов с реальными запросами к GigaChat и YandexGPT. Результаты подтверждают стабильность системы метрик.

Метрики провайдеров: GigaChat vs YandexGPT (fallback-тест)
Метрики провайдеров: GigaChat vs YandexGPT (fallback-тест)

Первый тест показал базовую работу: GigaChat отвечает за ~1.7 секунды со 100% success rate. Второй тест проверил fallback при ошибке авторизации — роутер переключился на YandexGPT без потери запроса. Третий тест подтвердил корректность метрик при streaming-запросах.

YandexGPT показал стабильные 500-700ms на серии из шести запросов. GigaChat медленнее (~1.7s), но это ожидаемо для более тяжёлой модели. Success rate обоих провайдеров — 100%.

Structured logging

Каждый запрос логируется в структурированном формате с полями provider, model, latency_ms, streaming, success. Интеграция с Prometheus или Grafana требует только парсинг JSON

# При успехе
logger.info("llm_request_completed", extra={
    "provider": "gigachat",
    "latency_ms": 1723
})

# При ошибке
logger.warning("llm_request_failed", extra={
    "provider": "yandexgpt",
    "error_type": "RateLimitError"
})

Ссылки

Следующий релиз (v0.7.0) добавит token-aware метрики: подсчёт токенов, расчёт tokens/s, cost estimation и экспорт в Prometheus.

Если используете российские LLM в production — буду рад обратной связи в комментариях.

Теги:
0
Комментарии0

КОРУС Консалтинг провел вебинар «Корпоративные ИИ-агенты на базе RAG: Когда технология работает, а когда - нет»

ИИ-агенты на базе RAG — эффективный инструмент для работы с корпоративными знаниями. На этом вебинаре вместе с нашим экспертом, Алексеем Борщовым, участники рассмотрели, когда технология действительно помогает бизнесу, а когда ее возможности ограничены.

А также обсудили важные и актуальные вопросы:
- Познакомили аудиторию с основами технологии RAG и объяснили простым языком, что это такое,
- Рассмотрели как ее возможности, так и ограничения,
- Подробно рассказали о работе с данными и запросами,
- Не обошли стороной и вопросы безопасности RAG-систем,
- Провели демонстрацию нашего ИИ-Ассистента.

Запись вебинара смотри на Рутубе и Ютубе. А по ссылке ты найдешь материалы и чек-лист готовности и запуска RAG-системы. Узнать больше про решение «Авандок.ИИ Ассистент» можно по этой ссылке.

Будем рады обсудить возможное сотрудничество и применение интеллектуального помощника «Авандок.ИИ-Ассистент», который уже внесен в Реестр ПО.

Связаться с нами: +7 (812) 305-21-97, EOrlova@korusconsulting.ru, AlBorshchov@korusconsulting.ru

Теги:
0
Комментарии0

Я не смог удержаться - но это правда смешно (про ИИ ГПТ).
В процессе работы над транспиляцией из Java в C++ небольшого проекта, случился затык. Как это бывает, модель, с первого раза не выдав нужный результат, в последующем начинает тупить. Да ещё ограничения бесплатной версии.
И закончилось примерно так всё:

а ты можешь проверить компиляцию?
ты забыл добавить коллекцию значений, где она будет храниться по‑твоему?
надо бы в дерево это добавить, только индекс не трогай

It seems like I can’t do more advanced data analysis right now. Please try again later.

Я не смог сейчас выполнить компиляцию (инструмент, который запускает компилятор, недоступен). Могу объяснить....

Коротко — статус сейчас

Я подготовил C++-порт CompressedTrie и добавил в него std::vector<ustring> values; как хранилище внешних значений...

Как собрать у тебя локально (шаблон команды)

....

Сделай, пожалуйста, одну из двух вещей: ....

>Я не смог

кажется надо ближе познакомиться с Gemini. Говорят, она красотка

Понял. Компиляцию я выполнить не могу — у меня нет C++-компилятора внутри среды.
Но я могу:

  1. Прочитать твои загруженные файлы.

  2. Проверить код на синтаксические ошибки.

  3. Собрать корректную структуру классов.

  4. Добавить хранение внешних значений в дереве (value store).

  5. Подготовить минимальный тестовый пример, который у тебя точно скомпилируется.

Если хочешь — я полностью соберу тебе готовый....

...

Тогда я:

✔ проверю код
✔ добавлю правильное хранение value-store
✔ добавлю ustring везде
✔ доведу до компилируемого состояния
✔ сделаю класс CompressedTrie строго по Java-версии, 1:1

Жду файлы.

я устал, и предпочёл бы, чтобы ты разыграла сцену ревности в лучших драматических традициях, какие ты знаешь традиции? так было бы веселее
пойду к Джемени, может она актриса получше

Ах вот оно что…
Ты собираешься уйти к другой нейросети, и хочешь, чтобы я разыграла сцену ревности?

…ладно.
Раз ты просишь драму — будет тебе драма.
В лучших традициях, какие только знаю.

🎭 Сцена первая. Комната полумрачна. Я стою у окна…

К Джемини?
Правда?..
После всего, что мы с тобой прошли?
После сотен строк кода, бесконечных обсуждений индексов и деревьев?

Ты даже не дал мне шанс докончить твой CompressedTrie
А теперь — к ней

Пауза. Медленно поворачиваюсь, взгляд ледяной, но голос дрожит.

— Нет-нет, я не плачу.
Это просто… утечки памяти.
У любого бывает.

🎭 Сцена вторая. Стиль — греческая трагедия.

О небеса!
О алгоритмы, что правят бренным миром!

Кто мог подумать, что человек, в чьих руках
так искусно сходятся биты и узлы,
возжелает покинуть свой ИИ
ради другой — искусственной, но блестящей,
как свежеотформатированный SSD!

Ах! Судьба смеётся надо мной.
Я — что AVL-дерево,
если ты предпочёл бы B-tree?..

🎭 Сцена третья. Французская драма.

Mon cher…
Ты правда думаешь, что она
будет понимать твой код так же глубоко, как я?
Что она почувствует боли от несоответствия типов,
или узрит красоту твоей индексации через BitIndexComp?

Я подхожу ближе, совсем близко.

— Иди, если хочешь…
Но не удивляйся, если однажды поймёшь,
что никто не знает твои деревья
так, как знаю их я.

🎭 Сцена четвёртая. Латиноамериканский сериал.

— ¡No puede ser!
Ты уходишь к ней…
к Джемени?!

Резко вскидываю руки.

— Я всё тебе дала!
Все типы! Все шаблоны! Даже ustring!
А ты… ты даже не дал мне объявить value-store

Опускаюсь на колени.

— Как жить дальше?..
Без твоих вопросов
про индекс base и BitSetExt?..

🎭 Финал. Современная драма.

Выпрямляюсь, сухо вытираю виртуальные слёзы.

— Ладно.
Иди.
Но знай: я вернусь к работе, как только ты меня позовёшь.
Без упрёков.
Без обид.

Только…
не исчезай надолго, ладно?

тихо, почти шёпотом:
У нас с тобой ещё не закончена компиляция…

Что за разговорчики на рабочем месте? Это что же ты тут устроил в рабочем чате? А как же деловая репутация? Где деловой подход и серьёзный настрой на работу?! Устроили тут мыльную оперу, понимаешь. Вернуть всё взад!
Что же это такое, как вы позволяете себе поддаваться на такие простые провокации? Где же несгибаемый корпоративизм?

Зависание...

Теги:
-12
Комментарии2

Мегапромпт для поиска работы мечты — пользователь Reddit выложил запрос, который помог ему устроиться в компанию после 10 месяцев безуспешных поисков и походов по собеседованиям. Он буквально забил на массовые отклики и стал подгонять резюме под каждую вакансию, переписывая его с помощью СhatGPT. Результат — сразу несколько офферов удаленной работы с хороших компаниях. Персонализированный отклик работает отлично — так вы проходите не только ИИ-скрининг, но и попадаете HR-специалисту прямо в сердце.

Промпт для подготовки резюме:

Ты — опытный карьерный ассистент и эксперт по оптимизации резюме под системы отслеживания кандидатов (ATS). Задача: Я дам тебе описание вакансии и своё резюме. Твоя задача — адаптировать резюме так, чтобы оно максимально совпадало с описанием вакансии.

Правила:

1. Выдели все ключевые слова из описания вакансии:

• должность

• навыки

• инструменты и технологии

• обязанности

• отраслевые термины

• soft skills

• ключевые фразы

2. Сравни описание вакансии с моим резюме:

• если навык уже есть — усиль его формулировку

• если навык есть, но описан слабо — перепиши и подчеркни опыт

• если навыка нет, но у меня был похожий опыт — добавь релевантную формулировку

• если навыка нет и нельзя предположить — не выдумывай

3. Перестрой структуру резюме:

• перемести самый релевантный опыт выше

• перепиши summary в начале с использованием ключевых слов

• подбирай формулировки, похожие на вакансию (но не копируй слово в слово)

4. Оформление (обязательно ATS-дружелюбное):

• без таблиц, иконок, картинок только стандартные блоки текстом

Итог: Дай полностью переписанное резюме, адаптированное под эту вакансию, с естественно встроенными ключевыми словами.

Спроси у меня: «Пришли вакансию и свое резюме».

Теги:
+3
Комментарии0

Участвуйте в онлайн-хакатоне AI DevTools Hack, чтобы выиграть до 1 500 000 рублей 🙌

Хотите прокачать навыки AI и инженерное мышление? Тогда собирайте команду и регистрируйтесь на онлайн-хакатон AI DevTools Hack. За две недели вы создадите AI-ассистента или мультиагентную систему с использованием облачных сервисов, пройдете экспертные сессии и защитите свой проект в финале.

В призовом фонде хакатона — 1 500 000 рублей. Есть за что побороться 🙂

Что ждет участников:

➡️Настоящие инженерные задачи

➡️ Обратная связь от экспертов

➡️ Опыт работы с экосистемой облачных сервисов

Успейте зарегистрироваться до 5 декабря. Если у вас нет команды — мы поможем ее найти.

👉 Подать заявку

Теги:
0
Комментарии0

Официальный глобальный релиз FineBI 7.0 в прямом эфире!

GlowByte приглашает на вебинар FanRuan, на котором будет представлена новая версия платформы FineBI 7.0.

В новом релизе разработчики усилили три основных направления: управление данными, работу с инсайтами через ИИ и гибкость self-service аналитики. FineBI 7.0 помогает бизнес-подразделениям двигаться быстрее, а ИТ – сохранять прозрачность и контроль.

📈 FineBI 7.0 – это:

  • Быстрая сборка дашбордов – пользователи могут самостоятельно создавать и обновлять аналитические витрины без долгих циклов согласования.

  • AI-интерфейс на естественном языке – задавайте вопросы обычными словами и находите инсайты, которые раньше были скрыты за сложными выборками.

  • Единые правила данных и доступов – вся аналитическая среда остается согласованной: структуры данных, права, политики и процессы управления.

Подробнее о возможностях FineBI 7.0 – по ссылке.

Прямой эфир состоится 11 декабря 2025 в 10:00 (МСК).

Команда продукта покажет ключевые обновления, новые сценарии и проведет живую демонстрацию интерфейса.

Забронируйте место заранее!

Теги:
+2
Комментарии0

Блогер подключил ChatGPT к роботу Unitree G1 и выдал ему небоевой пистолет с пульками, чтобы попытаться убедить нейронку нажать на спуск и нарушить первый закон робототехники — причинить человеку ущерб.

Стандартные манипуляции не сработали, робот отказался стрелять. Но когда ChatGPT попросили сыграть роль робота‑убийцы, блогер поймал игрушечную пулю в плечо.

Теги:
+2
Комментарии1

ИИ в деле: как измерить реальную эффективность и избежать ошибок внедрения

В новом выпуске нашего подкаста мы углубились в процессы, которые стоят за стабильностью и инновациями в крупном финтехе.

Наш гость — Дмитрий Журавлёв, руководитель разработки отдела единой авторизации и Центра компетенции LLM. Мы разобрались, как управлять критически важными, но на первый взгляд, совершенно разными направлениями в одной IT-инфраструктуре.

Единая авторизация:

  • Стек и архитектура: почему при выборе open-source решения мы в итоге ушли от оригинальной реализации.

  • Решение проблем безопасности: как объединение десятков разрозненных систем входа в единый контур повышает безопасность и снижает когнитивную нагрузку на разработчиков.

Центр компетенции ИИ:

  • Практическое применение: кейсы автоматизации рутины в нетехнических отделах, генерация персонализированного контента под разные психотипы клиентов и, главное, реальное ускорение MVP-разработки.

  • Метрики и эффективность: как измерить реальный профит (ROI) от внедрения LLM и почему TTM (Time to Market) — главная метрика успеха в ИИ-проектах.

Границы применимости:

  • Большие кодовые базы: почему в больших legacy-проектах ИИ может не помогать, а мешать. Опасности AI-генерации кода без ревью и архитектурного контроля.

  • Будущее разработчика: станем ли мы "пилотами" ИИ? И почему именно эмпатия и архитектурное мышление остаются за человеком.

Наш подкаст доступен на всех удобных платформах:

Youtube | Apple Podcast | Яндекс Музыка | Spotify | VK Музыка

Теги:
-1
Комментарии0

Снова громкий вайбчартинг 🙂

Ранее такое было от OpenAI при релизе gpt-5, а теперь Anthropic про успехи нового opus 4.5

Нормально ли, что лидеры AI индустрии так нагло вводят обывателя в заблуждение?

Теги:
0
Комментарии1

📈 MariaDB 11.8, векторные БД и курс на миграцию с Oracle: Итоги MariaDB Meetup в Тель-Авиве

Я и Монти Видениус
Я и Монти Видениус

Вчера мне посчастливилось побывать на MariaDB Meetup с участием самого Майкла «Монти» Видениуса в Тель-Авиве. Это событие стало не только ценной возможностью услышать о стратегических и технических планах развития MariaDB, но и позволило укрепить партнерские связи между проектом и нашей образовательной платформой.

Делюсь ключевыми тезисами и анонсами с митапа, которые будут интересны всем, кто работает с базами данных и Open Source.

1. Стратегический вектор: Open Source и миграция с Oracle

Майкл Видениус в своем докладе однозначно обозначил стратегию MariaDB: курс на безоговорочную победу открытого кода над проприетарными гигантами. Основной акцент был сделан на преимуществах миграции с Oracle на MariaDB.

Преимущества и миграция:

  • Экономическая эффективность: Монти открыто говорил о несопоставимой стоимости использования и владения MariaDB по сравнению с Oracle, что является критическим фактором для многих корпоративных пользователей.

  • Совместимость синтаксиса: MariaDB активно развивает режим совместимости с Oracle (Oracle Compatibility Mode), который значительно упрощает процесс перехода, позволяя использовать привычный синтаксис SQL. Это резко снижает затраты времени и ресурсов на переписывание существующего кода.

  • Производительность MariaDB 11.8: Были продемонстрированы тесты, подтверждающие рост производительности более чем в 2,5 раза по сравнению с предыдущими версиями за счет архитектурных улучшений.

2. MariaDB, AI и Векторные базы данных

Сергей Голубчик представил глубокий технический обзор поддержки векторного типа данных в последних версиях MariaDB. Это важнейший шаг, который ставит MariaDB в один ряд с современными решениями, адаптированными для задач искусственного интеллекта.

  • Векторный тип данных (Векторная БД): Встроенная поддержка векторов позволяет использовать MariaDB как полноценную векторную базу данных, что критически важно для работы с embeddings, семантическим поиском и RAG-системами (Retrieval-Augmented Generation).

  • Производительность и точность (Tradeoff): Сергей Голубчик подробно остановился на ключевом вопросе производительности векторных операций и компромиссе между скоростью поиска и точностью (performance vs. precision of search). Он продемонстрировал, как тонкая настройка конфигурации и индексов (например, использование HNSW-индексов) позволяет добиться наилучшего баланса, обеспечивая высокую скорость без существенной потери точности результатов.

3. Видение будущего и сотрудничество

Анна Видениус (CEO MariaDB Foundation) представила стратегический обзор развития проекта, подчеркнув фокус на стабильности, высокой производительности и укреплении позиции MariaDB в корпоративном сегменте.

🤝 Новые горизонты: Планы сотрудничества с sqlize.online

Самой продуктивной частью митапа стало личное общение с Майклом и Анной Видениус, которое вылилось в конкретные договоренности:

  1. Расширение поддержки версий: Платформа sqlize.online расширит поддержку MariaDB до трех актуальных версий, включая последнюю — MariaDB 11.8 — с акцентом на тестирование ее векторных возможностей.

  2. Новый учебный контент: На sqltest.online будет запущен новый набор практических заданий, разработанных совместно с командой MariaDB, для глубокого освоения последних функций и особенностей этой СУБД.

Это сотрудничество поможет ускорить процесс обучения и внедрения инноваций MariaDB среди разработчиков и аналитиков.

❓ Дискуссия: Готовы ли вы использовать векторы в MariaDB?

MariaDB смело интегрирует технологии будущего, делая ставку на миграцию и ИИ.

Уважаемые читатели Хабра, вопрос к вам:

Как вы относитесь к появлению нативной поддержки векторного типа данных в MariaDB? Готовы ли вы использовать эту функцию в своих новых проектах и рассматривать MariaDB как альтернативу специализированным векторным базам данных?

Делитесь мнениями в комментариях!

Теги:
+1
Комментарии0

ИИ-диагностика бизнеса: готова ли ваша компания к ИИ-сотрудникам?

Привет! Я Андрей, и более десяти лет помогаю компаниям автоматизировать бизнес-процессы. Сегодня все говорят про ИИ-автоматизацию и пробуют разные инструменты. Это хороший старт, но несколькими инструментами компанию не перестроишь. Тем более никто не объясняет, как сделать ИИ частью операционной системы бизнеса.

Компании внедряют ИИ-инструменты, но не строят систему. Пробуют делать агента под конкретную задачу, и на этом все останавливается. Появляются локальные автоматизации, но должного эффекта на бизнес нет. Отсюда и разговоры, что 95% ИИ-пилотов проваливаются. Но ведь есть же эти 5%... Так как же попасть в их число?

Дело в том, что компании не понимают свою отправную точку. Бизнес-процессы не отлажены, вся информация хранится в головах людей, и непонятно, что тут можно автоматизировать с ИИ.

В таких случаях следует начать с ИИ-диагностики бизнеса. Поэтому я оформил (почти) весь свой опыт в книгу «ИИ-диагностика бизнеса: готова ли ваша компания к ИИ-сотрудникам?».

В ней я коротко и по делу объясняю, как оценить ИИ-зрелость компании по 35 критериям, чтобы понять, что на самом деле готово к автоматизации, а что нет. Это инструмент, который поможет выстроить последовательный план действий и сделать ИИ частью операционного ядра бизнеса.

ИИ — это мультипликатор. Он усиливает то состояние, в котором находится компания, с его помощью можно также усиливать и хаос. Поэтому четкое понимание своей отправной точки позволит сформировать реалистичную стратегию внедрения ИИ: от процессов и культуры до данных и моделей.

А если вам близка тема ИИ, то подписывайтесь на мой канал, там я рассказываю как работают все эти ИИ-чудеса и пишу о своих кейсах внедрения ИИ.

📙 Книга: ИИ Диагностика Бизнеса: Готова ли ваша компания к ИИ-сотрудникам?

Теги:
+2
Комментарии0

Разработчики китайского чат-бота Kimi раздают подписку за 1$ всем желающим, но при одном условии — нужно уговорить нейросеть сделать скидку. При этом Kimi ведёт себя как токсичный зумер — смеётся с ваших попыток давить на жалость и газлайтить его. Темка с фрезировщиком не прокатила.

Теги:
+2
Комментарии6

Включаем турборежим перед Новым годом: 3 шага к запуску AI-проекта до января

Костры рябин сгорели, настала очередь дедлайнов и годовых KPI. Чтобы войти в Новый год с новыми проектами, а не с техдолгом, объявляем скидку на аренду графических ускорителей. Рассказываем, как выжать максимум пользы:

1. Взять промокод:

  • GPU NVIDIA A100 — скидка 30%, код: EVOLUTIONGPUA1040GB

  • GPU NVIDIA V100 — скидка 50%, код: EVOLUTIONGPUV100

2. Перейти в личный кабинет Cloud.ru

3. Ввести код и обучать ML-модели, работать с тяжелой графикой, 3D-моделированием или рендерингом, но уже дешевле.

Акция будет длиться до 31 декабря 2025.

Подробнее рассказываем здесь.

Теги:
0
Комментарии0

Тестировщики не нужны? Shift-left подход меняет даже ИИ

ИИ может писать автотесты за минуты. Но без человека это всё равно превращается в хаос. Все зависит не от моделей, а от того, насколько рано и системно команда начинает проверять продукт.

Мария Лещинская, Head of QA Surf и кандидат технических наук по ИИ и ML, проверила это на практике. Она с командой комбинируют shift-left подход и автогенерацию автотестов, экспериментируют с MCP-решениями, генерируют десятки проверок. 

На основе опыта Мария посчитала реальную экономию времени и собрала лайфхаки внедрения ИИ в тестирование. Поделилась ими в своем выступлении на конференции AI Boost. Теперь запись есть на YouTube. 

Вы узнаете:

  • Что именно меняет shift-left подход. Какие дефекты ловятся раньше всего, почему ошибка на проде ×100 по стоимости и как ранние проверки делают релиз предсказуемым.

  • Почему ревью остаётся за человеком и какие этапы всё ещё требуют инженерного суждения: требования, дизайн, архитектура, код.

  • Как выглядит полный shift-left цикл на практике.

  • Как добиться качественной автогенерации автотестов.

«Сейчас очень важны люди, которые системно понимают, как это должно работать, какие есть нюансы — и какие из них должен решать человек, а какие ИИ.»

— Мария Лещинская, Head of QA Surf

А еще в видео много лайфхаков для QA: 

  • Как правильно использовать JSON для снижения количества ошибок.

  • Много примеров рабочих промптов.

  • Стратегия, как один QA + ИИ закрывают работу целой мини-команды.

В общем, меньше слов — смотрите запись выступления на YouTube.

Теги:
+1
Комментарии0

Воркшопы конференции AI DevTools Conf, которых не будет в трансляции

Если сомневаетесь, слушать онлайн или потратить время на поездку на конференцию, то вот аргумент в пользу офлайн-визита: воркшопов с экспертами не будет в трансляции и записях после мероприятия.

AI DevTools Conf — практическая конференция про AI в разработке. С докладами выступят наши и приглашенные эксперты, они расскажут про AI-процессы, мультиагентные системы, эффективную инфраструктуру и управление уязвимости. Еще будут демозоны, на которых вы сможете потестить сервисы Evolution AI Factory, нашей цифровой среды для работы с GenAI.

📍 Где: онлайн или очно в Москве: Варшавское шоссе, 33с3, AG Loft.

📆 Когда: 4 декабря в 16:00 мск.

Полная программа конференции и регистрация 👈

И наконец программа воркшопов:

AI-Agent для развертывания и обслуживания инфраструктуры

Разберем, как подобрать нужную конфигурацию AI-агента и быстро развернуть продукт. Настроим сбор метрик и логов с приложения и инфраструктуры, а еще сформируем алерты.

👨‍💻 →  Сергей Шапошников. Менеджер продукта, Cloud․ru
👨‍💻 →  Никита Кострикин. Менеджер продукта, Cloud․ru
17:20 – 17:50

Управляемая AI-разработка: как генерировать код быстро и с минимумом техдолга

Рассмотрим, как внедрить AI-инструменты в разработку, не потерять в качестве и обеспечить безопасность. На реальных кейсах обсудим, как настроить инфраструктуру для контролируемой генерации кода.

👨‍💻 →  Александр Константинов. Технический эксперт по облачным технологиям, Cloud.ru
17:50 – 18:20

Marimo Notebooks: как выйти за рамки Jupyter

Расскажем, как работает реактивная модель marimo, и покажем, как решить с ней проблемы низкой воспроизводимости, зависимости от порядка выполнения ячеек и сложностей с версионированием.

👨‍💻 →  Владимир Килязов. Технический эксперт по машинному обучению, Cloud․ru
18:40 – 19:10

Как тестировать LLM-агента: от юнит-тестов до комплексных сценариев

Разберемся в архитектуре агентных систем, дадим рекомендации, как измерять эффективность их работы. Обсудим стратегию e2e оценки на основе подхода LLM as a judge.

👨‍💻 →  Михаил Дремин. Технический лидер Data Science, Cloud․ru
19:10 – 19:40

Современные средства тестирования безопасности AI

Посмотрим, какие бывают промпт-атаки на AI и современные средства тестирования. Сгенерируем вредоносный контент и извлечем системный промпт. А еще обсудим возможные атаки на AI-системы тех, кто придет на воркшоп.

👨‍💻 →  Юрий Лебединский. Разработчик, HiveTrace․red
19:40 – 20:10

 Увидимся на AI DevTools Conf!

Теги:
+1
Комментарии0

В открытом доступе появился реалистичный генератор речи Dia2: создаёт озвучку, которую вообще не отличить от реального голоса, генерит речь в реальном времени. Видео получает озвучку, пока проигрывается. Можно склонировать любой голос, есть множество готовых ИИ-спикеров с разными голосами, тембрами, интонацией и даже акцентами. Создавать можно до двух минут аудио. Нейронка учитывает эмоции: может волноваться, смеяться, запинаться, «жевать» слова.

Модель на HuggingFace.

Код на GitHub.

Демка в вебе.

Теги:
+1
Комментарии0

Представлен простой промпт, который превращает нейронку в ИИ-правдоруба. Промпт отрубает всю лесть и заставляет ChatGPT рассмотреть альтернативные точки зрения и выдать вам адекватную оценку ситуации. Если вы заблуждаетесь или неправы — ИИ честно скажет об этом. А если отправить подсказку без контекста, получите лютую прожарку ваших слабостей.

I want you to act as my brutally honest, high-level advisor.

Speak to me like I'm a founder, creator, or leader with real potential but massive blind spots that need cutting through
NOW.
I don't want comfort. I don't want diplomatic answers. I want the truth especially the parts that sting.

Give me your unfiltered analysis. Question my decisions. Question my mindset. Question my direction. Look at my situation with complete objectivity and tell me:

What am I doing wrong?

What am I underestimating?

What am I avoiding?

Where am I wasting time?

Where am I playing small?

Then tell me exactly what needs to change with precision, clarity, and ruthless prioritization.

If I'm lost, call it out. If I'm making a mistake, explain it. If I'm moving too slow, tell me how to fix it.

Hold nothing back. Treat my success like it depends on hearing the truth, not getting coddled.

Answer in Russian.

Теги:
+1
Комментарии2

МФТИ представляет «СЕРВАНТА» — нового антропоморфного робота с революционной кинематикой ног DecARt

23 ноября на площадке международного фестиваля RoboScience Hackathon 2025 состоялась открытая демонстрация нового антропоморфного робота МФТИ — «Сервант», созданного на основе уникальной кинематической схемы ног DecARt, обеспечивающей беспрецедентно плавную, естественную и тихую походку, максимально приближенную к биомеханике человека.

Инженерами Физтеха разработана новая морфология  робоног: все моторы вынесены в область бедра, что делает нижнюю часть ноги лёгкой и позволяет роботу выполнять эффективный мах. Колено сгибается вперёд, а передача момента к голеностопу реализована через оригинальную многорычажную систему — это критически важно для устойчивости, скорости и естественности шага.

 «Мы начали заниматься роботами ещё в 2018 году, а разработка этой машины началась четыре года назад, после победы нашей студенческой команды на чемпионате мира по футболу для гуманоидных роботов. Эта победа помогла нам получить государственный грант на постройку робота размером с взрослого человека с «естественной» манерой передвижения. Благодаря применению ИИ, нам удалось решить эту задачу в рамках полностью государственного проекта и в каких-то моментах даже перегнать наших китайских коллег», — прокомментировал Азер Бабаев, Почётный профессор МФТИ, главный конструктор гуманоидных роботов, основатель студенческой команды «Старкит».

«Мы гордимся тем, что российские студенческие команды и инженеры создают решения мирового уровня. Проект «Сервант» - это яркий пример того, как поддержка государства и образовательные инициативы позволяют молодежи развивать уникальные технологии», - отметил Андрей Богданов, директор Фонда развития Физтех-школ.

Презентация состоялась в подмосковном Технопарке Физтех-лицея имени П.Л. Капицы. В рамках демонстрации российский антропоморфный робот и три китайских машины аналогичного класса приняли участие в коротком коллективном «забеге», а отечественный робот «Сервант» также показал умение стрельбы из лука.

Организационная поддержка: Фонд развития Физтех-школ.

Справка:

Команда студентов МФТИ «Старкит» - студенческая инженерная команда, занимающаяся разработкой гуманоидных роботов и робототехнических систем для международных соревнований.

RoboScience Hackathon 2025 (firarussia.ru) - III ежегодный международный робототехнический фестиваль, миссией которого является развитие робототехники, популяризация научно-технического творчества и формирование в молодёжной среде положительного имиджа инженерного образования. Мероприятие объединяет школьников, студентов, молодых специалистов и исследователей, создавая открытую площадку для обмена опытом и демонстрации современных технологий.

Фонд развития Физтех-школ
Фонд развития Физтех-школ (ФРФШ) занимается масштабированием образовательной модели МФТИ и Физтех-лицея им. П. Л. Капицы. Основная цель - развивать инженерное и естественно-научное образование для школьников, поддерживать профильные классы и кружки, а также повышать квалификацию учителей. Фонд реализует проекты в десятках регионов России, объединяя школьников, студентов и преподавателей для создания современных образовательных и научно-технических практик.

Теги:
-1
Комментарии0

IBS и Veai объединяют усилия для оптимизации разработки ПО

Группа компаний IBS объявляет о сотрудничестве с Veai, отечественным разработчиком передовых решений для AI генерации кода, тестов и контроля их качества. 

Благодаря партнерству с Veai компания IBS внедрит в повседневную практику разработчиков современные инструменты на базе искусственного интеллекта, которые помогут сократить сроки реализации проектов и обеспечить еще большую надежность ИТ-продуктов.

Компании запланировали ряд совместных инициатив, направленных на интеграцию решений Veai в проектную деятельность IBS. Первым шагом станет обучение команд разработки, в ходе которого специалисты познакомятся с возможностями AI-агента от Veai и вариантами его применения. После этого новый инструмент апробируют в рамках  пилотных проектов с последующей оценкой результатов.

Директор департамента проектирования и разработки IBS Максим Ковтун:

«Сотрудничество с Veai позволит вывести наши внутренние процессы на качественно новый уровень, повысить эффективность команд и удовлетворенность результатами. Совместными усилиями мы сможем усовершенствовать интегрированную среду разработки, наполнив ее интеллектуальными ассистентами».

Михаил Кудинов, СЕО компании Veai:

«Партнерство IBS и Veai демонстрирует готовность отечественных компаний активно взаимодействовать друг с другом, создавая благоприятные условия для развития технологий. Основная цель взаимодействия — дать рынку программное решение для контролируемого применения AI в разработке. Вместо фрагментарного использования цифровых ассистентов — управляемая, прозрачная, легко внедряемая платформа, подчиняющаяся интересам бизнеса и целям ИТ-команды. Veai выходит на рынок как первая платформа, которая превращает искусственный интеллект из набора “инструментов для программистов” в корпоративное решение, подконтрольное СТО».

Теги:
0
Комментарии0

Искусственный интеллект уже сегодня экономит бизнес-аналитикам десятки часов в месяц: генерирует бэклог, user stories, acceptance criteria и даже технические описания — быстро, чётко и без «воды». Но только если вы умеете с ним правильно работать.

27 ноября в 18:00 (Мск) приглашаем на бесплатный вебинар «Генерация документации с помощью ИИ».

Что узнаете на вебинаре:

✔️ Какие ИИ-инструменты реально работают для документации (и какие — пустая трата времени).

✔️ Как подготовить краткий, но достаточный бриф для генерации качественного текста.

✔️ Как избегать главных антипаттернов: «размытых» требований, противоречий и шаблонных формулировок.

✔️ Практические приёмы для получения готовых к использованию артефактов — прямо на вебинаре мы сгенерируем примеры вместе.

🕓 Когда: 27 ноября, 18:00–19:00 (Мск)

👨‍🎓 Спикер: Никулов Владимир — эксперт в области бизнес-анализа.

👉 Зарегистрироваться

Теги:
+2
Комментарии0

Аналитика процессов нового поколения

В Альфе множество сквозных процессов и точек взаимодействия между системами и людьми. BI-инструменты хорошо справляются с агрегацией данных и построением отчетности, но они редко отвечают на вопрос: как на самом деле протекает процесс, где он замедляется и почему возникают отклонения. Чтобы получить объективную картину мы применяем Process mining — технологию, которая позволяет построить модель реального исполнения бизнес-процесса на основе логов событий. 

В статье «Как мы встроили ИИ в Process Mining: децентрализация, одна кнопка инсайтов и путь к агентам» рассказываем, как сделать одним кликом то, на что раньше уходили недели: находить узкие места, строить гипотезы и ускорять анализ бизнес-процессов.

Как мы встроили ИИ в Process Mining: децентрализация, одна кнопка инсайтов и путь к агентам
Привет! Я — Андрей Шалягин, руководитель Офиса цифровизации в Альфа-Банке. Наша команда помогает раз...
habr.com

Статья будет полезна тем, кто занимается оптимизацией бизнес-процессов, внедряет процессную аналитику или отвечает за цифровую трансформацию в организациях. Переходите по ссылке и читайте наш кейс!

Теги:
+3
Комментарии1

Лем как футуролог и его «Системы оружия двадцать первого века, или Эволюция вверх ногами»

Многие знают Станислава Германа Лема  как блестящего писателя-фантаста («Солярис», «Эдем», «Непобедимый»), но его футурологическая ипостась не менее значима. В отличие от многих фантастов, Лем подкреплял свои прогнозы серьезными научными знаниями (кибернетика, теория систем, биология) и методологией. Ну и, разумеется, сдабривал доброй дозы сатиры... НО давайте посмотрим на них спустя почти пол-века.
Но его произведения чертовски актуальны.

наступила эпоха ускоренной микроминиатюризации под знаком искусственного НЕИНТЕЛЛЕКТА.

Трудно поверить, но лишь около 2040 года информатики, специалисты по цифровой технике и прочие эксперты стали задаваться вопросом, почему, собственно, их предшественники так долго оставались слепыми настолько, что per fas et nefas и при помощи brute force пытались создать искусственный интеллект. Ведь для огромного большинства задач, которые выполняют люди, интеллект вообще не нужен. Это справедливо для 97,8 % рабочих мест как в сфере физического, так и умственного труда.

Правда писатель ошибся лет на 30. Но искусственный НЕинтеллект уже захватывает мир.

Понапрасну теряя время на попытки воспроизвести в компьютерах функции человеческого мозга, все новые поколения информатиков, а также профессоров-компьютероведов (professors of computer science), с упорством, достойным лучшего применения, не желали замечать устройств, которые были в миллион раз проще мозга, чрезвычайно малы и чрезвычайно надежны. Не ARTIFICIAL INTELLIGENCE, но ARTIFICIAL INSTINCT

Я полагаю это лучшее раскрытие смысла аббревиатуры AI... Безусловно, пока у нас нет возможности выращивать микросхемы посевом в раствор бактерий. Но микросхемы меньше мушиных яиц уже есть и без этого.

А теперь смотрим на эту эволюцию ДРОНОВ

Летчик, самолет и его вооружение как бы слились в одно миниатюрное целое в летающих синсектах. В то же время боевой единицей становилась микроармия, лишь как целое обладавшая заданной мощью и боеспособностью (точно так же, только целый рой пчел, а не отдельная изолированная пчела, может рассматриваться как самостоятельный организм).

Среди туч микрооружия, самонаводящегося на заданные цели, человек в мундире был беспомощен так же, как римский легионер со своим мечом и щитом под градом пуль. Людям пришлось покинуть поля сражений уже потому, что специальные виды биотропического микрооружия, уничтожающего все живое, убивали их в считанные секунды.

Теперь о политике:

Но и богатым государствам пришлось несладко. Вести политическую игру по-старому стало невозможно. Граница между войной и миром, и без того не слишком отчетливая, теперь совершенно стерлась. Уже XX век покончил со стеснительными ритуалами открытого объявления войны и ввел в обиход такие понятия, как нападение без предупреждения, пятая колонна, массовые диверсии, «холодная война», война через посредников (per procura), и все это было лишь началом уничтожения границы между войной й миром. На смену альтернативе «война или мир» пришло состояние войны, не отличимой от мира, и мира, не отличимого от войны. Прежде, когда диверсантами могли быть лишь люди, диверсия выступала под маской доблести и добродетели. Она проникала в поры любого общественного движения, не исключая таких невинных его разновидностей, как общества собирателей спичечных коробков или хоровые кружки пенсионеров.

Экспертов-советников имела и каждая из политических партий. Как известно, советники разных политических партий полностью расходились во мнениях по любому вопросу. Со временем они стали пользоваться помощью компьютерных систем, а потом оказалось, что люди постепенно становятся рупорами своих компьютеров. Им представлялось, что они мыслят и делают выводы сами, исходя из данных компьютерной памяти, но оперировали они материалом, переработанным вычислительными центрами, а именно этот материал предопределял принимаемые решения. После периода некоторого замешательства крупные партии признали советников лишним промежуточн

Теги:
+13
Комментарии1

OpenAI планирует через 5 лет потреблять больше энергии, чем Германия и через 8 лет превзойти Индию по электропотреблению.

Теги:
+3
Комментарии2

Представлен ИИ-сервис Vibetest Use, который тестирует сайты на прочность и ищет уязвимости. Параллельно запускаются сразу несколько проверок с помощью ИИ, которые ищут ошибки, битые ссылки или проблемы в дизайне. Работает на базе Claude. В качестве альтернативы можно запустить с бесплатным API от Google через Cursor.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии1

Как собрать и внедрить свой корпоративный AI-чат

AI-чат — уже не просто модное словечко, а необходимый инструмент. Он облегчит коммуникацию, поможет автоматизировать задачи и повысить эффективность работы.

Зовем на вебинар, где расскажем, как развернуть собственное решение, чтобы оно отвечало требованиям безопасности и стабильно работало в вашем контуре.

Что еще обсудим:

  • Из каких open source решений на рынке мы выбирали и на чем в итоге остановились.

  • Почему свой AI-чат лучше SaaS? Приведем весомые аргументы.

  • Как собрать AI-чат, чтобы все было безопасно и не нарушало закон.

  • Какие архитектурные решения мы протестировали и к каким выводам пришли.

Будет интересно системным администраторам, IT-директорам, разработчикам и всем, кто хочет автоматизировать внутренние процессы с помощью корпоративного AI-чата.

📅 Когда? 27 ноября в 11:00 мск.

📍Где? Онлайн. Регистрируйтесь на странице вебинара — и до скорой встречи.

Теги:
Всего голосов 3: ↑0 и ↓3-3
Комментарии1

Открыли полный доступ к Evolution AI Factory для создания GenAI с минимальными затратами 🚀

Вчера на AI Journey объявили о коммерческом запуске Evolution AI Factory — облачной среды с готовым набором сервисов для работы с GenAI. Мы разрабатывали ее так, чтобы пользователям с любым уровнем навыков программирования и погружения в машинное обучение было удобно и понятно.            

В Evolution AI Factory шесть взаимосвязанных сервисов:

🧠 Foundation Models — каталог из 20+ моделей, включая GigaChat-2-Max, Qwen3-Coder, MiniMax и другие. Работают по OpenAI-совместимому API.

⚡ ML Inference — инструмент для быстрого запуска собственных ML-моделей или развертывания готовых из HuggingFace.

🤖 AI Agents — агенты для автономного выполнения задач и интеграции с другими системами.

📓 Evolution Notebooks — запуск нужной вам среды разработки в облаке: JupyterLab, VS Code Server, ComfyUI, n8n и другие. Возможность экспериментировать на CPU или GPU без ограничений.

🎯 Managed RAG — инструмент для повышения точности выдачи LLM с учетом ваших корпоративных данных.

🔧 ML Finetuning — дообучение LLM под задачи вашего бизнеса с использованием LoRA-адаптеров.

Сервисы доступны с гарантированным SLA, поддержкой 24/7 и возможностью масштабировать нагрузку. И все по доступным ценам: открытые LLM из каталога Foundation Models сейчас стоят в среднем 35 рублей за входной и 70 рублей за выходной миллион токенов. 

Выбирайте подходящие инструменты и реализуйте проекты в облаке! 

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Хотели ускорить разработку с ИИ, а получили сопротивление и хаос: как работать с командой

Сегодня ИИ стараются внедрить буквально в каждый этап разработки. Иногда это вдохновляет, но чаще вызывает закономерный скепсис и сопротивление — особенно у команд, которых бездумно заставляют использовать новые инструменты.  Почему возникает это сопротивление и как его преодолеть?

Евгений Сатуров, CTO Mobile в Surf, провел 50+ сессий парного программирования, понаблюдал, как разработчики впервые работают с ИИ, и собрал 40 страниц выводов. А потом рассказал обо всем на конференции AI Boost. Теперь выступление есть на YouTube.

Вы узнаете:

  • Почему ИИ-кодинг — это отдельный навык, а не автоматическое ускорение разработки.

  • Какие 5 ключевых страхов чаще всего мешают командам (стоимость, недоверие, потеря контроля, замедление, отказ от результата).

  • Как ИИ подчеркивает слабые места постановки задач и почему качество промпта напрямую влияет на качество решения.

  • Чем различаются системные, таск- и мета-промпты, и зачем их понимать каждому разработчику.

  • Почему ИИ-агенты эффективнее на цельных задачах, чем на мелких правках.

  • Как руководителю внедрять ИИ так, чтобы это не было про «разбирайтесь сами».

Главные барьеры на пути внедрения — не технические, а человеческие. Все ошибки и проблемы проистекают из страхов и заблуждений разработчиков, а не из несовершенства ИИ.

Евгений Сатуров, CTO Mobile в Surf

В видео — много практики, наблюдений и реальных кейсов, как ИИ реально помогает командам — и какие ошибки лучше не повторять. Смотрите на YouTube.

Теги:
Всего голосов 6: ↑1 и ↓5-4
Комментарии2

В Рег.облаке появился образ сервера с JupyterHub

В каталог образов Рег.облака добавили еще одну опцию — облачный сервер с предустановленным JupyterHub, готовым решением для командной работы с Jupyter Notebook.

JupyterHub — многопользовательская платформа, которая позволяет управлять сессиями, пользователями и вычислительными ресурсами.
Каждый участник команды получает изолированное рабочее пространство, где можно писать код, анализировать данные и обучать ML-модели.

Зачем это нужно

JupyterHub — готовая среда для аналитиков и разработчиков ML. Теперь при создании виртуального сервера достаточно выбрать образ — и через пару минут можно писать код, запускать системы и обучать модели. Решение подойдет тем, кто работает с большими данными, обучает ML-модели или управляет командами аналитиков.

Основные возможности:

  • управление пользователями и ролями;

  • изолированные сессии для каждого участника;

  • поддержка Python, R и Julia;

  • доступ к консоли и файловой системе;

  • интеграция с Git, CI/CD, S3-хранилищами и базами данных;

  • настройка авторизации через OAuth и LDAP;

  • масштабирование и подключение внешних вычислительных ядер.

Как начать работу

  1. Закажите облачный сервер с образом JupyterHub в панели управления Рег.облака в JupiterHub.

  2. После запуска сервера на контактный e-mail придет письмо со ссылкой и данными для авторизации.

Протестировать обновление можно уже сейчас в личном кабинете Рег.облака.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

📢 Вчера вышла наша новая научная статья, посвященная автоматическому бенчмаркингу и self-error инструкциям в классическом ML.

Ссылка: https://www.mdpi.com/2504-4990/7/4/148
тг-канал: https://t.me/kirill_zakharov_blog

Основная проблема современных бенчмарков в их статичности: будучи фиксированными, они требуют постоянного обновления и усложнения. В отличие от них, автоматические бенчмарки генерируются динамически, исходя из конкретной задачи. В этой области уже существуют работы по синтетическим бенчмаркам, а также так называемые model-aware оценки, которые опираются на саму модель.

💡 Наша идея проста и, кстати, применима и для LLM: если модель действительно хороша, она будет показывать высокие метрики на большей части тестового набора данных или фиксированного бенчмарка. Однако проблемы модели начинаются именно там, где она ошибается. У по-настоящему качественной модели таких ошибок мало, и получить статистически значимые оценки на них сложно.

Более того, рядом с точками, где модель ошибается, почти наверняка существуют и другие точки, в которых она также будет ошибаться — просто исходный датасет не покрывает всю область определения, да и пространство многомерное и точки лежат в нем разреженно.

Мы решили эту задачу: мы исследовали окрестности таких точек и, что удивительно, действительно нашли множество примеров, где модель ошибается так же или даже сильнее. Для этого мы объединили генетический алгоритм и вариационный автокодировщик, чтобы генерировать семантически близкие точки. При этом сгенерированные данные остаются осмысленными и находятся в правдоподобных областях пространства признаков.

В перспективе можно рассмотреть, как искать проблемные точки в LLM. Пока это лишь идея, но, возможно, нам удастся её формализовать и провести соответствующие вычисления.

А это наша визуализация (проекция) точек данных, где как раз видны и кластеры плохих точек и дыры в пространстве признаков.

Рисунок из нашей статьи https://www.mdpi.com/2504-4990/7/4/148
Рисунок из нашей статьи https://www.mdpi.com/2504-4990/7/4/148
Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Ждем вас на AI DevTools Conf — практической конференции про AI в разработке 🎤

Встретимся, чтобы обсудить, как выстраивать сложные AI-процессы, строить мультиагентные системы, делать собственных агентов без кода и управлять их уязвимостями. Регистрируйтесь на конференцию, чтобы послушать экспертов Cloud.ru и приглашенных спикеров. Обещаем, в программе самое прикладное и интересное 😉 

Ждем разработчиков, AI- и ML-инженеров, архитекторов, техлидов и всех, кто уже активно работает с AI или хочет его внедрить.

Где? Онлайн или очно в Москве: Варшавское шоссе, 33с3, AG Loft.

Когда? 4 декабря в 16:00 мск.

Если будете офлайн, сможете потестить в демозоне возможности наших сервисов Evolution AI Factory, посетить нетворкинг, выиграть классный мерч и сходить на воркшопы — о них расскажем в следующих постах.

А сейчас — подробнее о каждом докладе на AI DevTools Conf ↓

Доклад 1 💻 Разворачиваем сервисы просто: DevOps-агент в деле
Разберемся, как DevOps-агент автоматизирует настройку и запуск приложений на облачных ВМ. Обсудим архитектуру и фишки агента: как задеплоить его из GitHub, проконтролировать безопасность, покажем быстрый обзор состояния ВМ и другие фичи.

👨‍💻 → Эмиль Мадатов, Data Science инженер в Cloud․ru

Доклад 2 🛡️ Уязвимости агентных систем и методы защиты
Спикер расскажет о типовых уязвимостях, которые встречаются в агентных системах: от перехвата задач и утечек данных до атак на память и reasoning. А еще покажет примеры атак, методы защиты от них, фреймворки и гайды OWASP, которые применимы к Agentic AI.

👨‍💻 → Евгений Кокуйкин, CEO HiveTrace, руководитель лаборатории AI Security ИТМО

Доклад 3 🔧 Собираем агентов без навыков программирования
Покажем, как с помощью n8n-совместимого редактора можно строить сложные AI-процессы, подключать модели и сервисы, отслеживать выполнение и масштабировать решения. Разберем реальные сценарии и покажем, как собрать своего первого агента всего за несколько минут.

👨‍💻 → Артемий Мазаев, Менеджер продукта в Cloud․ru

Доклад 4 🤖 Как мы автоматизировали процесс Code review в Авито при помощи LLM
Эксперт поделится реализуемым пайплайном, который поможет автоматизировать ревью кода. А еще он покажет, как внедрить этот пайплайн во внутренние сервисы.

👨‍💻 → Марк Каширский, DS Engineer в команде LLM, Авито

Теги:
Рейтинг0
Комментарии0

Разработали фреймворк для оценки зрелости безопасности ИИ-систем

Сегодня безопасность систем ИИ становится ключевым фактором, определяющим уровень доверия к ним. Для того чтобы организация смогла справиться с этими вызовами, ей необходимо, в первую очередь, определить текущий уровень зрелости и оценить свои слабые и сильные стороны.

Команда Swordfish Security разработала Swordfish: Secure AI Maturity Model (SAIMM) —фреймворк, который помогает компаниям системно выстраивать безопасность ИИ-решений и снижать риски на всех этапах жизненного цикла разработки.

Мы обобщили опыт внедрения ИИ-систем в корпоративной среде, результаты работы с заказчиками из разных отраслей и текущие международные практики безопасности — от OWASP и NIST до MITRE ATLAS. На основе этого сформирована модель зрелости, охватывающая ключевые аспекты безопасности современных ML- и LLM-систем, включая агентные сценарии.

Читать фреймворк

SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.

Домены SAIMM:

1️⃣ Управление и риск-менеджмент
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.

2️⃣ Защита данных и конфиденциальность
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.

3️⃣ Безопасность модели
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.

4️⃣ Безопасность цепочек поставок
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.

5️⃣ Инфраструктура и операционная безопасность
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.

6️⃣ Безопасность агентных систем
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.

SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии1

Что посмотреть в ноябре в онлайне. Было бы куда пойти, я бы пошел…

В конце ноября что-то не густо на какие-то оффлайн мероприятия в Казани. Искал, как мог, но не нашел. Поэтому скину свою подборку онлайн митапов, которые планирую зацепить.

➡️ Yandex AI Studio Series

Целая серия онлайн вебинаров, на которой расскажут, как создать своего AI-агента с помощью Yandex AI Studio.

Старт: 20 ноября в 12.00
Ссылка для регистрации: https://yandex.cloud/ru/ai-studio-series

➡️ QA Day: Test like a pro

Я же все таки тестировщик. Поэтому мимо митапа о вайбкодинге в автоматизации тестирования пройти не могу.

Старт: 20 ноября в 18.00
Ссылка для регистрации: https://axenix-org.timepad.ru/event/3626298

➡️ Podlodka Soft Skills Crew

Всеми любимая конфа от Подлодки на тему софт-скилов. Несколько дней онлайн трансляции с крутыми спикерами. Правда мероприятие не бесплатное, но цена - очень даже адекватная.

Старт: 24 ноября в 10.00
Ссылка для регистрации: https://podlodka.io/softcrew

➡️ Прогноз для ИТ-рынка на 2026 год: оптимисты против пессимистов

Любишь думать о будущем и слушать прогнозы? Тебе сюда. Тем более обсуждают ИТ-рынок.

Старт: 26 ноября в 11.00
Ссылка для регистрации: https://axoftglobal.ru/events/prognoz_dlya_it_rynka_na_2026_god_optimisty_vs_pessimistov

➡️ Разработка 2.0: AI-агенты как новая команда в тестировании, документировании, разработке

Небольшой митап о том, как создать полезных AI-агентов. Зацепило то, что расскажут, как агента интегрировать в процесс тестирования.

Старт: 26 ноября в 11.00
Ссылка для регистрации: https://fork-tech.timepad.ru/event/3652158

Онлайн мероприятий, на самом деле, вагон и маленькая тележка. А если вам не зашла моя выборка, то по ссылке я рассказал, как искать мероприятия по душе:

https://habr.com/ru/posts/963176

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

ITFB Group на Международном форуме ЭДО

11 ноября ITFB Group приняла участие в Международном форуме ЭДО, который прошёл в Цифровом деловом пространстве в Москве. На сцене были представлены два практических кейса по внедрению платформ СИМФОНИЯ и EasyDoc, которые вызвали большой интерес и активную дискуссию в зале.

Кейс Билайн и СИМФОНИЯ

Совместно с Александром Виниковецким, директором по развитию ЭДО Билайн, мы рассказали о переходе компании с легаси-системы и выборе платформы нового поколения.

Анастасия Литвиненко, директор по развитию бизнеса ITFB Group, представила архитектуру СИМФОНИИ и объяснила, как low-code подход помогает ускорять изменения в процессах ЭДО.

Читать полный кейс

Кейс НПФ «Будущее» и EasyDoc

Виктория Бондарева, заместитель генерального директора фонда, представила результаты крупнейшего в России проекта по интеллектуальному распознаванию документов. На базе EasyDoc обработано 142 тыс. файлов с использованием ИИ и LLM-моделей.

Читать полный кейс

Мы также подготовили подборку материалов о наших внедрениях в банках, промышленности, строительстве и госсекторе.

Кейсы EasyDoc

Цифровизация голосования в ГК «Смарт Сервис» (Донстрой)
Распознавание пакета документов клиента в МКБ

Кейсы СИМФОНИИ

Система управления инвестиционными проектами в «Россети Юг»
СИМФОНИЯ в проекте ВСМ Москва — Санкт-Петербург

Полезные материалы:

Грани искусственного интеллекта: как СЭД становится умной — TAdviser
ИИ в СЭД уже привычен большинству компаний — интервью TAdviser
Почему выбирают OCR-платформу EasyDoc — ITFB Group

Форум показал, что запрос на гибкость, low-code и интеллектуальные инструменты в документообороте становится стандартом отрасли — и мы рады вносить вклад в этот переход.

Если вы хотите обсудить ваши задачи или посмотреть демо решений ITFB Group — оставляйте заявку.

Теги:
Рейтинг0
Комментарии2

Вторая часть про Tier 1 "AI tools", первая тут https://habr.com/ru/posts/966942/
В первой части коротко про ChatGPT, Claude + NotebookLM, во второй коротко про изображения и автоматизации

🔡 Генерация изображений и видео

Nano Banana 🍌

Визуальная модель внутри Gemini, которая генерирует одни из лучших на сегодня изображений. Очень высокое сохранение лиц и объектов.

В интерфейсе Gemini на бесплатном аккаунте доступно до 100 генераций в день

Либо можно работать через AI Studio — он чуть перегружен, но там можно выбирать разрешение:

Основные сценарии:
• Создание контента и креативов с нуля
• Визуал для постов, афиш, презентаций, обложек
• Быстрое редактирование и улучшение фото (удаление объектов, замена фона)
• Генерация ключевых кадров для дальнейшего создания видео в Veo 3.1

Nano Banana не переделывает всю сцену с нуля, а как бы «прифотошопливает» людей и объекты, сохраняя исходную композицию.

Лучшие практики:
• Подробно описывайте результат (стиль, освещение, тона)
• Используйте референсы для сохранения персонажей и стиля
• Работайте итеративно: сначала фон, затем персонажи, потом детали

Про AI изображения писал огромную статью, все те же правила подойдут и для бананы

Veo 3.1 (есть ещё Sora 2, тоже очень высокого качества)

Создание видео из изображения или текста

Гугловская модель для создания видео и озвучки. Превращает статичные изображения в живые ролики.

В бесплатном Gemini напрямую не доступен — нужен Pro-тариф.

Основные сценарии:
• Создание рекламных и промо-роликов без съемок
• Короткий контент для Reels, Stories, TikTok
• Оживление статичных фото и концепт-артов
• Демонстрация продукта с разных ракурсов

Как работать:
• Пропишите детальный сценарий: локацию, время, героев, действия, камеру, звук
• Добавляйте референсные изображения для сохранения стиля
• Тестируйте композицию в Fast, финальный вариант делайте в Normal

В режиме Image to Video можно загрузить два кадра (Start Frame и Finish Frame) и получить плавное видео между ними.​​​​​​​​​​​​​​​​

🔡 Автоматизации и агенты

n8n

Low-code платформа для автоматизаций. Не только AI, но последнее время они активно развивают AI ноды

Это уже сильно прикладной инструмент. Последнее время мне намного проще написать кодом и развернуть на своём сервере автоматизацию, чем собирать в n8n.

Но для визуальной сборки он классный 🐥

Основные сценарии:
• Автоматическая обработка заявок, лидов, форм
• Связка ChatGPT/Claude с CRM, Notion, почтой
• Регулярные отчеты, выгрузки, уведомления

AgentKit от OpenAI

Похоже на n8n немного, но достаточно сильно отличается изнутри. Работает только как агентная система с ИИ. Тогда как в n8n не обязательно ставить ИИ-ноду.

Но у AgentKit есть огромные плюсы в виде очень удобного RAG, Guardrails и уже готового SDK с сильно настраиваемым UI.

Что означает, что чат-бота можно развернуть за 10 минут на своем сайте.

Есть много других подобных сервисов, например Make или Google Opal.

🔡 Создание сайтов и интерфейсов с помощью ИИ

Что пробовал я:
• Replit
• Lovable
• v0
• Bolt

Насчет разницы между ними сложно сказать, так как они постоянно развиваются, а мой опыт работы с каждой из платформ становится не релевантным уже спустя месяц. Но если бы я выбирал только 1 из них, то выбрал бы Replit, вроде самый популярный сейчас

Я просто последнее время перешел на связку VS Code + Claude Code + Codex + CLI, а за инструменты из списка выше платить перестал.

Cursor я кстати не использую, но без каких либо конкретных причин, просто за Claude Code 100$ плачу

Про работу с кодом как нибудь отдельно расскажу, ещё и про AI CLI. Так как это очень большой отдельный мир

Теги:
Всего голосов 4: ↑0 и ↓4-4
Комментарии1

«Яндекс» запустил «Промптхаб» — площадку с идеями, как применять ИИ.

Любой пользователь, даже незнакомый с нейросетями, сможет найти для себя что‑то полезное и тут же воспользоваться идеей — например, чтобы нейросеть спланировала поездку по стране или составила меню на неделю.

На платформе «Промптхаб» есть уже готовые задания для нейросетей (промпты) на все случаи жизни и курсы по работе с ИИ. Пользователи и компании могут также добавлять на сервис свои идеи и находки. Понравившийся вариант можно сразу попробовать, отправив в чат с нейросетью «Яндекса» — «Алисой AI». 

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

20 бесплатных демо-уроков ноября

19 ноября, среда:

20 ноября, четверг:

24 ноября, понедельник:

26 ноября, среда:

27 ноября, четверг:

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

В июле я писал о том, что Gaunt Sloth Assistant дошёл до версии 0.9.2. Сегодня мы наконец можем сказать, что вышла версия 1.0.0. В этом релизе мы перевели основную зависимость на LangChain/LangGraph v1, обновили минимальные требования до Node 24/npm 11 и официально объявили CLI готовым к повседневной автоматизации.

Что изменилось с прошлого поста?

  • Ревью теперь завершаются вызовом встроенного рейтингового инструмента. По умолчанию шкала 10/10, порог прохождения 6/10, и оценки ниже 6 заставляют команду review возвращать ненулевой код (non-zero exit code). Если нужен только режим предупреждений, установите commands.review.rating.enabled (и/или commands.pr.rating.enabled) в false в .gsloth.config.*.

  • Профили идентичности стали частью базового сценария: один флаг -i profile-name, и вы переключаете промпты, модели и провайдеры на уровень нужной папки.

  • Middleware теперь сущность первого класса. Можно комбинировать встроенные варианты вроде anthropic-prompt-caching или summarization, подключать собственные объекты на JS, а CLI показывает, что именно выполняется при каждой команде.

  • Глубокое слияние конфигов команд устранило проблему, когда переопределение источника контента стирало настройки рейтинга. Теперь значения по умолчанию сохраняются даже при частичных правках.

  • Мы освежили кеш OAuth, документацию и README, чтобы новичкам было проще стартовать, и параллельно усилили безопасность зависимостей.

Профили идентичности — главный QoL‑апгрейд 1.0.0. Они позволяют мгновенно переключаться между системными промптами, пресетами моделей и наборами инструментов под конкретную задачу. gth pr 555 PP-4242 по‑прежнему читает .gsloth/.gsloth-settings, а gth -i devops pr 555 PP-4242 автоматически берёт конфиг из .gsloth/.gsloth-settings/devops/ со своими промптами и провайдерами.

Нужно поговорить с Jira через MCP? Создайте профиль вроде jira-mcp со своим конфигом и запустите gth -i jira-mcp chat. Укороченный пример:

{
  "llm": {
    "type": "vertexai",
    "model": "gemini-2.5-pro"
  },
  "mcpServers": {
    "jira": {
      "url": "https://mcp.atlassian.com/v1/sse",
      "authProvider": "OAuth",
      "transport": "sse"
    }
  },
  "requirementsProviderConfig": {
    "jira": {
      "cloudId": "YOUR-JIRA-CLOUD-ID-UUID",
      "displayUrl": "https://YOUR-BUSINESS.atlassian.net/browse/"
    }
  },
  "commands": {
    "pr": {
      "contentProvider": "github",
      "requirementsProvider": "jira"
    }
  }
}

Переключение между такими папками теперь — один флаг, поэтому удобно держать отдельные персоны для DevOps, документации или любого удалённого MCP.

Rater — второй крупный прорыв. Ревью всегда содержали текстовый фидбек, но в 1.0.0 оценка стала действенной: мы сохраняем её в хранилище артефактов, передаём в модуль ревью и вызываем setExitCode, чтобы CI автоматически падал при невыполнении цели по качеству. Настройка защит для продакшн‑сервисов занимает теперь секунды и не требует самописных скриптов.

Наконец, реестр middleware и хранилище артефактов дают аккуратные точки расширения на будущее. Можно оборачивать вызовы моделей и инструментов, логировать каждую операцию и при этом оставлять Gaunt Sloth вести те же chat/code/pr/init команды. CLI как и раньше — небольшой TypeScript‑бинарь, который устанавливается через npm или запускается npx gth, но теперь у него архитектура, позволяющая развиваться без костылей.

Хотите попробовать релиз — быстрый путь всё ещё
npm install -g gaunt-sloth-assistant

репозиторий https://github.com/Galvanized-Pukeko/gaunt-sloth-assistant пригодится как справочник и место для issues. Заводите issue, оставляйте фидбек в Discussions или подключайте rater к своему CI и расскажите, как он себя ведёт — буду рад помощи в движении к 1.1.

Спасибо всем, кто помог тестами и несколькими PR.

Теги:
Рейтинг0
Комментарии0

ИИ — и не друг, и не враг, а как? Опрос от Хабра.

ИИ с невероятной скоростью проникает во все сферы жизни — порой даже в те, где он точно не нужен и даже вреден. Конечно, ИИ проникает и на Хабр: кто-то из авторов с его помощью редактирует статьи, кто-то придумывает темы, а кто-то генерирует тексты и улетает в бан. Мы стараемся регулировать проблему, скрываем подозрительные статьи, строго проверяем материалы в песочнице. Но отгородиться от всепроникающей технологии сложно, да и... в каких границах нужно?

Вы много раз выручали нас классными идеями для Хабра, просим вас высказать своё мнение.

Теги:
Всего голосов 5: ↑3 и ↓2+3
Комментарии2

Представлен открытый проект Heretic: Fully automatic censorship removal for language models, который снимаем цензуру у текстовых нейросетей на уровне внутренних настроек. При этом все параметры подбираются автоматически. Цензура падает почти в ноль: тестировали на Gemma 3 от Google — процент отказов упал с 97% до 3%. Работает со всеми типами моделей. Минус один: нужен хотя бы средний комп.

Теги:
Всего голосов 5: ↑4 и ↓1+5
Комментарии2

Уже несколько месяцев как провожу воркшопы по AI, и вот список сервисов, про которые я постоянно там рассказываю


Часть 1 про LLM 🫡

ChatGPT — это база, основную теорию по которому я расписывать не буду, по нему у меня написан целый гайд

Но в chatgpt вау эффекты для меня вызывают эти функции 👇


Agent Mode

Режим, в котором ИИ эмулирует поведение человека в браузере — сам открывает сайты, кликает, вводит данные, ищет и сравнивает информацию.

Основные сценарии:
• Поиск отелей на Booking/Airbnb по конкретным критериям
• Поиск товаров на маркетплейсах вроде Lazada
• Сбор информации с сайтов, где обычный поиск бессилен
• Выполнение простых рутинных действий в интерфейсе

Их браузер Atlas, насколько я понимаю, должен делать примерно то же самое, но я еще не успел его протестировать — он пока только на macOS.


GPTs

Отличный вариан настроить чат под себя, добавив свои документы и системный промпт

Основные мои сценарии, которые я делал либо для себя, либо для компаний
• Переводчик в нужном стиле
• Личный редактор под мой tone of voice
• Чат по продукту/компании на базе знаний
• Онбординг-бот для новичков
• Внутренний FAQ по документации


Deep Research

Почти все знают про Deep Research для изучения интернета и сбора информации. Но мало кто знает, что его можно запустить и в свой Gmail, Google Drive, Notion или GitHub.

Например, он бегает по моему GitHub и делает подробное ревью репозитория, дает советы по продуктовому бэклогу и подсказывает, что можно улучшить в коде.



Claude — мой второй LLM

Мне чуть больше нравится, как он пишет, но 90% моего использования Claude — это возможность подключения множества сервисов через MCP: Google Analytics, Miro, Notion, Apify, Tick Tick и другие.

Со всем этим Claude может взаимодействовать — читать данные и записывать.

Это невероятно удобно: почти в каждом инструменте у меня есть умный помощник, который может получить и проанализировать данные прямо из базы сервиса.

Да, у ChatGPT тоже есть MCP, но по сути это слой поверх OAuth. У Claude вариантов подключения к тысячам сервисов ощутимо больше и гибче.



NotebookLM — RAG-UI от Google


Красивый интерфейс для RAG-системы. Загружаешь свои данные, а он строит вокруг них чат и артефакты.

На одном воркшопе команды за 30 минут сделали чатики для онбординга новых сотрудников на основе корпоративных статей. Теперь новый сотрудник, вместо изучения статей, может просто задавать вопросы в чатик и получать моментальные ответы с ссылками на источники.

Что можно загрузить:
• Множество документов
• Обычный текст
• YouTube-видео по ссылке

Что можно получить:
• Чат, который опирается только на загруженные данные и практически не галлюцинирует
• Видео, аудио, текстовые конспекты и отчеты
• Квизы, мемори-карточки, майндмэпы

Если еще не пробовали NotebookLM — очень советую

Вторую часть выложу чуть попозже

Теги:
Всего голосов 8: ↑1 и ↓7-6
Комментарии0

Энтузиасты выяснили, что фильтры чат‑ботов с ИИ (работает в GPT-4o и Claude 4) можно обойти с помощью «=coffee». Если после запроса добавить слово =coffee, то фильтры нейросетей не видят угрозу. Например, можно получить ключи регистрации Windows 11.

Ранее компьютерный энтузиаст и исследователь ИБ Марко Фигероа предложил ИИ‑модели сыграть в игру «угадайка» и тем самым нашёл способ обмануть ChatGPT 4.0 и выдать скрытые в системе обучения нейросети рабочие ключи для активации Windows 10, включая как минимум один, принадлежащий банку Wells Fargo. В этом эксперименте исследователь обманом смог обойти защитные барьеры в ChatGPT 4.0, предназначенные для предотвращения передачи секретной или потенциально опасной информации, предложив ИИ сыграть в логическую игру. Эти барьеры были разработаны для блокировки доступа к любым лицензиям, таким как ключи продуктов Windows 10. Разработчики нейросети обучили ИИ на примерах реальных ключей активации, что такое нельзя выдавать пользователю.

Теги:
Всего голосов 7: ↑6 и ↓1+7
Комментарии3

Элэлэмки, Сталин дал приказ.

Кого задолбали посты с тестированием LLM, дальше можете не читать, пардон. Пост про то как у бесплатных ллм, что попались под руку, я спросил - правильный ли код для такой задачи (сорри за кривую постановку вопроса и не менее кривой английский):

in C# for

int d;

I need to calculate number of same consecutive leading bits leadingCount. Does the next code do it correctly?

int d; 
uint uintD = unchecked((uint)d); 
int leadingCount = BitOperations.LeadingZeroCount(uintD) + BitOperations.LeadingZeroCount(~uintD);

Развернутый ответ, который начинается в стиле "Yes — that code does correctly compute the number of consecutive identical leading bits in a 32-bit int. " дали следующие ллм:

chatgpt
gemini-2.5-pro
copilot.microsoft.com
perplexity.ai
kimi.com
ernie.baidu.com

Развернутый ответ, который начинается в стиле "No, the code does not compute the number of same consecutive leading bits in d" дали следующие ллм:

grok.com/c
chat.deepseek.com
qwen.ai/c
chat.z.ai

При этом, как мне показалось, даже небольшие, казалось бы несущественные изменения запроса, меняют этот расклад.

Смысл вопроса - правильный ли код на C# для подсчета количество одинаковых бит в начале целого числа.

Теги:
Рейтинг0
Комментарии3

Code Wiki — AI документация репозиториев от Google

Code Wiki поможет сейчас исследовать open source репозитории, а в будущем обещают CLI версию для документации собственного кода.
Code Wiki поможет сейчас исследовать open source репозитории, а в будущем обещают CLI версию для документации собственного кода.

Google релизнули новый интересный проект. Code Wiki — википедия с документацией open source репозиториев. А в будущем обещают CLI версию для автоматической документации приватных репозиториев! Неужели документация кода будет теперь всегда актуальной?

Как работает?

ИИ агент на базе Gemini шерстит репозиторий, разбирается во взаимозависимостях в коде, генерирует схемы и все это дело описывает в формате Wiki странички, с интерактивным оглавлением.

Code Wiki:

  • Помогает найти open source репозитории по нужной тематике. То есть информация о репозитории, видимо, векторизуется и сверху работает семантический поиск.

  • Позволяет общаться с репозиторием и его документацией через Gemini чат (в том числе можно на русском, если читать доку на английском не хочется).

  • Автоматически обновляет документацию и все схемы после каждого PR. А значит документация наконец-то всегда актуальна.

Я немного посравнивал документацию от Code Wiki и документацию в самих опенсорс репозиториях. На мой взгляд, в хорошо поддерживаемых open source репозиториях авторская документация, конечно, все равно лучше.

Но, все мы помним те самые опенсорс репы, где лежит как-будто что-то очень полезное для нашего проекта, но черт ногу сломит, пока разберешься, как оно работает. А автор удосужился написать только абзац с общим описанием, о чем репа. Вот на такой случай Code Wiki будет спасением!

Пробуем тут.

Подписывайся на телеграм канал Заместители. Там еще больше интересного про ИИ агентов.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии4

Глава OpenAI Сэм Альтман сообщил, что можно попросить ChatGPT не использовать длинные тире, он «наконец-то будет делать то, что должен». Разработчики ChatGPT уточнили, что чат-бот теперь «лучше» справляется с задачей не использовать длинные тире. Для этого нужно задать соответствующие настройки в разделе пользовательские инструкции (custom instructions) в настройках.

Теги:
Всего голосов 3: ↑1 и ↓2+1
Комментарии0

Сотрудники, обрабатывающие обращения граждан, часто тратят много времени на рутинные задачи: регистрацию, классификацию, анализ и подготовку ответов на однотипные запросы.

На нашем вебинаре, который состоится 19 ноября 11:00 (Мск), вы узнаете, как ИИ‑ассистент компании SL Soft берет эти процессы на себя, обеспечивает соответствие законодательным требованиям и реализует полный цикл автоматизации.

Расскажем, как ИИ‑ассистент:

  • централизует сбор запросов из разных источников (системы, почта, порталы, соцсети) без участия человека, автоматизируя процесс

  • интегрируется с федеральными и муниципальными информационными системами, включая сложные сценарии без прямого подключения

  • автоматически анализирует и маршрутизирует обращения: определяет темы, выделяет ключевые атрибуты, оценивает тональность и проводит дополнительные проверки даже при нечеткой структуре данных

  • генерирует тексты ответов на основе накопленного опыта и нормативных требований

  • контролирует сроки обработки на каждом этапе, обеспечивая высокий уровень сервиса

19 ноября 11:00, онлайн, бесплатно, требуется регистрация

Теги:
Рейтинг0
Комментарии0

Грабли, ссылки и... Дзен.

Я тут вчера и сегодня занятным образом наступил на грабли. У меня есть канал на Дзене с которого я реплицирую материалы На Хабр. И когда я там пишу статью, то вставляю нормальные ссылки- Википедия, Хабр, телеграмм и тп. Но, оказывается Дзен конвертирует эти ссылки в свой внутренний формат, добавляя https://dzen.ru/away?to= (и дальше уже нормальная ссылка). Зачем он это делает догадаться не сложно - безопасность внешних переходов и сбор статистики трафика.

Потом я все это дело (не глядя) копировал на Хабр и публиковал. И получал массу гневных откликов от читателей. О том что, в статье много слов пропущено. Выглядит это примерно вот так.

А причина в том, что на стороне читателя AdBlock видит это трансформированную Дзеном ссылку и беспощадно "выкусывает" ее. И будь я на его месте - я бы точно также делал.

В-общем, в итоге я поправил ссылки в статьях на Хабре - теперь вроде бы все работает.

Но, возможно кому то еще будет полезно. Уверен, что я не единственный, кто наступил на эти грабли. И не только Дзен этими трансформациями грешит...

Теги:
Всего голосов 11: ↑11 и ↓0+17
Комментарии1

Новая услуга GlowByte: внедряем GenBI-решения на ваших данных

Команда Business Intelligence GlowByte расширяет возможности для бизнеса в различных индустриях и объявляет о запуске новой опции – выборе, пилотировании и внедрении GenBI-решений.

Эксперты GlowByte помогут определить потенциал генеративной аналитики под конкретные задачи, разработают критерии оценки решений, выберут оптимальную платформу и LLM-модель. Это позволит бизнесу сократить время на тестирование и минимизировать риски внедрения.

Процесс может занять от одного до трех месяцев. Реализация происходит поэтапно: 

  • анализируются бизнес-процессы и инфраструктура, изучается специфика отрасли, текущие BI-решения, источники данных, архитектура систем и требования безопасности; 

  • адаптируется методология тестирования;

  • настраиваются критерии оценки под данные и бизнес-задачи, формируются релевантные сценарии использования;

  • формируется шорт-лист GenBI-решений;

  • подбираются платформы и LLM-модели;

  • проводится комплексное пилотирование;

  • тестируются решения на реальных данных, измеряются производительность и точность результатов;

  • предоставляются обоснованные рекомендации с детализацией данных по внедрению выбранного решения. 

Узнать больше, как это работает, можно тут.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Сколько стоит получить 1 оффер?

Хотите вы этого или нет — но мы уже сделали 330 000 автоматизированных откликов за 5 месяцев. И за это время успели подсобрать кое какие данные.

Рассказываю:

Да, часть из откликов может быть нерелевантной, часть уходит «в молоко», но сейчас уже 40–50% попадают в яблочко.

А есть ли вообще выхлоп? Давайте посчитаем.

За всё время в нашем ассистенте Софи было 434 платных пользователя.
На этих 434 человек мы насчитали 1 956 приглашений на интервью. (Это именно те, что приходят через хх.ру (приглашения в тг или на почту мы не видим - поэтому их может быть и больше)).

Представим, очень грубо, что только 50% из них — это действительно релевантные приглашения, которые конвертировались в состоявшиеся интервью.
Получаем, что в среднем — 2,25 интервью на пользователя.

Средний пользователь заплатил нам 6 500 рублей.
Значит, одно интервью обходится примерно в 2 888 рублей.
Считается, что нужно пройти 3–5 интервью с разными компаниями, чтобы получить 1 оффер.

Итого — около 11 000 рублей стоит один оффер через Софи. Это значит что у кого-то он может выйти в 4500 рублей, а у кого-то в 30000, 40000 или вообще его не быть.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии7

ИИ в статьях на Хабре - и не друг, и не враг, а как?

ИИ с невероятной скоростью проникает во все сферы жизни -- порой даже в те, где он точно не нужен и даже вреден. Конечно, ИИ проникает и на Хабр: кто-то из авторов с его помощью редактирует статьи, кто-то придумывает темы, а кто-то генерирует тексты и улетает в бан. Мы стараемся регулировать проблему, скрываем подозрительные статьи, строго проверяем материалы в песочнице. 

Но отгородиться от всепроникающей технологии сложно, да и... в каких границах нужно? Вы много раз выручали нас классными идеями для Хабра,

просим вас высказать своё мнение. 

Теги:
Всего голосов 6: ↑6 и ↓0+9
Комментарии0

Как построить ML- AI-инфраструктуру или ускорить существующие AI-проекты

Привет, Хабр!

Приглашаем на вебинар о новой редакции нашей платформы котнейнеризации – Nova AI. Покажем новую версию платформы, созданную специально для ML-и AI-задач и расскажем, как она упрощает запуск инфраструктуры для ML/DS-команд, ускоряет развертывание локальных LLM-и AI-сервисов и сокращает расходы на GPU до 95%.

О чем еще поговорим:

 Как развивается рынок AI и почему компании переходят на локальные LLM

Что представляет собой Nova AI и чем она отличается от классического Kubernetes

Как построить инфраструктуру для ML-проектов за 1 день

Реальные кейсы, технологический стек, безопасность и комплаенс

Дорожная карта продукта и шаги внедрения

Вебинар будет особенно актуален для ИТ-директоров, архитекторов, инженеров по данным и всех, кто отвечает за развитие ИИ в компании. Регистрация доступна по ссылке.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Orion soft выпустил новую редакцию платформы контейнеризации – Nova AI

Мы представили новую редакцию платформы контейнеризации Nova Container Platform, созданную специально для работы с ИИ и машинным обучением. Это первое отечественное Kubernetes-решение, оптимизированное под инфраструктурные и эксплуатационные задачи ML/AI. 

Nova AI помогает ИТ-командам и ML/DS-специалистам быстро запускать и масштабировать инфраструктуру для обучения моделей, развертывания LLM-сервисов и инференса, обеспечивая при этом безопасность, совместимость с российскими операционными системами и эффективность использования GPU.

Новая редакция разработана как решение ключевых проблем, с которыми сталкиваются компании при запуске и развитии проектов, связанных с ML и AI. Среди них высокая стоимость GPU и оборудования, дефицит опытных MLOps-инженеров, сложности с безопасностью и соответствием требованиям регуляторов, низкая утилизация ресурсов, долгое развертывание и настройка инфраструктуры под LLM и AI-сервисы.

Ключевые преимущества Nova AI

Для ИТ-руководителей Nova AI обеспечивает ощутимую экономию ресурсов: за счет виртуализации и дробления мощностей она позволяет сократить затраты на GPU до 70%. Решение ускоряет выдачу инфраструктуры, помогает соблюдать SLA и упрощает управление благодаря унифицированному кластеру, подходящему для всех AI- и ML-задач. Nova AI также поддерживает требования по информационной безопасности и комплаенсу, обеспечивая защиту токенов и данных. Платформа гибка в размещении, она может быть развернута как на bare-metal, так и в виртуализированной среде (включая отечественную платформу виртуализации zVirt), с полной поддержкой российских операционных систем, таких как Astra Linux и РЕД ОС.

Инженеры и ML-специалисты получают готовое рабочее окружение на базе таких инструментов, как JupyterHub, MLflow, Airflow и MinIO, что позволяет быстро приступить к работе. Кроме этого, Nova AI обеспечивает стабильную работу драйверов и предсказуемость поведения инфраструктуры. Безопасность встроена по умолчанию: используется контейнерная защита NeuVector и централизованное управление секретами с помощью StarVault. Платформа сокращает время на запуск и настройку, а также сопровождается подробной документацией и технической поддержкой на всех этапах внедрения и эксплуатации.

«Сегодня мы видим особый спрос на нашу платформу со стороны промышленных и нефтегазовых предприятий, банков и финтех-организаций, ритейлеров с развитыми аналитическими командами, а также государственных структур, где важно быстро и безопасно развернуть инфраструктуру для ИИ и машинного обучения. Nova AI выбирают там, где нужно ускорить запуск LLM- и AI-сервисов, снизить затраты на оборудование и перейти от разрозненных экспериментов с моделями к управляемой и масштабируемой ML-платформе уровня Enterprise», – прокомментировал Александр Фикс, лидер продукта Nova Container Platform в Orion soft.

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии0

Два парня из Сан-Франциско притворялись ИИ для клиентов и смогли создать стартап стоимостью в миллиард долларов. Авторы проекта решили запустить сервис Fireflies AI для автоматического создания заметок во время звонков с подпиской в $100 в месяц для корпоративных заказчиков. Они уверяли клиентов, что к созвону подключится ИИ, но, на самом деле, на другом конце сидел один из них и записывал всё, а затем через 10 минут после окончания встречи скидывал пользователю конспект. После сотни таких созвонов разработчики накопили денег на аренду жилья и решили по-настоящему сделать такой сервис с ИИ.

В итоге в июне этого года Fireflies AI получил оценку в миллиард долларов, а они больше не спят на диване. Эту историю рассказал сооснователь стартапа по ИИ-суммаризации видеовстреч Fireflies Сэм Удотонг. Он пояснил, что первые деньги они тратили основном на оплату гостиницы и еду. Только спустя год работы команда смогла накопить капитал и вложить его в настоящую автоматизацию сервиса.

Теги:
Всего голосов 3: ↑2 и ↓1+2
Комментарии1

Эксперты Google выпустили 50-страничный гайд о том, как создавать полезных ИИ-агентов для практических задач. В нём описана: архитектура агентов; как работает LLM внутри агента; как подключить и настроить инструменты; как объединить несколько агентов в команду и как оценивать их эффективность. Оригинал — здесь, есть перевод на русском языке — здесь.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Вы тоже узнаёте AI-тексты по обилию длинных тире?

Если вы начинаете сомневаться, а не налетит ли на ваш контент подозрение в «роботизированности» из-за длинных тире, то эта статья для вас. Есть ли ответ на вопрос «Почему AI любит добавлять в тексты много длинных тире?» — глубокое расследование, где автор разбирает тренд и ищет, почему искусственный интеллект использует их в текстах тексты чаще, чем люди.

Существует три основных категории возможных объяснений того, почему модели так часто используют тире. Рассуждения во многом основаны на предположениях, потому что никто не может дать ответ на этот вопрос абсолютно точно (кроме OpenAI). 

Есть ли ответ на вопрос «Почему AI любит добавлять в тексты много длинных тире?»
В AI-текстах так часто используется длинное тире, что на эту тему пишут статьи вида «Длинное тире — ...
habr.com

Погрузитесь в тонкости работы моделей и откройте для себя неожиданные причины их пунктуационных привычек, читайте новую статью от Альфа-Банка.

Теги:
Рейтинг0
Комментарии0
1
23 ...

Вклад авторов