OpenAI планирует через 5 лет потреблять больше энергии, чем Германия и через 8 лет превзойти Индию по электропотреблению.


AI, ANN и иные формы искусственного разума
OpenAI планирует через 5 лет потреблять больше энергии, чем Германия и через 8 лет превзойти Индию по электропотреблению.

Представлен ИИ-сервис Vibetest Use, который тестирует сайты на прочность и ищет уязвимости. Параллельно запускаются сразу несколько проверок с помощью ИИ, которые ищут ошибки, битые ссылки или проблемы в дизайне. Работает на базе Claude. В качестве альтернативы можно запустить с бесплатным API от Google через Cursor.

Как собрать и внедрить свой корпоративный AI-чат

AI-чат — уже не просто модное словечко, а необходимый инструмент. Он облегчит коммуникацию, поможет автоматизировать задачи и повысить эффективность работы.
Зовем на вебинар, где расскажем, как развернуть собственное решение, чтобы оно отвечало требованиям безопасности и стабильно работало в вашем контуре.
Что еще обсудим:
Из каких open source решений на рынке мы выбирали и на чем в итоге остановились.
Почему свой AI-чат лучше SaaS? Приведем весомые аргументы.
Как собрать AI-чат, чтобы все было безопасно и не нарушало закон.
Какие архитектурные решения мы протестировали и к каким выводам пришли.
Будет интересно системным администраторам, IT-директорам, разработчикам и всем, кто хочет автоматизировать внутренние процессы с помощью корпоративного AI-чата.
📅 Когда? 27 ноября в 11:00 мск.
📍Где? Онлайн. Регистрируйтесь на странице вебинара — и до скорой встречи.
Открыли полный доступ к Evolution AI Factory для создания GenAI с минимальными затратами 🚀

Вчера на AI Journey объявили о коммерческом запуске Evolution AI Factory — облачной среды с готовым набором сервисов для работы с GenAI. Мы разрабатывали ее так, чтобы пользователям с любым уровнем навыков программирования и погружения в машинное обучение было удобно и понятно.
В Evolution AI Factory шесть взаимосвязанных сервисов:
🧠 Foundation Models — каталог из 20+ моделей, включая GigaChat-2-Max, Qwen3-Coder, MiniMax и другие. Работают по OpenAI-совместимому API.
⚡ ML Inference — инструмент для быстрого запуска собственных ML-моделей или развертывания готовых из HuggingFace.
🤖 AI Agents — агенты для автономного выполнения задач и интеграции с другими системами.
📓 Evolution Notebooks — запуск нужной вам среды разработки в облаке: JupyterLab, VS Code Server, ComfyUI, n8n и другие. Возможность экспериментировать на CPU или GPU без ограничений.
🎯 Managed RAG — инструмент для повышения точности выдачи LLM с учетом ваших корпоративных данных.
🔧 ML Finetuning — дообучение LLM под задачи вашего бизнеса с использованием LoRA-адаптеров.
Сервисы доступны с гарантированным SLA, поддержкой 24/7 и возможностью масштабировать нагрузку. И все по доступным ценам: открытые LLM из каталога Foundation Models сейчас стоят в среднем 35 рублей за входной и 70 рублей за выходной миллион токенов.
Выбирайте подходящие инструменты и реализуйте проекты в облаке!
Хотели ускорить разработку с ИИ, а получили сопротивление и хаос: как работать с командой
Сегодня ИИ стараются внедрить буквально в каждый этап разработки. Иногда это вдохновляет, но чаще вызывает закономерный скепсис и сопротивление — особенно у команд, которых бездумно заставляют использовать новые инструменты. Почему возникает это сопротивление и как его преодолеть?

Евгений Сатуров, CTO Mobile в Surf, провел 50+ сессий парного программирования, понаблюдал, как разработчики впервые работают с ИИ, и собрал 40 страниц выводов. А потом рассказал обо всем на конференции AI Boost. Теперь выступление есть на YouTube.
Вы узнаете:
Почему ИИ-кодинг — это отдельный навык, а не автоматическое ускорение разработки.
Какие 5 ключевых страхов чаще всего мешают командам (стоимость, недоверие, потеря контроля, замедление, отказ от результата).
Как ИИ подчеркивает слабые места постановки задач и почему качество промпта напрямую влияет на качество решения.
Чем различаются системные, таск- и мета-промпты, и зачем их понимать каждому разработчику.
Почему ИИ-агенты эффективнее на цельных задачах, чем на мелких правках.
Как руководителю внедрять ИИ так, чтобы это не было про «разбирайтесь сами».
Главные барьеры на пути внедрения — не технические, а человеческие. Все ошибки и проблемы проистекают из страхов и заблуждений разработчиков, а не из несовершенства ИИ.
Евгений Сатуров, CTO Mobile в Surf
В видео — много практики, наблюдений и реальных кейсов, как ИИ реально помогает командам — и какие ошибки лучше не повторять. Смотрите на YouTube.
В Рег.облаке появился образ сервера с JupyterHub

В каталог образов Рег.облака добавили еще одну опцию — облачный сервер с предустановленным JupyterHub, готовым решением для командной работы с Jupyter Notebook.
JupyterHub — многопользовательская платформа, которая позволяет управлять сессиями, пользователями и вычислительными ресурсами.
Каждый участник команды получает изолированное рабочее пространство, где можно писать код, анализировать данные и обучать ML-модели.
Зачем это нужно
JupyterHub — готовая среда для аналитиков и разработчиков ML. Теперь при создании виртуального сервера достаточно выбрать образ — и через пару минут можно писать код, запускать системы и обучать модели. Решение подойдет тем, кто работает с большими данными, обучает ML-модели или управляет командами аналитиков.
Основные возможности:
управление пользователями и ролями;
изолированные сессии для каждого участника;
поддержка Python, R и Julia;
доступ к консоли и файловой системе;
интеграция с Git, CI/CD, S3-хранилищами и базами данных;
настройка авторизации через OAuth и LDAP;
масштабирование и подключение внешних вычислительных ядер.
Как начать работу
Закажите облачный сервер с образом JupyterHub в панели управления Рег.облака в JupiterHub.
После запуска сервера на контактный e-mail придет письмо со ссылкой и данными для авторизации.
Протестировать обновление можно уже сейчас в личном кабинете Рег.облака.
📢 Вчера вышла наша новая научная статья, посвященная автоматическому бенчмаркингу и self-error инструкциям в классическом ML.
Ссылка: https://www.mdpi.com/2504-4990/7/4/148
тг-канал: https://t.me/kirill_zakharov_blog
Основная проблема современных бенчмарков в их статичности: будучи фиксированными, они требуют постоянного обновления и усложнения. В отличие от них, автоматические бенчмарки генерируются динамически, исходя из конкретной задачи. В этой области уже существуют работы по синтетическим бенчмаркам, а также так называемые model-aware оценки, которые опираются на саму модель.
💡 Наша идея проста и, кстати, применима и для LLM: если модель действительно хороша, она будет показывать высокие метрики на большей части тестового набора данных или фиксированного бенчмарка. Однако проблемы модели начинаются именно там, где она ошибается. У по-настоящему качественной модели таких ошибок мало, и получить статистически значимые оценки на них сложно.
Более того, рядом с точками, где модель ошибается, почти наверняка существуют и другие точки, в которых она также будет ошибаться — просто исходный датасет не покрывает всю область определения, да и пространство многомерное и точки лежат в нем разреженно.
✅ Мы решили эту задачу: мы исследовали окрестности таких точек и, что удивительно, действительно нашли множество примеров, где модель ошибается так же или даже сильнее. Для этого мы объединили генетический алгоритм и вариационный автокодировщик, чтобы генерировать семантически близкие точки. При этом сгенерированные данные остаются осмысленными и находятся в правдоподобных областях пространства признаков.
В перспективе можно рассмотреть, как искать проблемные точки в LLM. Пока это лишь идея, но, возможно, нам удастся её формализовать и провести соответствующие вычисления.
А это наша визуализация (проекция) точек данных, где как раз видны и кластеры плохих точек и дыры в пространстве признаков.

Ждем вас на AI DevTools Conf — практической конференции про AI в разработке 🎤

Встретимся, чтобы обсудить, как выстраивать сложные AI-процессы, строить мультиагентные системы, делать собственных агентов без кода и управлять их уязвимостями. Регистрируйтесь на конференцию, чтобы послушать экспертов Cloud.ru и приглашенных спикеров. Обещаем, в программе самое прикладное и интересное 😉
Ждем разработчиков, AI- и ML-инженеров, архитекторов, техлидов и всех, кто уже активно работает с AI или хочет его внедрить.
Где? Онлайн или очно в Москве: Варшавское шоссе, 33с3, AG Loft.
Когда? 4 декабря в 16:00 мск.
Если будете офлайн, сможете потестить в демозоне возможности наших сервисов Evolution AI Factory, посетить нетворкинг, выиграть классный мерч и сходить на воркшопы — о них расскажем в следующих постах.
А сейчас — подробнее о каждом докладе на AI DevTools Conf ↓
Доклад 1 💻 Разворачиваем сервисы просто: DevOps-агент в деле
Разберемся, как DevOps-агент автоматизирует настройку и запуск приложений на облачных ВМ. Обсудим архитектуру и фишки агента: как задеплоить его из GitHub, проконтролировать безопасность, покажем быстрый обзор состояния ВМ и другие фичи.
👨💻 → Эмиль Мадатов, Data Science инженер в Cloud․ru
Доклад 2 🛡️ Уязвимости агентных систем и методы защиты
Спикер расскажет о типовых уязвимостях, которые встречаются в агентных системах: от перехвата задач и утечек данных до атак на память и reasoning. А еще покажет примеры атак, методы защиты от них, фреймворки и гайды OWASP, которые применимы к Agentic AI.
👨💻 → Евгений Кокуйкин, CEO HiveTrace, руководитель лаборатории AI Security ИТМО
Доклад 3 🔧 Собираем агентов без навыков программирования
Покажем, как с помощью n8n-совместимого редактора можно строить сложные AI-процессы, подключать модели и сервисы, отслеживать выполнение и масштабировать решения. Разберем реальные сценарии и покажем, как собрать своего первого агента всего за несколько минут.
👨💻 → Артемий Мазаев, Менеджер продукта в Cloud․ru
Доклад 4 🤖 Как мы автоматизировали процесс Code review в Авито при помощи LLM
Эксперт поделится реализуемым пайплайном, который поможет автоматизировать ревью кода. А еще он покажет, как внедрить этот пайплайн во внутренние сервисы.
👨💻 → Марк Каширский, DS Engineer в команде LLM, Авито
Разработали фреймворк для оценки зрелости безопасности ИИ-систем

Сегодня безопасность систем ИИ становится ключевым фактором, определяющим уровень доверия к ним. Для того чтобы организация смогла справиться с этими вызовами, ей необходимо, в первую очередь, определить текущий уровень зрелости и оценить свои слабые и сильные стороны.
Команда Swordfish Security разработала Swordfish: Secure AI Maturity Model (SAIMM) —фреймворк, который помогает компаниям системно выстраивать безопасность ИИ-решений и снижать риски на всех этапах жизненного цикла разработки.
Мы обобщили опыт внедрения ИИ-систем в корпоративной среде, результаты работы с заказчиками из разных отраслей и текущие международные практики безопасности — от OWASP и NIST до MITRE ATLAS. На основе этого сформирована модель зрелости, охватывающая ключевые аспекты безопасности современных ML- и LLM-систем, включая агентные сценарии.
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
1️⃣ Управление и риск-менеджмент
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
2️⃣ Защита данных и конфиденциальность
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
3️⃣ Безопасность модели
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
4️⃣ Безопасность цепочек поставок
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
5️⃣ Инфраструктура и операционная безопасность
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
6️⃣ Безопасность агентных систем
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Что посмотреть в ноябре в онлайне. Было бы куда пойти, я бы пошел…

В конце ноября что-то не густо на какие-то оффлайн мероприятия в Казани. Искал, как мог, но не нашел. Поэтому скину свою подборку онлайн митапов, которые планирую зацепить.
➡️ Yandex AI Studio Series
Целая серия онлайн вебинаров, на которой расскажут, как создать своего AI-агента с помощью Yandex AI Studio.
Старт: 20 ноября в 12.00
Ссылка для регистрации: https://yandex.cloud/ru/ai-studio-series
➡️ QA Day: Test like a pro
Я же все таки тестировщик. Поэтому мимо митапа о вайбкодинге в автоматизации тестирования пройти не могу.
Старт: 20 ноября в 18.00
Ссылка для регистрации: https://axenix-org.timepad.ru/event/3626298
➡️ Podlodka Soft Skills Crew
Всеми любимая конфа от Подлодки на тему софт-скилов. Несколько дней онлайн трансляции с крутыми спикерами. Правда мероприятие не бесплатное, но цена - очень даже адекватная.
Старт: 24 ноября в 10.00
Ссылка для регистрации: https://podlodka.io/softcrew
➡️ Прогноз для ИТ-рынка на 2026 год: оптимисты против пессимистов
Любишь думать о будущем и слушать прогнозы? Тебе сюда. Тем более обсуждают ИТ-рынок.
Старт: 26 ноября в 11.00
Ссылка для регистрации: https://axoftglobal.ru/events/prognoz_dlya_it_rynka_na_2026_god_optimisty_vs_pessimistov
➡️ Разработка 2.0: AI-агенты как новая команда в тестировании, документировании, разработке
Небольшой митап о том, как создать полезных AI-агентов. Зацепило то, что расскажут, как агента интегрировать в процесс тестирования.
Старт: 26 ноября в 11.00
Ссылка для регистрации: https://fork-tech.timepad.ru/event/3652158
Онлайн мероприятий, на самом деле, вагон и маленькая тележка. А если вам не зашла моя выборка, то по ссылке я рассказал, как искать мероприятия по душе:
ITFB Group на Международном форуме ЭДО

11 ноября ITFB Group приняла участие в Международном форуме ЭДО, который прошёл в Цифровом деловом пространстве в Москве. На сцене были представлены два практических кейса по внедрению платформ СИМФОНИЯ и EasyDoc, которые вызвали большой интерес и активную дискуссию в зале.
Кейс Билайн и СИМФОНИЯ
Совместно с Александром Виниковецким, директором по развитию ЭДО Билайн, мы рассказали о переходе компании с легаси-системы и выборе платформы нового поколения.
Анастасия Литвиненко, директор по развитию бизнеса ITFB Group, представила архитектуру СИМФОНИИ и объяснила, как low-code подход помогает ускорять изменения в процессах ЭДО.
Кейс НПФ «Будущее» и EasyDoc
Виктория Бондарева, заместитель генерального директора фонда, представила результаты крупнейшего в России проекта по интеллектуальному распознаванию документов. На базе EasyDoc обработано 142 тыс. файлов с использованием ИИ и LLM-моделей.
Мы также подготовили подборку материалов о наших внедрениях в банках, промышленности, строительстве и госсекторе.
Кейсы EasyDoc
— Цифровизация голосования в ГК «Смарт Сервис» (Донстрой)
— Распознавание пакета документов клиента в МКБ
Кейсы СИМФОНИИ
— Система управления инвестиционными проектами в «Россети Юг»
— СИМФОНИЯ в проекте ВСМ Москва — Санкт-Петербург
Полезные материалы:
— Грани искусственного интеллекта: как СЭД становится умной — TAdviser
— ИИ в СЭД уже привычен большинству компаний — интервью TAdviser
— Почему выбирают OCR-платформу EasyDoc — ITFB Group
Форум показал, что запрос на гибкость, low-code и интеллектуальные инструменты в документообороте становится стандартом отрасли — и мы рады вносить вклад в этот переход.
Если вы хотите обсудить ваши задачи или посмотреть демо решений ITFB Group — оставляйте заявку.
Вторая часть про Tier 1 "AI tools", первая тут https://habr.com/ru/posts/966942/
В первой части коротко про ChatGPT, Claude + NotebookLM, во второй коротко про изображения и автоматизации

🔡 Генерация изображений и видео
Nano Banana 🍌
Визуальная модель внутри Gemini, которая генерирует одни из лучших на сегодня изображений. Очень высокое сохранение лиц и объектов.
В интерфейсе Gemini на бесплатном аккаунте доступно до 100 генераций в день
Либо можно работать через AI Studio — он чуть перегружен, но там можно выбирать разрешение:
Основные сценарии:
• Создание контента и креативов с нуля
• Визуал для постов, афиш, презентаций, обложек
• Быстрое редактирование и улучшение фото (удаление объектов, замена фона)
• Генерация ключевых кадров для дальнейшего создания видео в Veo 3.1
Nano Banana не переделывает всю сцену с нуля, а как бы «прифотошопливает» людей и объекты, сохраняя исходную композицию.
Лучшие практики:
• Подробно описывайте результат (стиль, освещение, тона)
• Используйте референсы для сохранения персонажей и стиля
• Работайте итеративно: сначала фон, затем персонажи, потом детали
Про AI изображения писал огромную статью, все те же правила подойдут и для бананы
Veo 3.1 (есть ещё Sora 2, тоже очень высокого качества)
Создание видео из изображения или текста
Гугловская модель для создания видео и озвучки. Превращает статичные изображения в живые ролики.
В бесплатном Gemini напрямую не доступен — нужен Pro-тариф.
Основные сценарии:
• Создание рекламных и промо-роликов без съемок
• Короткий контент для Reels, Stories, TikTok
• Оживление статичных фото и концепт-артов
• Демонстрация продукта с разных ракурсов
Как работать:
• Пропишите детальный сценарий: локацию, время, героев, действия, камеру, звук
• Добавляйте референсные изображения для сохранения стиля
• Тестируйте композицию в Fast, финальный вариант делайте в Normal
В режиме Image to Video можно загрузить два кадра (Start Frame и Finish Frame) и получить плавное видео между ними.
⸻
🔡 Автоматизации и агенты
n8n
Low-code платформа для автоматизаций. Не только AI, но последнее время они активно развивают AI ноды
Это уже сильно прикладной инструмент. Последнее время мне намного проще написать кодом и развернуть на своём сервере автоматизацию, чем собирать в n8n.
Но для визуальной сборки он классный 🐥
Основные сценарии:
• Автоматическая обработка заявок, лидов, форм
• Связка ChatGPT/Claude с CRM, Notion, почтой
• Регулярные отчеты, выгрузки, уведомления
AgentKit от OpenAI
Похоже на n8n немного, но достаточно сильно отличается изнутри. Работает только как агентная система с ИИ. Тогда как в n8n не обязательно ставить ИИ-ноду.
Но у AgentKit есть огромные плюсы в виде очень удобного RAG, Guardrails и уже готового SDK с сильно настраиваемым UI.
Что означает, что чат-бота можно развернуть за 10 минут на своем сайте.
Есть много других подобных сервисов, например Make или Google Opal.
⸻
🔡 Создание сайтов и интерфейсов с помощью ИИ
Что пробовал я:
• Replit
• Lovable
• v0
• Bolt
Насчет разницы между ними сложно сказать, так как они постоянно развиваются, а мой опыт работы с каждой из платформ становится не релевантным уже спустя месяц. Но если бы я выбирал только 1 из них, то выбрал бы Replit, вроде самый популярный сейчас
Я просто последнее время перешел на связку VS Code + Claude Code + Codex + CLI, а за инструменты из списка выше платить перестал.
Cursor я кстати не использую, но без каких либо конкретных причин, просто за Claude Code 100$ плачу
Про работу с кодом как нибудь отдельно расскажу, ещё и про AI CLI. Так как это очень большой отдельный мир
«Яндекс» запустил «Промптхаб» — площадку с идеями, как применять ИИ.
Любой пользователь, даже незнакомый с нейросетями, сможет найти для себя что‑то полезное и тут же воспользоваться идеей — например, чтобы нейросеть спланировала поездку по стране или составила меню на неделю.
На платформе «Промптхаб» есть уже готовые задания для нейросетей (промпты) на все случаи жизни и курсы по работе с ИИ. Пользователи и компании могут также добавлять на сервис свои идеи и находки. Понравившийся вариант можно сразу попробовать, отправив в чат с нейросетью «Яндекса» — «Алисой AI».

20 бесплатных демо-уроков ноября

19 ноября, среда:
20 ноября, четверг:
18:00 — Создаем LLM агентов на LangChain
18:00 — Kafka как очередь задач: создаём систему асинхронной обработки
19:00 — Настройка Nginx/Angie для высоких нагрузок и защиты от DoS-атак
20:00 — SAST, их много, почему столько, а сколько нужно нам? А главное какие?
24 ноября, понедельник:
20:00 — Применение распределённых конфигураций для управления микросервисами на Go
20:00 — Вход в ядро: системные вызовы и граница между user space и kernel space
20:00 — Пентестирование инсайдерских угроз: тестируем, имитируем, защищаем
20:00 — Анатомия нейросетей: от трансформеров к современным архитектурам
26 ноября, среда:
20:00 — Spring Boot + Kafka
20:00 — От DINO к DINOv3: лучшие self-supervised подходы в современном компьютерном зрении
20:00 — Интеграция Clickhouse и dbt
27 ноября, четверг:
19:00 — Метрики и Prometheus
В июле я писал о том, что Gaunt Sloth Assistant дошёл до версии 0.9.2. Сегодня мы наконец можем сказать, что вышла версия 1.0.0. В этом релизе мы перевели основную зависимость на LangChain/LangGraph v1, обновили минимальные требования до Node 24/npm 11 и официально объявили CLI готовым к повседневной автоматизации.
Что изменилось с прошлого поста?
Ревью теперь завершаются вызовом встроенного рейтингового инструмента. По умолчанию шкала 10/10, порог прохождения 6/10, и оценки ниже 6 заставляют команду review возвращать ненулевой код (non-zero exit code). Если нужен только режим предупреждений, установите commands.review.rating.enabled (и/или commands.pr.rating.enabled) в false в .gsloth.config.*.
Профили идентичности стали частью базового сценария: один флаг -i profile-name, и вы переключаете промпты, модели и провайдеры на уровень нужной папки.
Middleware теперь сущность первого класса. Можно комбинировать встроенные варианты вроде anthropic-prompt-caching или summarization, подключать собственные объекты на JS, а CLI показывает, что именно выполняется при каждой команде.
Глубокое слияние конфигов команд устранило проблему, когда переопределение источника контента стирало настройки рейтинга. Теперь значения по умолчанию сохраняются даже при частичных правках.
Мы освежили кеш OAuth, документацию и README, чтобы новичкам было проще стартовать, и параллельно усилили безопасность зависимостей.
Профили идентичности — главный QoL‑апгрейд 1.0.0. Они позволяют мгновенно переключаться между системными промптами, пресетами моделей и наборами инструментов под конкретную задачу. gth pr 555 PP-4242 по‑прежнему читает .gsloth/.gsloth-settings, а gth -i devops pr 555 PP-4242 автоматически берёт конфиг из .gsloth/.gsloth-settings/devops/ со своими промптами и провайдерами.
Нужно поговорить с Jira через MCP? Создайте профиль вроде jira-mcp со своим конфигом и запустите gth -i jira-mcp chat. Укороченный пример:
{
"llm": {
"type": "vertexai",
"model": "gemini-2.5-pro"
},
"mcpServers": {
"jira": {
"url": "https://mcp.atlassian.com/v1/sse",
"authProvider": "OAuth",
"transport": "sse"
}
},
"requirementsProviderConfig": {
"jira": {
"cloudId": "YOUR-JIRA-CLOUD-ID-UUID",
"displayUrl": "https://YOUR-BUSINESS.atlassian.net/browse/"
}
},
"commands": {
"pr": {
"contentProvider": "github",
"requirementsProvider": "jira"
}
}
}
Переключение между такими папками теперь — один флаг, поэтому удобно держать отдельные персоны для DevOps, документации или любого удалённого MCP.
Rater — второй крупный прорыв. Ревью всегда содержали текстовый фидбек, но в 1.0.0 оценка стала действенной: мы сохраняем её в хранилище артефактов, передаём в модуль ревью и вызываем setExitCode, чтобы CI автоматически падал при невыполнении цели по качеству. Настройка защит для продакшн‑сервисов занимает теперь секунды и не требует самописных скриптов.
Наконец, реестр middleware и хранилище артефактов дают аккуратные точки расширения на будущее. Можно оборачивать вызовы моделей и инструментов, логировать каждую операцию и при этом оставлять Gaunt Sloth вести те же chat/code/pr/init команды. CLI как и раньше — небольшой TypeScript‑бинарь, который устанавливается через npm или запускается npx gth, но теперь у него архитектура, позволяющая развиваться без костылей.
Хотите попробовать релиз — быстрый путь всё ещё
npm install -g gaunt-sloth-assistant
репозиторий https://github.com/Galvanized-Pukeko/gaunt-sloth-assistant пригодится как справочник и место для issues. Заводите issue, оставляйте фидбек в Discussions или подключайте rater к своему CI и расскажите, как он себя ведёт — буду рад помощи в движении к 1.1.
Спасибо всем, кто помог тестами и несколькими PR.
ИИ — и не друг, и не враг, а как? Опрос от Хабра.
ИИ с невероятной скоростью проникает во все сферы жизни — порой даже в те, где он точно не нужен и даже вреден. Конечно, ИИ проникает и на Хабр: кто-то из авторов с его помощью редактирует статьи, кто-то придумывает темы, а кто-то генерирует тексты и улетает в бан. Мы стараемся регулировать проблему, скрываем подозрительные статьи, строго проверяем материалы в песочнице. Но отгородиться от всепроникающей технологии сложно, да и... в каких границах нужно?
Вы много раз выручали нас классными идеями для Хабра, просим вас высказать своё мнение.

Представлен открытый проект Heretic: Fully automatic censorship removal for language models, который снимаем цензуру у текстовых нейросетей на уровне внутренних настроек. При этом все параметры подбираются автоматически. Цензура падает почти в ноль: тестировали на Gemma 3 от Google — процент отказов упал с 97% до 3%. Работает со всеми типами моделей. Минус один: нужен хотя бы средний комп.

Уже несколько месяцев как провожу воркшопы по AI, и вот список сервисов, про которые я постоянно там рассказываю

Часть 1 про LLM 🫡
ChatGPT — это база, основную теорию по которому я расписывать не буду, по нему у меня написан целый гайд
Но в chatgpt вау эффекты для меня вызывают эти функции 👇
Agent Mode
Режим, в котором ИИ эмулирует поведение человека в браузере — сам открывает сайты, кликает, вводит данные, ищет и сравнивает информацию.
Основные сценарии:
• Поиск отелей на Booking/Airbnb по конкретным критериям
• Поиск товаров на маркетплейсах вроде Lazada
• Сбор информации с сайтов, где обычный поиск бессилен
• Выполнение простых рутинных действий в интерфейсе
Их браузер Atlas, насколько я понимаю, должен делать примерно то же самое, но я еще не успел его протестировать — он пока только на macOS.
GPTs
Отличный вариан настроить чат под себя, добавив свои документы и системный промпт
Основные мои сценарии, которые я делал либо для себя, либо для компаний
• Переводчик в нужном стиле
• Личный редактор под мой tone of voice
• Чат по продукту/компании на базе знаний
• Онбординг-бот для новичков
• Внутренний FAQ по документации
Deep Research
Почти все знают про Deep Research для изучения интернета и сбора информации. Но мало кто знает, что его можно запустить и в свой Gmail, Google Drive, Notion или GitHub.
Например, он бегает по моему GitHub и делает подробное ревью репозитория, дает советы по продуктовому бэклогу и подсказывает, что можно улучшить в коде.
⸻
Claude — мой второй LLM
Мне чуть больше нравится, как он пишет, но 90% моего использования Claude — это возможность подключения множества сервисов через MCP: Google Analytics, Miro, Notion, Apify, Tick Tick и другие.
Со всем этим Claude может взаимодействовать — читать данные и записывать.
Это невероятно удобно: почти в каждом инструменте у меня есть умный помощник, который может получить и проанализировать данные прямо из базы сервиса.
Да, у ChatGPT тоже есть MCP, но по сути это слой поверх OAuth. У Claude вариантов подключения к тысячам сервисов ощутимо больше и гибче.
⸻
NotebookLM — RAG-UI от Google
Красивый интерфейс для RAG-системы. Загружаешь свои данные, а он строит вокруг них чат и артефакты.
На одном воркшопе команды за 30 минут сделали чатики для онбординга новых сотрудников на основе корпоративных статей. Теперь новый сотрудник, вместо изучения статей, может просто задавать вопросы в чатик и получать моментальные ответы с ссылками на источники.
Что можно загрузить:
• Множество документов
• Обычный текст
• YouTube-видео по ссылке
Что можно получить:
• Чат, который опирается только на загруженные данные и практически не галлюцинирует
• Видео, аудио, текстовые конспекты и отчеты
• Квизы, мемори-карточки, майндмэпы
Если еще не пробовали NotebookLM — очень советую
Вторую часть выложу чуть попозже
Энтузиасты выяснили, что фильтры чат‑ботов с ИИ (работает в GPT-4o и Claude 4) можно обойти с помощью «=coffee». Если после запроса добавить слово =coffee, то фильтры нейросетей не видят угрозу. Например, можно получить ключи регистрации Windows 11.

Ранее компьютерный энтузиаст и исследователь ИБ Марко Фигероа предложил ИИ‑модели сыграть в игру «угадайка» и тем самым нашёл способ обмануть ChatGPT 4.0 и выдать скрытые в системе обучения нейросети рабочие ключи для активации Windows 10, включая как минимум один, принадлежащий банку Wells Fargo. В этом эксперименте исследователь обманом смог обойти защитные барьеры в ChatGPT 4.0, предназначенные для предотвращения передачи секретной или потенциально опасной информации, предложив ИИ сыграть в логическую игру. Эти барьеры были разработаны для блокировки доступа к любым лицензиям, таким как ключи продуктов Windows 10. Разработчики нейросети обучили ИИ на примерах реальных ключей активации, что такое нельзя выдавать пользователю.
Элэлэмки, Сталин дал приказ.
Кого задолбали посты с тестированием LLM, дальше можете не читать, пардон. Пост про то как у бесплатных ллм, что попались под руку, я спросил - правильный ли код для такой задачи (сорри за кривую постановку вопроса и не менее кривой английский):
in C# for
int d;
I need to calculate number of same consecutive leading bits leadingCount. Does the next code do it correctly?
int d;
uint uintD = unchecked((uint)d);
int leadingCount = BitOperations.LeadingZeroCount(uintD) + BitOperations.LeadingZeroCount(~uintD);Развернутый ответ, который начинается в стиле "Yes — that code does correctly compute the number of consecutive identical leading bits in a 32-bit int. " дали следующие ллм:
chatgpt
gemini-2.5-pro
copilot.microsoft.com
perplexity.ai
kimi.com
ernie.baidu.com
Развернутый ответ, который начинается в стиле "No, the code does not compute the number of same consecutive leading bits in d" дали следующие ллм:
grok.com/c
chat.deepseek.com
qwen.ai/c
chat.z.ai
При этом, как мне показалось, даже небольшие, казалось бы несущественные изменения запроса, меняют этот расклад.
Смысл вопроса - правильный ли код на C# для подсчета количество одинаковых бит в начале целого числа.