Обновить
1408.95

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

OpenAI планирует через 5 лет потреблять больше энергии, чем Германия и через 8 лет превзойти Индию по электропотреблению.

Теги:
+3
Комментарии2

Представлен ИИ-сервис Vibetest Use, который тестирует сайты на прочность и ищет уязвимости. Параллельно запускаются сразу несколько проверок с помощью ИИ, которые ищут ошибки, битые ссылки или проблемы в дизайне. Работает на базе Claude. В качестве альтернативы можно запустить с бесплатным API от Google через Cursor.

Теги:
0
Комментарии1

Как собрать и внедрить свой корпоративный AI-чат

AI-чат — уже не просто модное словечко, а необходимый инструмент. Он облегчит коммуникацию, поможет автоматизировать задачи и повысить эффективность работы.

Зовем на вебинар, где расскажем, как развернуть собственное решение, чтобы оно отвечало требованиям безопасности и стабильно работало в вашем контуре.

Что еще обсудим:

  • Из каких open source решений на рынке мы выбирали и на чем в итоге остановились.

  • Почему свой AI-чат лучше SaaS? Приведем весомые аргументы.

  • Как собрать AI-чат, чтобы все было безопасно и не нарушало закон.

  • Какие архитектурные решения мы протестировали и к каким выводам пришли.

Будет интересно системным администраторам, IT-директорам, разработчикам и всем, кто хочет автоматизировать внутренние процессы с помощью корпоративного AI-чата.

📅 Когда? 27 ноября в 11:00 мск.

📍Где? Онлайн. Регистрируйтесь на странице вебинара — и до скорой встречи.

Теги:
-3
Комментарии1

Открыли полный доступ к Evolution AI Factory для создания GenAI с минимальными затратами 🚀

Вчера на AI Journey объявили о коммерческом запуске Evolution AI Factory — облачной среды с готовым набором сервисов для работы с GenAI. Мы разрабатывали ее так, чтобы пользователям с любым уровнем навыков программирования и погружения в машинное обучение было удобно и понятно.            

В Evolution AI Factory шесть взаимосвязанных сервисов:

🧠 Foundation Models — каталог из 20+ моделей, включая GigaChat-2-Max, Qwen3-Coder, MiniMax и другие. Работают по OpenAI-совместимому API.

⚡ ML Inference — инструмент для быстрого запуска собственных ML-моделей или развертывания готовых из HuggingFace.

🤖 AI Agents — агенты для автономного выполнения задач и интеграции с другими системами.

📓 Evolution Notebooks — запуск нужной вам среды разработки в облаке: JupyterLab, VS Code Server, ComfyUI, n8n и другие. Возможность экспериментировать на CPU или GPU без ограничений.

🎯 Managed RAG — инструмент для повышения точности выдачи LLM с учетом ваших корпоративных данных.

🔧 ML Finetuning — дообучение LLM под задачи вашего бизнеса с использованием LoRA-адаптеров.

Сервисы доступны с гарантированным SLA, поддержкой 24/7 и возможностью масштабировать нагрузку. И все по доступным ценам: открытые LLM из каталога Foundation Models сейчас стоят в среднем 35 рублей за входной и 70 рублей за выходной миллион токенов. 

Выбирайте подходящие инструменты и реализуйте проекты в облаке! 

Теги:
-1
Комментарии0

Хотели ускорить разработку с ИИ, а получили сопротивление и хаос: как работать с командой

Сегодня ИИ стараются внедрить буквально в каждый этап разработки. Иногда это вдохновляет, но чаще вызывает закономерный скепсис и сопротивление — особенно у команд, которых бездумно заставляют использовать новые инструменты.  Почему возникает это сопротивление и как его преодолеть?

Евгений Сатуров, CTO Mobile в Surf, провел 50+ сессий парного программирования, понаблюдал, как разработчики впервые работают с ИИ, и собрал 40 страниц выводов. А потом рассказал обо всем на конференции AI Boost. Теперь выступление есть на YouTube.

Вы узнаете:

  • Почему ИИ-кодинг — это отдельный навык, а не автоматическое ускорение разработки.

  • Какие 5 ключевых страхов чаще всего мешают командам (стоимость, недоверие, потеря контроля, замедление, отказ от результата).

  • Как ИИ подчеркивает слабые места постановки задач и почему качество промпта напрямую влияет на качество решения.

  • Чем различаются системные, таск- и мета-промпты, и зачем их понимать каждому разработчику.

  • Почему ИИ-агенты эффективнее на цельных задачах, чем на мелких правках.

  • Как руководителю внедрять ИИ так, чтобы это не было про «разбирайтесь сами».

Главные барьеры на пути внедрения — не технические, а человеческие. Все ошибки и проблемы проистекают из страхов и заблуждений разработчиков, а не из несовершенства ИИ.

Евгений Сатуров, CTO Mobile в Surf

В видео — много практики, наблюдений и реальных кейсов, как ИИ реально помогает командам — и какие ошибки лучше не повторять. Смотрите на YouTube.

Теги:
-4
Комментарии2

В Рег.облаке появился образ сервера с JupyterHub

В каталог образов Рег.облака добавили еще одну опцию — облачный сервер с предустановленным JupyterHub, готовым решением для командной работы с Jupyter Notebook.

JupyterHub — многопользовательская платформа, которая позволяет управлять сессиями, пользователями и вычислительными ресурсами.
Каждый участник команды получает изолированное рабочее пространство, где можно писать код, анализировать данные и обучать ML-модели.

Зачем это нужно

JupyterHub — готовая среда для аналитиков и разработчиков ML. Теперь при создании виртуального сервера достаточно выбрать образ — и через пару минут можно писать код, запускать системы и обучать модели. Решение подойдет тем, кто работает с большими данными, обучает ML-модели или управляет командами аналитиков.

Основные возможности:

  • управление пользователями и ролями;

  • изолированные сессии для каждого участника;

  • поддержка Python, R и Julia;

  • доступ к консоли и файловой системе;

  • интеграция с Git, CI/CD, S3-хранилищами и базами данных;

  • настройка авторизации через OAuth и LDAP;

  • масштабирование и подключение внешних вычислительных ядер.

Как начать работу

  1. Закажите облачный сервер с образом JupyterHub в панели управления Рег.облака в JupiterHub.

  2. После запуска сервера на контактный e-mail придет письмо со ссылкой и данными для авторизации.

Протестировать обновление можно уже сейчас в личном кабинете Рег.облака.

Теги:
+2
Комментарии0

📢 Вчера вышла наша новая научная статья, посвященная автоматическому бенчмаркингу и self-error инструкциям в классическом ML.

Ссылка: https://www.mdpi.com/2504-4990/7/4/148
тг-канал: https://t.me/kirill_zakharov_blog

Основная проблема современных бенчмарков в их статичности: будучи фиксированными, они требуют постоянного обновления и усложнения. В отличие от них, автоматические бенчмарки генерируются динамически, исходя из конкретной задачи. В этой области уже существуют работы по синтетическим бенчмаркам, а также так называемые model-aware оценки, которые опираются на саму модель.

💡 Наша идея проста и, кстати, применима и для LLM: если модель действительно хороша, она будет показывать высокие метрики на большей части тестового набора данных или фиксированного бенчмарка. Однако проблемы модели начинаются именно там, где она ошибается. У по-настоящему качественной модели таких ошибок мало, и получить статистически значимые оценки на них сложно.

Более того, рядом с точками, где модель ошибается, почти наверняка существуют и другие точки, в которых она также будет ошибаться — просто исходный датасет не покрывает всю область определения, да и пространство многомерное и точки лежат в нем разреженно.

Мы решили эту задачу: мы исследовали окрестности таких точек и, что удивительно, действительно нашли множество примеров, где модель ошибается так же или даже сильнее. Для этого мы объединили генетический алгоритм и вариационный автокодировщик, чтобы генерировать семантически близкие точки. При этом сгенерированные данные остаются осмысленными и находятся в правдоподобных областях пространства признаков.

В перспективе можно рассмотреть, как искать проблемные точки в LLM. Пока это лишь идея, но, возможно, нам удастся её формализовать и провести соответствующие вычисления.

А это наша визуализация (проекция) точек данных, где как раз видны и кластеры плохих точек и дыры в пространстве признаков.

Рисунок из нашей статьи https://www.mdpi.com/2504-4990/7/4/148
Рисунок из нашей статьи https://www.mdpi.com/2504-4990/7/4/148
Теги:
-1
Комментарии0

Ждем вас на AI DevTools Conf — практической конференции про AI в разработке 🎤

Встретимся, чтобы обсудить, как выстраивать сложные AI-процессы, строить мультиагентные системы, делать собственных агентов без кода и управлять их уязвимостями. Регистрируйтесь на конференцию, чтобы послушать экспертов Cloud.ru и приглашенных спикеров. Обещаем, в программе самое прикладное и интересное 😉 

Ждем разработчиков, AI- и ML-инженеров, архитекторов, техлидов и всех, кто уже активно работает с AI или хочет его внедрить.

Где? Онлайн или очно в Москве: Варшавское шоссе, 33с3, AG Loft.

Когда? 4 декабря в 16:00 мск.

Если будете офлайн, сможете потестить в демозоне возможности наших сервисов Evolution AI Factory, посетить нетворкинг, выиграть классный мерч и сходить на воркшопы — о них расскажем в следующих постах.

А сейчас — подробнее о каждом докладе на AI DevTools Conf ↓

Доклад 1 💻 Разворачиваем сервисы просто: DevOps-агент в деле
Разберемся, как DevOps-агент автоматизирует настройку и запуск приложений на облачных ВМ. Обсудим архитектуру и фишки агента: как задеплоить его из GitHub, проконтролировать безопасность, покажем быстрый обзор состояния ВМ и другие фичи.

👨‍💻 → Эмиль Мадатов, Data Science инженер в Cloud․ru

Доклад 2 🛡️ Уязвимости агентных систем и методы защиты
Спикер расскажет о типовых уязвимостях, которые встречаются в агентных системах: от перехвата задач и утечек данных до атак на память и reasoning. А еще покажет примеры атак, методы защиты от них, фреймворки и гайды OWASP, которые применимы к Agentic AI.

👨‍💻 → Евгений Кокуйкин, CEO HiveTrace, руководитель лаборатории AI Security ИТМО

Доклад 3 🔧 Собираем агентов без навыков программирования
Покажем, как с помощью n8n-совместимого редактора можно строить сложные AI-процессы, подключать модели и сервисы, отслеживать выполнение и масштабировать решения. Разберем реальные сценарии и покажем, как собрать своего первого агента всего за несколько минут.

👨‍💻 → Артемий Мазаев, Менеджер продукта в Cloud․ru

Доклад 4 🤖 Как мы автоматизировали процесс Code review в Авито при помощи LLM
Эксперт поделится реализуемым пайплайном, который поможет автоматизировать ревью кода. А еще он покажет, как внедрить этот пайплайн во внутренние сервисы.

👨‍💻 → Марк Каширский, DS Engineer в команде LLM, Авито

Теги:
0
Комментарии0

Разработали фреймворк для оценки зрелости безопасности ИИ-систем

Сегодня безопасность систем ИИ становится ключевым фактором, определяющим уровень доверия к ним. Для того чтобы организация смогла справиться с этими вызовами, ей необходимо, в первую очередь, определить текущий уровень зрелости и оценить свои слабые и сильные стороны.

Команда Swordfish Security разработала Swordfish: Secure AI Maturity Model (SAIMM) —фреймворк, который помогает компаниям системно выстраивать безопасность ИИ-решений и снижать риски на всех этапах жизненного цикла разработки.

Мы обобщили опыт внедрения ИИ-систем в корпоративной среде, результаты работы с заказчиками из разных отраслей и текущие международные практики безопасности — от OWASP и NIST до MITRE ATLAS. На основе этого сформирована модель зрелости, охватывающая ключевые аспекты безопасности современных ML- и LLM-систем, включая агентные сценарии.

Читать фреймворк

SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.

Домены SAIMM:

1️⃣ Управление и риск-менеджмент
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.

2️⃣ Защита данных и конфиденциальность
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.

3️⃣ Безопасность модели
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.

4️⃣ Безопасность цепочек поставок
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.

5️⃣ Инфраструктура и операционная безопасность
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.

6️⃣ Безопасность агентных систем
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.

SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.

Теги:
+2
Комментарии1

Что посмотреть в ноябре в онлайне. Было бы куда пойти, я бы пошел…

В конце ноября что-то не густо на какие-то оффлайн мероприятия в Казани. Искал, как мог, но не нашел. Поэтому скину свою подборку онлайн митапов, которые планирую зацепить.

➡️ Yandex AI Studio Series

Целая серия онлайн вебинаров, на которой расскажут, как создать своего AI-агента с помощью Yandex AI Studio.

Старт: 20 ноября в 12.00
Ссылка для регистрации: https://yandex.cloud/ru/ai-studio-series

➡️ QA Day: Test like a pro

Я же все таки тестировщик. Поэтому мимо митапа о вайбкодинге в автоматизации тестирования пройти не могу.

Старт: 20 ноября в 18.00
Ссылка для регистрации: https://axenix-org.timepad.ru/event/3626298

➡️ Podlodka Soft Skills Crew

Всеми любимая конфа от Подлодки на тему софт-скилов. Несколько дней онлайн трансляции с крутыми спикерами. Правда мероприятие не бесплатное, но цена - очень даже адекватная.

Старт: 24 ноября в 10.00
Ссылка для регистрации: https://podlodka.io/softcrew

➡️ Прогноз для ИТ-рынка на 2026 год: оптимисты против пессимистов

Любишь думать о будущем и слушать прогнозы? Тебе сюда. Тем более обсуждают ИТ-рынок.

Старт: 26 ноября в 11.00
Ссылка для регистрации: https://axoftglobal.ru/events/prognoz_dlya_it_rynka_na_2026_god_optimisty_vs_pessimistov

➡️ Разработка 2.0: AI-агенты как новая команда в тестировании, документировании, разработке

Небольшой митап о том, как создать полезных AI-агентов. Зацепило то, что расскажут, как агента интегрировать в процесс тестирования.

Старт: 26 ноября в 11.00
Ссылка для регистрации: https://fork-tech.timepad.ru/event/3652158

Онлайн мероприятий, на самом деле, вагон и маленькая тележка. А если вам не зашла моя выборка, то по ссылке я рассказал, как искать мероприятия по душе:

https://habr.com/ru/posts/963176

Теги:
-1
Комментарии0

ITFB Group на Международном форуме ЭДО

11 ноября ITFB Group приняла участие в Международном форуме ЭДО, который прошёл в Цифровом деловом пространстве в Москве. На сцене были представлены два практических кейса по внедрению платформ СИМФОНИЯ и EasyDoc, которые вызвали большой интерес и активную дискуссию в зале.

Кейс Билайн и СИМФОНИЯ

Совместно с Александром Виниковецким, директором по развитию ЭДО Билайн, мы рассказали о переходе компании с легаси-системы и выборе платформы нового поколения.

Анастасия Литвиненко, директор по развитию бизнеса ITFB Group, представила архитектуру СИМФОНИИ и объяснила, как low-code подход помогает ускорять изменения в процессах ЭДО.

Читать полный кейс

Кейс НПФ «Будущее» и EasyDoc

Виктория Бондарева, заместитель генерального директора фонда, представила результаты крупнейшего в России проекта по интеллектуальному распознаванию документов. На базе EasyDoc обработано 142 тыс. файлов с использованием ИИ и LLM-моделей.

Читать полный кейс

Мы также подготовили подборку материалов о наших внедрениях в банках, промышленности, строительстве и госсекторе.

Кейсы EasyDoc

Цифровизация голосования в ГК «Смарт Сервис» (Донстрой)
Распознавание пакета документов клиента в МКБ

Кейсы СИМФОНИИ

Система управления инвестиционными проектами в «Россети Юг»
СИМФОНИЯ в проекте ВСМ Москва — Санкт-Петербург

Полезные материалы:

Грани искусственного интеллекта: как СЭД становится умной — TAdviser
ИИ в СЭД уже привычен большинству компаний — интервью TAdviser
Почему выбирают OCR-платформу EasyDoc — ITFB Group

Форум показал, что запрос на гибкость, low-code и интеллектуальные инструменты в документообороте становится стандартом отрасли — и мы рады вносить вклад в этот переход.

Если вы хотите обсудить ваши задачи или посмотреть демо решений ITFB Group — оставляйте заявку.

Теги:
Рейтинг0
Комментарии2

Вторая часть про Tier 1 "AI tools", первая тут https://habr.com/ru/posts/966942/
В первой части коротко про ChatGPT, Claude + NotebookLM, во второй коротко про изображения и автоматизации

🔡 Генерация изображений и видео

Nano Banana 🍌

Визуальная модель внутри Gemini, которая генерирует одни из лучших на сегодня изображений. Очень высокое сохранение лиц и объектов.

В интерфейсе Gemini на бесплатном аккаунте доступно до 100 генераций в день

Либо можно работать через AI Studio — он чуть перегружен, но там можно выбирать разрешение:

Основные сценарии:
• Создание контента и креативов с нуля
• Визуал для постов, афиш, презентаций, обложек
• Быстрое редактирование и улучшение фото (удаление объектов, замена фона)
• Генерация ключевых кадров для дальнейшего создания видео в Veo 3.1

Nano Banana не переделывает всю сцену с нуля, а как бы «прифотошопливает» людей и объекты, сохраняя исходную композицию.

Лучшие практики:
• Подробно описывайте результат (стиль, освещение, тона)
• Используйте референсы для сохранения персонажей и стиля
• Работайте итеративно: сначала фон, затем персонажи, потом детали

Про AI изображения писал огромную статью, все те же правила подойдут и для бананы

Veo 3.1 (есть ещё Sora 2, тоже очень высокого качества)

Создание видео из изображения или текста

Гугловская модель для создания видео и озвучки. Превращает статичные изображения в живые ролики.

В бесплатном Gemini напрямую не доступен — нужен Pro-тариф.

Основные сценарии:
• Создание рекламных и промо-роликов без съемок
• Короткий контент для Reels, Stories, TikTok
• Оживление статичных фото и концепт-артов
• Демонстрация продукта с разных ракурсов

Как работать:
• Пропишите детальный сценарий: локацию, время, героев, действия, камеру, звук
• Добавляйте референсные изображения для сохранения стиля
• Тестируйте композицию в Fast, финальный вариант делайте в Normal

В режиме Image to Video можно загрузить два кадра (Start Frame и Finish Frame) и получить плавное видео между ними.​​​​​​​​​​​​​​​​

🔡 Автоматизации и агенты

n8n

Low-code платформа для автоматизаций. Не только AI, но последнее время они активно развивают AI ноды

Это уже сильно прикладной инструмент. Последнее время мне намного проще написать кодом и развернуть на своём сервере автоматизацию, чем собирать в n8n.

Но для визуальной сборки он классный 🐥

Основные сценарии:
• Автоматическая обработка заявок, лидов, форм
• Связка ChatGPT/Claude с CRM, Notion, почтой
• Регулярные отчеты, выгрузки, уведомления

AgentKit от OpenAI

Похоже на n8n немного, но достаточно сильно отличается изнутри. Работает только как агентная система с ИИ. Тогда как в n8n не обязательно ставить ИИ-ноду.

Но у AgentKit есть огромные плюсы в виде очень удобного RAG, Guardrails и уже готового SDK с сильно настраиваемым UI.

Что означает, что чат-бота можно развернуть за 10 минут на своем сайте.

Есть много других подобных сервисов, например Make или Google Opal.

🔡 Создание сайтов и интерфейсов с помощью ИИ

Что пробовал я:
• Replit
• Lovable
• v0
• Bolt

Насчет разницы между ними сложно сказать, так как они постоянно развиваются, а мой опыт работы с каждой из платформ становится не релевантным уже спустя месяц. Но если бы я выбирал только 1 из них, то выбрал бы Replit, вроде самый популярный сейчас

Я просто последнее время перешел на связку VS Code + Claude Code + Codex + CLI, а за инструменты из списка выше платить перестал.

Cursor я кстати не использую, но без каких либо конкретных причин, просто за Claude Code 100$ плачу

Про работу с кодом как нибудь отдельно расскажу, ещё и про AI CLI. Так как это очень большой отдельный мир

Теги:
Всего голосов 4: ↑0 и ↓4-4
Комментарии1

«Яндекс» запустил «Промптхаб» — площадку с идеями, как применять ИИ.

Любой пользователь, даже незнакомый с нейросетями, сможет найти для себя что‑то полезное и тут же воспользоваться идеей — например, чтобы нейросеть спланировала поездку по стране или составила меню на неделю.

На платформе «Промптхаб» есть уже готовые задания для нейросетей (промпты) на все случаи жизни и курсы по работе с ИИ. Пользователи и компании могут также добавлять на сервис свои идеи и находки. Понравившийся вариант можно сразу попробовать, отправив в чат с нейросетью «Яндекса» — «Алисой AI». 

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Ближайшие события

20 бесплатных демо-уроков ноября

19 ноября, среда:

20 ноября, четверг:

24 ноября, понедельник:

26 ноября, среда:

27 ноября, четверг:

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

В июле я писал о том, что Gaunt Sloth Assistant дошёл до версии 0.9.2. Сегодня мы наконец можем сказать, что вышла версия 1.0.0. В этом релизе мы перевели основную зависимость на LangChain/LangGraph v1, обновили минимальные требования до Node 24/npm 11 и официально объявили CLI готовым к повседневной автоматизации.

Что изменилось с прошлого поста?

  • Ревью теперь завершаются вызовом встроенного рейтингового инструмента. По умолчанию шкала 10/10, порог прохождения 6/10, и оценки ниже 6 заставляют команду review возвращать ненулевой код (non-zero exit code). Если нужен только режим предупреждений, установите commands.review.rating.enabled (и/или commands.pr.rating.enabled) в false в .gsloth.config.*.

  • Профили идентичности стали частью базового сценария: один флаг -i profile-name, и вы переключаете промпты, модели и провайдеры на уровень нужной папки.

  • Middleware теперь сущность первого класса. Можно комбинировать встроенные варианты вроде anthropic-prompt-caching или summarization, подключать собственные объекты на JS, а CLI показывает, что именно выполняется при каждой команде.

  • Глубокое слияние конфигов команд устранило проблему, когда переопределение источника контента стирало настройки рейтинга. Теперь значения по умолчанию сохраняются даже при частичных правках.

  • Мы освежили кеш OAuth, документацию и README, чтобы новичкам было проще стартовать, и параллельно усилили безопасность зависимостей.

Профили идентичности — главный QoL‑апгрейд 1.0.0. Они позволяют мгновенно переключаться между системными промптами, пресетами моделей и наборами инструментов под конкретную задачу. gth pr 555 PP-4242 по‑прежнему читает .gsloth/.gsloth-settings, а gth -i devops pr 555 PP-4242 автоматически берёт конфиг из .gsloth/.gsloth-settings/devops/ со своими промптами и провайдерами.

Нужно поговорить с Jira через MCP? Создайте профиль вроде jira-mcp со своим конфигом и запустите gth -i jira-mcp chat. Укороченный пример:

{
  "llm": {
    "type": "vertexai",
    "model": "gemini-2.5-pro"
  },
  "mcpServers": {
    "jira": {
      "url": "https://mcp.atlassian.com/v1/sse",
      "authProvider": "OAuth",
      "transport": "sse"
    }
  },
  "requirementsProviderConfig": {
    "jira": {
      "cloudId": "YOUR-JIRA-CLOUD-ID-UUID",
      "displayUrl": "https://YOUR-BUSINESS.atlassian.net/browse/"
    }
  },
  "commands": {
    "pr": {
      "contentProvider": "github",
      "requirementsProvider": "jira"
    }
  }
}

Переключение между такими папками теперь — один флаг, поэтому удобно держать отдельные персоны для DevOps, документации или любого удалённого MCP.

Rater — второй крупный прорыв. Ревью всегда содержали текстовый фидбек, но в 1.0.0 оценка стала действенной: мы сохраняем её в хранилище артефактов, передаём в модуль ревью и вызываем setExitCode, чтобы CI автоматически падал при невыполнении цели по качеству. Настройка защит для продакшн‑сервисов занимает теперь секунды и не требует самописных скриптов.

Наконец, реестр middleware и хранилище артефактов дают аккуратные точки расширения на будущее. Можно оборачивать вызовы моделей и инструментов, логировать каждую операцию и при этом оставлять Gaunt Sloth вести те же chat/code/pr/init команды. CLI как и раньше — небольшой TypeScript‑бинарь, который устанавливается через npm или запускается npx gth, но теперь у него архитектура, позволяющая развиваться без костылей.

Хотите попробовать релиз — быстрый путь всё ещё
npm install -g gaunt-sloth-assistant

репозиторий https://github.com/Galvanized-Pukeko/gaunt-sloth-assistant пригодится как справочник и место для issues. Заводите issue, оставляйте фидбек в Discussions или подключайте rater к своему CI и расскажите, как он себя ведёт — буду рад помощи в движении к 1.1.

Спасибо всем, кто помог тестами и несколькими PR.

Теги:
Рейтинг0
Комментарии0

ИИ — и не друг, и не враг, а как? Опрос от Хабра.

ИИ с невероятной скоростью проникает во все сферы жизни — порой даже в те, где он точно не нужен и даже вреден. Конечно, ИИ проникает и на Хабр: кто-то из авторов с его помощью редактирует статьи, кто-то придумывает темы, а кто-то генерирует тексты и улетает в бан. Мы стараемся регулировать проблему, скрываем подозрительные статьи, строго проверяем материалы в песочнице. Но отгородиться от всепроникающей технологии сложно, да и... в каких границах нужно?

Вы много раз выручали нас классными идеями для Хабра, просим вас высказать своё мнение.

Теги:
Всего голосов 5: ↑3 и ↓2+3
Комментарии2

Представлен открытый проект Heretic: Fully automatic censorship removal for language models, который снимаем цензуру у текстовых нейросетей на уровне внутренних настроек. При этом все параметры подбираются автоматически. Цензура падает почти в ноль: тестировали на Gemma 3 от Google — процент отказов упал с 97% до 3%. Работает со всеми типами моделей. Минус один: нужен хотя бы средний комп.

Теги:
Всего голосов 5: ↑4 и ↓1+5
Комментарии2

Уже несколько месяцев как провожу воркшопы по AI, и вот список сервисов, про которые я постоянно там рассказываю


Часть 1 про LLM 🫡

ChatGPT — это база, основную теорию по которому я расписывать не буду, по нему у меня написан целый гайд

Но в chatgpt вау эффекты для меня вызывают эти функции 👇


Agent Mode

Режим, в котором ИИ эмулирует поведение человека в браузере — сам открывает сайты, кликает, вводит данные, ищет и сравнивает информацию.

Основные сценарии:
• Поиск отелей на Booking/Airbnb по конкретным критериям
• Поиск товаров на маркетплейсах вроде Lazada
• Сбор информации с сайтов, где обычный поиск бессилен
• Выполнение простых рутинных действий в интерфейсе

Их браузер Atlas, насколько я понимаю, должен делать примерно то же самое, но я еще не успел его протестировать — он пока только на macOS.


GPTs

Отличный вариан настроить чат под себя, добавив свои документы и системный промпт

Основные мои сценарии, которые я делал либо для себя, либо для компаний
• Переводчик в нужном стиле
• Личный редактор под мой tone of voice
• Чат по продукту/компании на базе знаний
• Онбординг-бот для новичков
• Внутренний FAQ по документации


Deep Research

Почти все знают про Deep Research для изучения интернета и сбора информации. Но мало кто знает, что его можно запустить и в свой Gmail, Google Drive, Notion или GitHub.

Например, он бегает по моему GitHub и делает подробное ревью репозитория, дает советы по продуктовому бэклогу и подсказывает, что можно улучшить в коде.



Claude — мой второй LLM

Мне чуть больше нравится, как он пишет, но 90% моего использования Claude — это возможность подключения множества сервисов через MCP: Google Analytics, Miro, Notion, Apify, Tick Tick и другие.

Со всем этим Claude может взаимодействовать — читать данные и записывать.

Это невероятно удобно: почти в каждом инструменте у меня есть умный помощник, который может получить и проанализировать данные прямо из базы сервиса.

Да, у ChatGPT тоже есть MCP, но по сути это слой поверх OAuth. У Claude вариантов подключения к тысячам сервисов ощутимо больше и гибче.



NotebookLM — RAG-UI от Google


Красивый интерфейс для RAG-системы. Загружаешь свои данные, а он строит вокруг них чат и артефакты.

На одном воркшопе команды за 30 минут сделали чатики для онбординга новых сотрудников на основе корпоративных статей. Теперь новый сотрудник, вместо изучения статей, может просто задавать вопросы в чатик и получать моментальные ответы с ссылками на источники.

Что можно загрузить:
• Множество документов
• Обычный текст
• YouTube-видео по ссылке

Что можно получить:
• Чат, который опирается только на загруженные данные и практически не галлюцинирует
• Видео, аудио, текстовые конспекты и отчеты
• Квизы, мемори-карточки, майндмэпы

Если еще не пробовали NotebookLM — очень советую

Вторую часть выложу чуть попозже

Теги:
Всего голосов 8: ↑1 и ↓7-6
Комментарии0

Энтузиасты выяснили, что фильтры чат‑ботов с ИИ (работает в GPT-4o и Claude 4) можно обойти с помощью «=coffee». Если после запроса добавить слово =coffee, то фильтры нейросетей не видят угрозу. Например, можно получить ключи регистрации Windows 11.

Ранее компьютерный энтузиаст и исследователь ИБ Марко Фигероа предложил ИИ‑модели сыграть в игру «угадайка» и тем самым нашёл способ обмануть ChatGPT 4.0 и выдать скрытые в системе обучения нейросети рабочие ключи для активации Windows 10, включая как минимум один, принадлежащий банку Wells Fargo. В этом эксперименте исследователь обманом смог обойти защитные барьеры в ChatGPT 4.0, предназначенные для предотвращения передачи секретной или потенциально опасной информации, предложив ИИ сыграть в логическую игру. Эти барьеры были разработаны для блокировки доступа к любым лицензиям, таким как ключи продуктов Windows 10. Разработчики нейросети обучили ИИ на примерах реальных ключей активации, что такое нельзя выдавать пользователю.

Теги:
Всего голосов 7: ↑6 и ↓1+7
Комментарии3

Элэлэмки, Сталин дал приказ.

Кого задолбали посты с тестированием LLM, дальше можете не читать, пардон. Пост про то как у бесплатных ллм, что попались под руку, я спросил - правильный ли код для такой задачи (сорри за кривую постановку вопроса и не менее кривой английский):

in C# for

int d;

I need to calculate number of same consecutive leading bits leadingCount. Does the next code do it correctly?

int d; 
uint uintD = unchecked((uint)d); 
int leadingCount = BitOperations.LeadingZeroCount(uintD) + BitOperations.LeadingZeroCount(~uintD);

Развернутый ответ, который начинается в стиле "Yes — that code does correctly compute the number of consecutive identical leading bits in a 32-bit int. " дали следующие ллм:

chatgpt
gemini-2.5-pro
copilot.microsoft.com
perplexity.ai
kimi.com
ernie.baidu.com

Развернутый ответ, который начинается в стиле "No, the code does not compute the number of same consecutive leading bits in d" дали следующие ллм:

grok.com/c
chat.deepseek.com
qwen.ai/c
chat.z.ai

При этом, как мне показалось, даже небольшие, казалось бы несущественные изменения запроса, меняют этот расклад.

Смысл вопроса - правильный ли код на C# для подсчета количество одинаковых бит в начале целого числа.

Теги:
Рейтинг0
Комментарии3

Вклад авторов