Внутри оркестратора: 5-фазная структура воркеров, meta-agent-v3 и Skills Library
Deep dive в техническую архитектуру: как работают воркеры, как создаются агенты за 2-3 минуты, и как устроена библиотека переиспользуемых утилит
Deep dive в техническую архитектуру: как работают воркеры, как создаются агенты за 2-3 минуты, и как устроена библиотека переиспользуемых утилит

Продолжение серии статей о BareMetal CI. В первой части мы рассмотрели базовый подход к автоматизации тестирования микроконтроллеров с использованием J-Link и RTT. Эта статья посвящена масштабируемому решению на базе Docker, которое поддерживает различные типы оборудования и CI-платформы.

Недавно я занимался исследовательской работой, тогда сроки горели сильнее, чем кофе в моей кружке по утрам. И тут возникла задача: срочно нужно было сделать инфографику в виде схемы. Сначала я пытался рисовать руками, потом в Excel (да, туда тоже можно много чего засунуть), но всё это было слишком медленно и скучно.
Тогда я подумал: «А что если есть нейросети, которые сами умеют делать инфографику? Чтобы нажал кнопку - и вуаля, готово!» И знаете что? Есть. И не одна.
Сегодня мы посмотрим на восемь таких генераторов и протестируем их на практике, чтобы понять, какие реально помогают быстро и красиво превращать идеи в инфографику.
Приготовьтесь, будет весело, быстро и информативно - как идеальная инфографика.
Приятного чтения!

В 2025 году проекты в области компьютерного зрения всё чаще рассматриваются не как исследования, а как полноценные бизнес-инициативы, эффективность которых определяется экономикой данных, затратами на инфраструктуру и ожидаемым ROI.
В этой статье — честный разбор от HR-стратега с 15+ годами опыта в AI и Tech: сколько на самом деле стоят данные, почему модель — лишь 20 % бюджета, какие роли действительно влияют на ROI, как считать стоимость ошибки FN/FP и что разрушает рентабельность быстрее всего.
Материал поможет инженерам, менеджерам и основателям понять: что делает CV-проект прибыльным, как выстроить минимальную команду, где экономить можно, а где нельзя, и какие KPI действительно важны для бизнеса.

Расскажем о том, что прячется в детской платформе Roblox. Приводим статистику и собираем факты.

Вчера до вершины популярности Hacker News добрался этот пост Джоны Гловера:
Может ли Claude воссоздать веб-сайт Space Jam из 1996 года? Нет. Или, по крайней мере, не с моими навыками промптинга. Требуется помощь, потому что я хочу сохранить этот веб-сайт навечно, но это никак нельзя сделать, кроме как попросить Claude воссоздать его из скриншота. Поверьте мне, я менеджер по разработке со степенью по computer science. Пожалуйста, помогите 😞
Чтобы уточнить подробности своей просьбы, Джона передал Claude Code (Opus 4.1) скриншот лэндинга, папку с изображениями и следующий промпт:
Я даю тебе:
1. Полный скриншот страницы лэндинга Space Jam.
2. Папку с сырыми графическими ресурсами**, извлечёнными с исходного сайта
Твоя задача — максимально точно воссоздать страницу лэндинга в полном соответствии со скриншотом.
С подобными задачами кодинг-агенты справляются идеально. Как я часто говорю, все задачи — это задачи поиска, но этот принцип не всегда просто применить на практике. Однако в данном случае применить его очень просто! У нас есть скриншот, поэтому diff пикселей сильно упрощает работу!
Вообще, можно сказать, что сам по себе Claude Code не смог бы с этим справиться. Но Claude с конфигурациями nori1 просто обязан это сделать.
Так что вызов принят.

Идеальная иллюстрация того, как сегодня надо делать hardware-стартап. Да ещё и вокруг opensource-решений и с on-device AI.
Элементы уровня приложений (Application Layer) описывают программные компоненты, сервисы и данные, которые непосредственно поддерживают бизнес-процессы. Это "мост" между бизнес-активностями и технологической инфраструктурой.

Дело было вечером... Сидел я, развлекался переписыванием фронта маркетплейса с React на Preact с Brotli и нативным CSS, чтобы протестировать максимальную оптимизацию. В попытках добиться предельной производительности и скорости решил провести эксперимент по переписыванию бэка на Rust с сжатием БД в Redis — но это совсем другая история. В общем, эксперименты привели меня к идее сделать SSR на Rust, и по бенчмаркам вышел на 95,000+ RPS на M4. Это уже само по себе неплохо, ниже расскажу подробнее.

Что общего у запросов из 1С, конструкции IN (VALUES ...) и безобидного выражения x + 0? Все они способны превратить выполнение запроса из миллисекундного дела в многоминутное ожидание, потому что стандартный планировщик PostgreSQL на них «спотыкается». Разбираем, как расширение pgpro_planner переписывает неудобные куски дерева запросов в дружелюбный вид еще до того, как оптимизатор успеет выбрать неудачный план, и почему некоторые из этих решений уже попали в ванильный PostgreSQL 18.

Мы тут в Cozystack в очередной раз решаем проблему курицы и яйца: как задеплоить CNI и kube-proxy через Flux, но при этом обеспечить работу самого flux без CNI и kube-proxy.
Сам Flux запустить без CNI и kube-proxy можно используя проект flux-aio (от создателя Flux), который запускает единый deployment со всеми контроллерами настроенными на коммуникацию друг с другом через localhost.
Специфика Cozystack заключается в том, что на каждый кластер мы деплоим внутри небольшой HTTP-сервер с Helm-чартами и другими ассетами используемыми в платформе. Flux эти чарты читает и устанавливает в систему.
Но вот как организовать доступ флюксу к внутреннему HTTP-серверу, запущенному как под внутри того же кластера?

«Обучил, запустил и забыл» — плохая стратегия работы с ML‑моделями, но она часто встречается после удачного тестирования. Качество моделей может незаметно снижаться, и если пропустить этот момент — последствия могут дорого стоить. Когда мы начали задумываться о системе мониторинга, одна из наших моделей начала выдавать предсказания, которые требовали незамедлительного вмешательства в выстроенную работу. Но разум подсказывал, что проблема не в процессе, а в модели. О том, каким трудоемким оказалось наше расследование, и как мы восстанавливали и изучали каждую составляющую процесса почти вслепую, читайте по ссылке.
Быть детективами нам понравилось, но вкладывать столько усилий в каждый подобный случай не хочется. Мы поняли, что нужно научиться контролировать работу модели так, чтобы своевременно находить проблему и чинить ее, используя минимальное количество ресурсов. В серии из двух статей расскажу, как мы построили систему мониторинга ML‑моделей силами одного человека за несколько месяцев.

За 2024 год из DeFi-протоколов было похищено более $2.2 млрд. В первом полугодии 2025 года эта цифра уже превысила $2.17 млрд — и это только середина года. При этом 60%+ взломанных протоколов имели аудит от известных компаний.
Эта статья — не пересказ новостей. Это технический разбор четырёх ключевых эксплойтов, которые я воспроизводил в тестовой среде при подготовке к аудитам. Для каждого кейса разберём: корневую причину, почему это прошло аудит, как воспроизвести атаку в Foundry, и какие паттерны защиты реально работают.

Привет, Хабр!
В отделе инженеров - конструкторов мы часто сталкиваемся с тем, что разработчик присылает не Gerber файлы проекта, а сам проект, с расчетом на то, что мы Gerber файлы извлечем. Мы можем это сделать, но по опыт подсказывает: если хочешь получить плату ровно такой, как спроектировал, лучше выдать Gerber со своего проекта, со своей программы и своего ПК.
Почему?
На каждом компьютере в каждой программе есть свои настройки по умолчанию, например: открытие закрытие переходных отверстий, шаг сетки, шрифт маркировки. При извлечении Greber файла у нас могут быть другие настройки и, соответственно, проект рискует получится на выходе другим.
Не все умеют извлекать Gerber файлы, а нужно отметить, что gerber файл нужен на каждый слой меди, маркировку, маску, сверловку и так далее.
Делимся как это можно сделать на примере популярной программы Sprint Layout 6.0 .
Надеемся Вам будет полезно. Ждем от вас обратную связь полезна ли была инструкция. Если да, мы продолжим.
Итак, у вас готова печатная плата в программе Sprint Layout версии 6.0 и вам необходимо сделать ее заказ у производителя. Для этого понадобятся два типа файлов - Gerber файлы и файлы сверловки Excellon. Файлы типа Gerber - это файлы, содержащие описание платы для её создания на производстве. Простым языком это двухмерное изображение слоя платы с строгими привязками к координатам. Этот тип файлов описывает все, что мы можем видеть в двухмерном пространстве, то есть это линии, дуги, контактные площадки, изгибы полигонов и т.д. Но этот тип файлов не даёт понятия о переходных отверстиях. Для этого необходимы файлы типа Excellon. Файлы типа Excellon описывают все, что связано с отверстиями на плате - диаметр отверстия, расположение, наличие металлизации, диаметр металлизации. Начнём со способа экспорта файлов типа Gerber. Для экспорта Gerber файлов необходимо зайти в меню Файл → Экспорт → Формат Gerber

Я сделал видеосвязь для семьи: один бинарник, домен, 200 рублей в месяц — и всё работает
Когда российское правительство начало блокировать звонки один за другим, я понял, что нужно что-то делать. Семья должна оставаться на связи — это не обсуждается. Но все популярные решения либо заблокированы, либо требуют VPN, либо сложны для установки, а также не дают полного контроля над данными.
Казалось бы, простая задача. Но оказалось, что даже в 2025 году создать полностью автономное решение для видеозвонков — это целое приключение.

Профессия ИТ-аналитика в последние годы быстро трансформируется под влиянием бурного развития генеративного ИИ. Эксперт Axenix Игорь Кайбанов рассказывает, какие задачи теперь должен уметь решать специалист по данным, на какие ключевые тренды в развитии моделей ему важно обратить внимание и какие возможности ГенИИ стоит применять в своей работе.
Эволюция профессии
Всего за несколько лет эволюции генеративного ИИ роль ИТ-аналитиков заметно изменилась — модели взяли на себя огромную часть рутины, оставив человеку критическую оценку проделанной работы и преобразование инсайтов в действенные бизнес-решения.
CEO Shopify Тоби Лютке недавно предложил термин context engineer на замену понятия prompt engineer — и это оправдано. От постановки задачи и способов ее исполнения мы перешли к необходимости ограничивать и задавать контекст решения. В этом помогают как экспертные промты и ИИ-агенты, так подключение к системе специализированного массива данных.
Казалось бы, аналитик, пройдя стадию промт-инжиниринга для domain-задач, становится профи в контент-инжиниринге. Но и это быстро уходит в прошлое. По мере того, как искусственный интеллект становится проактивным и все больше берет на себя принятие решений, аналитик превращается в когнитивного инженера.
Ключевой задачей аналитика становится гибридная экспертиза, то есть синтез ИТ-знаний плюс понимание возможностей/рисков ИИ (особенно в security-sensitive отраслях). На этом уровне аналитик становится «проводником» между данными и стратегией, где ГенИИ — не замена, а мультипликатор эффективности.

В первой статье этого сериала мы собрали известные нам примеры платформ и проектов, которые можно прямо или условно назвать «биржами данных» (data exchange). После этого мы попытались разложить эти данные по кучкам, громко назвав этот процесс построением типологии. До типологии тут еще далеко, но какая-то ясность наступила. Более того, один из комментаторов не поленился скормить эту недо-типологию своему ИИ-ассистенту и тот выдал визуализацию этой мультифасеточной конструкции. Там есть на что посмотреть и о чем подумать, рекомендую.
Мы же, как и обещали, приступаем к анализу отдельных кейсов в попытке извлечь из них больше деталей и полезных идей для построения биржи данных на заказ.
Многие из наших собеседников предлагали немедленно изучить опыт «китайских товарищей» и взять его за образец при построении бирж данных в РФ. Их аргументация вполне понятна — тенденция к возвращению роли и участия государства в инфраструктурных проектах, которую можно наблюдать в РФ за последние 20 лет, похоже стремится к тому образцу, который сложился в Китае за последние три тысячи лет после реформ Дэн Сяопина. Достаточно сильный мотив, чтобы исследовать систему региональных бирж, созданную в КНР, однако из всего увиденного меня больше всего поразила история цифровой трансформации в Индии, которая привела к появлению нового Тадж-Махала, который называют «индийским стеком».

У меня дома стоит Bluetooth-колонка в ванной. Руки там вечно мокрые и мыльные, поэтому включить звук дождя или музыку проще по событию, например, по голосовой команде. Конечно, можно поднять Home Assistant или написать небольшой Python-скрипт, который слушал бы датчики и управлял колонкой. Но в тот момент я работал с NiFi и решил проверить, справится ли он с бытовой задачей.
Оказалось, что это не только «enterprise ETL» инструмент, а еще и гибкая платформа, которая умеет работать с MQTT-брокером. Поэтому я настроил через него простую цепочку, и колонкой начал управлять не самодельный скрипт, а NiFi.
Этот простой пример хорошо показывает идею. Если инструмент способен подружиться с бытовыми устройствами, то в промышленной архитектуре его потенциал раскрывается в полном объеме.
В Big Data подключение нового источника часто превращается в мини-проект. Требуется неделя разработки, набор уникальных скриптов, собственные форматы, исключения и обходные решения. Но когда пять источников превращаются в пятьдесят, инфраструктура начинает рассыпаться: форматы скачут, API капризничают, схемы дрейфуют, а поддержка становится бесконечным бегом с препятствиями.
Мы проходили через это несколько раз и поняли, что нам нужен фреймворк, который позволит предсказуемо, быстро и без зоопарка самописных ETL-процессов подключать новые источники.
Привет, Хабр! Я ведущий инженер-разработчик направления BigData & BI К2Тех Кирилл Гофтенюк. В этой статье расскажу, как устроен наш фреймворк на базе ADS.NiFi и Arenadata Prosperity. Покажу, как он работает, зачем нужен такой подход и что нам дал переход от хаотичных скриптов к управляемой архитектуре.

Поиск работы часто превращается в бесконечный скроллинг по Telegram-каналам: десятки уведомлений, тонны сообщений, чтение длинных описаний вакансий, попытки понять, подходит ли это тебе. А ведь Telegram — один из самых популярных источников свежих предложений о работе, особенно в IT, маркетинге и фрилансе. Но вручную фильтровать всё это — сплошная потеря времени. Здесь на помощь приходят современные технологии: машинное обучение, которое может анализировать текст лучше, чем человек, и автоматизировать процесс.
Именно из этой идеи родился JobStalker — Telegram-бот, который мониторит публичные каналы с вакансиями, фильтрует их с помощью модели машинного обучения, оценивает релевантность и сохраняет подходящие варианты в удобной базе данных. Всё это с веб-интерфейсом для настройки и просмотра результатов. Проект полностью open-source, и вы можете развернуть его на своём ПК или сервере.

Valve снова удивляет. Казалось бы, Steam Deck ещё не успел покрыться пылью на полках, а компания уже готовит нам целую россыпь новых железок. И не какие-то мелочевки, а полноценный VR-шлем, мини-ПК консольного формата и перерождение легендарного геймпада.