Обновить
512K+

Анализ и проектирование систем *

Анализируй и проектируй

352,95
Рейтинг
Сначала показывать
Порог рейтинга

Автоматизация облачных сценариев в эпоху искусственного интеллекта — одна из тем доклада на GoCloud 2026 ☁️

Облако дает множество сервисов, но собрать полный путь от идеи до запуска все еще непросто: неподготовленные команды теряются, решения требуют архитекторов и ручной склейки. В докладе расскажу про инструмент, который превращает облачные задачи в готовые сценарии с шаблонами и маркетплейсом функций.

Также покажу, как одни и те же блоки выполняются в разных окружениях и как ИИ-ассистент ускоряет сборку полного цикла: от архитектуры и непрерывной интеграции до бизнес-логики приложений.

Спикер: Антон Щеколдин — менеджер продукта, Cloud.ru

Трек: Приложения и разработка

📅 Когда: 9 апреля в 12:50–13:30 мск
👉 Зарегистрироваться

А пока ждете выступление, загляните в блог: Практическое применение eBPF: serverless-платформа с поддержкой TCP-приложений

Теги:
0
Комментарии0

Разговоры о том, что ИИ заменит разработчиков, аналитиков и тестировщиков, звучат все чаще. Но в реальности ИИ не вытесняет специалистов — просто меняется подход к работе: часть задач упрощается, процессы ускоряются, а фокус смещается на более сложные и ценные задачи.

В новом видео Леша, бизнес-аналитик Naumen, рассказал, какие инструменты уже используют специалисты разных ролей, где ИИ действительно экономит время и как встроить его в работу так, чтобы он помогал, а не усложнял процессы.

→ Смотрите видео на любой удобной платформе: VK Видео, Rutube и YouTube.

Теги:
0
Комментарии0

Конец микросервисного угара: как Amazon, Uber и Netflix внедряли монолиты

Весной 2023 года Prime Video (Amazon) выкатил кейс, который для многих стал страшным сном: они слили красивую микросервисную оркестрацию и снизили стоимость инфраструктуры более чем на 90%.

Что они сделали? Перестали гонять данные через S3 между десятком серверлесс-функций ради банальной обработки видео. Они собрали те же самые компоненты (медиаконвертер, детекторы) в один контейнер. Вызов функции в памяти оказался быстрее и на порядок дешевле, чем "облачная магия".

Шок-контент? Только для тех, кто перечитал умных книг. Остальные просто кивнули.

Скрытый налог, о котором не пишут в книжках

Мы все прочитали «Чистую архитектуру» и умеем рисовать квадратики. Мы научились резать монолиты вдоль и поперек. Но в лучших практиках почему-то обходят главный вопрос: во что это реально обходится бизнесу?

Распределенные системы — это не бесплатный апгрейд. Это класс расходов, которого физически нет в монолите.

Вы платите за:

  1. Пересылку данных по сети вместо вызова method() в памяти.

  2. Отладку ада, когда для исследования бага нужно поднять логи 7 разных сервисов.

  3. Синхронизацию команд, когда чтобы решить ночной критический баг на проде вам нужно разбудить 5 тимлидов соседних команд.

В итоге мы получаем внешне технически совершенную систему, которую никто не может окупить. Бывает, что переход в микросервисы — это не инженерное решение, а следование вере.

Опыт Uber

У тебя 5 сервисов — ты держишь их в голове. У тебя 500 сервисов — ты не инженер, ты -- смотритель в зоопарке.

В 2016 году в компании Uber поймать баг означало пройти по 50 сервисам из 12 разных команд. Инженеры тратили больше времени на синхронизацию в слаке, чем на написание кода.

Решение Uber (DOMA) для многих стало интересным: они не стали переписывать код в монолит. Они сгруппировали этот зоопарк по реальным доменам и прикрыли их общими шлюзами.

Монолит 2.0: как было в Netflix

В 2012-м Netflix тушил каскадные отказы через Hystrix. Но для длинных бизнес-процессов (прием контента, кодирование, раскатка по CDN) это было как пластырь на переломе. Инженеры собирали логи руками.

В 2016-м они выкатили решение Conductor — оркестратор. По сути, это монолитный движок с UI для визуализации потоков своих микросервисов. В Netflix не побороли сложность, а переупаковали её. Теперь им нужна отдельная команда, чтобы поддерживать монолит который оркестрирует микросервисы.

Прежде чем пилить новый сервис или склеивать старый, ответьте себе на три вопроса.

  • Может ли одна команда выкатить фичу без согласования с пятью другими? Если для баг-фикса нужна координация 10+ команд — границы проведены неверно. Вы строите самый худший в мире архитектурный паттерн: распределенный монолит. Вы получите все минусы микросервисов и все минусы монолита одновременно.

  • Какая доля бюджета уходит на бизнес-логику, а какая — на то, чтобы сервисы могли просто "договориться"? Готовы ли вы содержать сложный слой оркестрации (как Prime Video) только ради того, чтобы система технически работала?

  • Есть ли у вас цифры, по которым вы поймете, что архитектура перестала окупаться? Prime Video начали с серверлесса и слепили всё в один процесс под реальной нагрузкой.

Выводов не будет, вы сделаете их сами.
Послушать расширенную версию статьи как сказку на ночь без донатов и рекламы можно на Яндекс.Музыке, Звуке и Apple Podcasts.

tg https://t.me/i_am_analyst

Теги:
+26
Комментарии16

TransRussia| SkladTech 2026: системный подход к автоматизации и роботизации. Итоги Выставки

Завершилась выставка TransRussia | SkladTech 2026 (17–19 марта, «Крокус Экспо»). Команда INTEKEY участвовала в деловой программе и общалась с заказчиками, интеграторами и поставщиками.

В этом году разговоры на площадке стали заметно более прикладными: меньше абстрактных тем вроде «цифровой трансформации» и больше конкретики — о сроках окупаемости, экономике проектов и управляемости решений.

Основные тренды, которые обсуждали эксперты и участники:

🔸 Роботизация как новая норма. Государство целенаправленно ускоряет автоматизацию складов через субсидии, льготы и возможные регуляторные требования. На рынке уже доступно более 30 типов складских роботов, 22 из которых — российского производства.

🔸 Экономика и скорость. Компании жёстко оценивают проекты: ожидаемый срок окупаемости — до 1 года, запуск базового функционала — за месяцы, а не годы. Вырос запрос на предсказуемость работы систем при росте нагрузки.

🔸 Сначала система, потом технологии. Чтобы избежать разрыва между внедрением и реальным эффектом, нужна другая последовательность: сначала цели и процессы, затем архитектура (WMS, интеграции, оборудование), и только потом — поэтапное внедрение.

🔸 Коллективное принятие решений. Выбор решений стал более системным: собственник оценивает экономику, IT — архитектуру, а логистика — применимость в операциях. Это снижает количество «теоретически правильных», но плохо работающих проектов.

В рамках сессии «Эволюция склада» Денис Сумелев (INTEKEY) и коллеги из Nikoliers, «Магнита» и КСЛ обсудили, как подготовиться к обязательной роботизации и выстроить процессы для быстрого получения экономического эффекта.
По итогам выставки INTEKEY вошла в топ-3 Product Award 2026 — премии, отражающей практический интерес рынка к представленным решениям.

💬 На что вы в первую очередь смотрите, оценивая проект автоматизации: на срок окупаемости или на функциональность?

Теги:
0
Комментарии0

Всем привет. Начал писать открытую книгу про архитектуру безопасных AI-агентов.

Делаю не обзор фреймворков и не коллекцию «магических демо», а практический инженерный reference: control plane, policy boundaries, tool gateway, memory, observability, evals, approval flows, governance и production-подход к агентным системам.

Уже выложил первые главы и каркас книги - https://agent-axiom.github.io/agent-arch

Репозиторий - https://github.com/agent-axiom/agent-arch

Буду очень рад критике по существу:

  • где архитектура спорная,

  • где не хватает важных разделов,

  • где формулировки слишком сырые,

  • что стоит добавить из практики эксплуатации и безопасности.

Если тема близка - вливайся: issues, comments, corrections, PRs, ссылки на сильные источники и контрпримеры из реальных production-систем.

Хочется сделать не просто набор заметок, а полезный community-driven reference для тех, кто строит надежных и безопасных AI-агентов.

Теги:
+9
Комментарии0

Выбор BI — стратегическое решение, которое определяет развитие ИТ-архитектуры, команды и бюджета. Как учесть стоимость лицензий, инфраструктуру, зрелость команды и перспективы? На бесплатном вебинаре «Чек-лист выбора BI-системы: Как не ошибиться в 2026 году» дадим чек-лист для тестирования любой BI-платформы.

Программа:

  • Почему старые подходы к выбору больше не работают. Основные ловушки при выборе.

  • Обзор актуального ландшафта BI-инструментов. Западные вендоры, российские платформы, Open Source, облачные и on-premise решения.

  • Работа с чек-листом выбора BI: экономика, инфраструктура, требования к команде, функциональность, безопасность и compliance, риски.

Спикер ответит на ваши вопросы в прямом эфире.

🕓 Когда: 24 марта, 16:00–17:00 (Мск)

👨‍🎓 Спикер: Дробинская Мария — эксперт в области внедрения BI-систем и цифровизации.

➡️ Записаться

Теги:
+3
Комментарии0

Стать системным аналитиком в YADRO — дело трех дней

До 29 марта открыта программа быстрого найма для системных аналитиков. Таких специалистов ищут сразу две команды:

— Телеком. С нуля создают телекоммуникационные решения для беспроводных мобильных сетей и сопутствующих услуг. Разрабатывает первые российские базовые станции стандартов GSM/LTE.

BIOS/BMC. Инженеры занимаются разработкой и сопровождением собственных программных реализаций ПО UEFI/BIOS и BMC, используемых в различных продуктах YADRO.

Подать заявку → 

Формат быстрого найма подразумевает ускоренные прохождение технического и менеджерского интервью и возможность получить оффер в компанию за три дня.

Направления, где нужны аналитики:

  • OAM (Operations, administration and maintenance). Специалисты тут работают с системой, обеспечивающей эксплуатационную управляемость и устойчивость операторского уровня. Отвечают за сквозные сценарии эксплуатации — от конфигурирования и мониторинга до инцидентов, SLA и масштабирования.

  • GSM. Здесь разрабатывают GSM Controller (BSC) и компоненты базовой станции (BTS) стандарта GSM с поддержкой GPRS и основного функционала для операторов большой тройки.

  • LTE. Инженеры здесь создают базовую станцию LTE (4G), реализуя полный стек телекоммуникационных протоколов «с нуля».

  • BIOS/BMC. Как уже писали выше, здесь занимаются разработкой и поддержкой UEFI/BIOS для продуктов компании, кода BMC для мониторинга и управления серверами, а также прошивками для MCU- и FPGA-модулей серверов (материнские платы, экспандеры и так далее).

Подробнее об ожиданиях к кандидатам — на лендинге SPRINT OFFER. Успейте оставить заявку до 29 марта.

Теги:
+7
Комментарии0

Системный аналитик: какой у тебя уровень? Пройди бесплатный пробный тест и разберись в своих сильных сторонах и точках роста

Системный аналитик — это не просто «переводчик» между бизнесом и разработкой, а специалист на стыке технологий, аналитики и коммуникаций.

Чтобы осознанно расти в профессии, важно понимать:

  • какие технические навыки уже прокачаны;

  • где есть пробелы в проектировании и анализе;

  • какие инструменты и методологии стоит изучить подробнее;

  • насколько уверенно ты ориентируешься в архитектуре систем.

Мы сделали бесплатный пробный тест — он поможет оценить твой уровень как системного аналитика и подсветит зоны для развития.

За 20 минут ты получишь:

  • оценку текущего уровня;

  • карту компетенций — наглядную схему всех навыков, необходимых для развития в профессии;

  • подборку материалов для самостоятельного изучения.

Пройти тест

Кстати, мы подробно разбирали ключевые навыки и компетенции системного аналитика в отдельной статье — рекомендуем прочитать ее или перечитать, чтобы освежить и структурировать знания перед тестом.

Теги:
+2
Комментарии0

Какой ты гриб бизнес-аналитик? Пройди бесплатный пробный тест, чтобы определить свой уровень

Бизнес‑аналитика — это профессия на стыке нескольких специализаций. Здесь нужно уметь работать с требованиями, моделировать процессы, анализировать данные, выстраивать коммуникацию с разными командами и делать многое другое.

Чтобы расти в профессии и осознанно выстраивать карьеру, важно понимать:

  • какие компетенции у тебя уже прокачаны;

  • где есть пробелы;

  • что именно стоит подтянуть в первую очередь.

Такую картину непросто собрать самостоятельно, поэтому мы сделали бесплатный пробный тест — он поможет сориентироваться в своем уровне подготовки и подсветит зоны роста.

За 20 минут ты получишь:

  • оценку текущего уровня бизнес‑анализа — от базовых понятий до продвинутых техник;

  • карту компетенций — наглядную схему всех навыков, необходимых для развития в профессии;

  • подборку материалов для самостоятельного изучения — только то, что поможет закрыть конкретные пробелы.

Пройти тест

Кстати, мы подробно описывали ключевые навыки и компетенции бизнес‑аналитика в отдельной статье — рекомендуем прочитать её или перечитать, чтобы освежить и структурировать знания перед тестом.

Теги:
+1
Комментарии0

«Просто добавь кнопку» и недели работы

Однажды заказчик пришёл с задачей, которая звучала как пара часов работы «Просто добавь кнопку — нажал, выгрузил данные, всё». Я открыла код и поняла, что эта кнопка стоит не пару дней, а недель — и это если повезёт..

Сложнее всего оказалось не сделать, а объяснить так, чтобы услышали.

С технической стороны всё понятно: сервис писался под дедлайн, архитектура не предусматривала роста, и каждое новое изменение тянет за собой минимум три соседних. Но заказчик смотрит на задачу и видит один экран. Кнопки ещё нет, но она же просто кнопка. Что тут может быть сложного?

Архитектурное объяснение я попробовала и оно не зашло. Слои, связи, зависимости: всё правильно, всё мимо.

Что работает вместо «красивого кода»

Я перестала объяснять как устроено и начала объяснять что произойдёт. Не «тут монолитная структура без инверсии зависимостей», а конкретно: — эта кнопка затрагивает три модуля, которые никто не трогал два года — если что‑то сломается, то мы не узнаем сразу, потому что тестов нет — следующая фича после этой будет стоить столько же в лучшем случае.

Заказчик услышал третий пункт. Именно его.

Нетехнический человек воспринимает разработку примерно так: «нажал кнопку → произошла магия → получил результат». Это не незнание — просто другая роль. Заказчик и не должен думать об архитектуре, это моя работа. Значит, говорить на его языке — тоже моя.

Как я считаю стоимость следующей фичи

Со временем сложился свой фреймворк. Не из учебника, а из разговоров, где меня не понимали, пока я не поменяла подход.

Три вещи, которые я оцениваю перед тем, как называть сроки: 1. Базовая сложность: сколько займёт в идеальных условиях, на нормальной архитектуре. 2. Архитектурный коэффициент — во сколько раз реальность дороже идеала. Код без тестов, с жёсткими связями между модулями — это 2-4× к оценке. Не абстракция: вот здесь нельзя менять, не затронув вот это. Рисую буквально на бумаге. 3. Риск‑налог — что может пойти не так. Что сломается, насколько быстро заметят, сколько займёт починка. Не чтобы напугать, а чтобы показать, что «быстро» и «надёжно» здесь в противоречии.

Когда эти три числа стоят рядом — разговор меняется. Заказчик видит, что не «разработчик тормозит», а «вот цена, вот риск, вот выбор».

Именно тогда и появляется разговор про рефакторинг. Не потому что «код некрасивый», а потому что каждая следующая фича будет дороже предыдущей, если ничего не менять.

Что осталось в голове

Техдолг — это не технический вопрос. Это финансовый.

Пока объясняешь его как технический — тебя не услышат. Как только переводишь в деньги, сроки и риски — начинают слышать.

Самое сложное не методология. Самое сложное — поймать момент, когда ты всё ещё говоришь на своём языке, а не на их. У меня ушло время, чтобы это почувствовать.

А вы как объясняете техдолг тем, кому важен результат, а не архитектура? Есть формулировка, которая сработала лучше всего?

Теги:
+3
Комментарии3

Хаотичное использование ИИ часто даёт обратный эффект: вместо экономии времени — поверхностные требования, некорректные формулировки и риск утечки данных. 17 марта на бесплатном вебинаре «ИИ в работе бизнес-аналитика: как ускориться, не потеряв качество» разберём, как встраивать нейросети в работу, сохраняя экспертизу и критическое мышление.

О чём поговорим:

✔️ Почему аналитики «тонут» в ИИ и теряют время
✔️ Где нейросети действительно усиливают: на этапах discovery, работы с требованиями, анализа процессов и коммуникации со стейкхолдерами
✔️ Как встроить ИИ в свой процесс, чтобы он помогал, а не мешал
✔️ Где проходят границы: риски и зоны, куда инструменты лучше не запускать

В результате сможете не просто использовать ИИ время от времени, а выстроить для себя понятный регламент — где он ускоряет, а где контроль остаётся за вами.

📅 Дата: 17 марта
⏰ Время: 16:00-17:00 (Мск)
👨‍🎓 Спикер: Татькова Дарья — специалист в области разработки ПО.

➡️ Регистрация ⬅️

Теги:
0
Комментарии0

ai_query() в StarRocks 4.1: вызываем LLM прямо из SQL. Разбор результатов тестов.

Зачем это нужно аналитику и как вписывается в архитектуру, я описал в своем Telegram-канале Selena (powered by StarRocks). Здесь — технические детали и результаты тестирования.

Архитектура StarRocks 4.x: два направления интеграции с языковыми моделями
Архитектура StarRocks 4.x: два направления интеграции с языковыми моделями

На схеме два потока данных между языковой моделью и базой данных:

Синий (вверху) — LLM → База через MCP (4.0). Пользователь задаёт вопрос на обычном языке. Агент сам формулирует SQL-запрос, отправляет его в StarRocks через MCP-протокол и возвращает ответ. Об этом я также подробно писал в нашем сообществе.

Зелёный (внизу) — База → LLM через ai_query() (4.1). Аналитик пишет SELECT с вызовом ai_query(). StarRocks на каждом сервере кластера отправляет запрос к языковой модели и возвращает её ответ как обычную текстовую колонку.

В версии 4.0 появилось первое направление, в 4.1 — второе. Полный цикл.

Что такое ai_query()

Функция принимает два аргумента: текстовый промпт и JSON с параметрами модели. Возвращает текстовую колонку — результат можно фильтровать, группировать и соединять с другими таблицами.

Обязательные параметры: model (название модели) и api_key (ключ доступа). Дополнительно можно указать адрес сервера модели, температуру, максимальную длину ответа и таймаут.

Функция работает с любым сервисом, совместимым с протоколом OpenAI: это и сам OpenAI, и локальные модели через Ollama, и DeepSeek, и vLLM.

Как тестировали:

Функция планируется к релизу в версии 4.1. Когда пришло время её проверить, привычный способ — развернуть готовый образ в Docker — не сработал. В образе обнаружился небольшой баг: функция была скомпилирована и лежала внутри сервера, но сервер о ней не знал. Исправление заняло одну строку в исходном коде. Но чтобы её применить, пришлось собирать BE из исходников.

Среда тестирования: виртуальная машина (8 CPU, 32 ГБ RAM), StarRocks 4.1.0-rc01 (собранный из исходников), языковая модель Ollama gemma3:1b (работает локально на процессоре). Тестовые данные — шесть отзывов о товарах.

Тест 1. Анализ тональности

Задача: определить, позитивный отзыв или негативный.

(SQL код по каждому тестированию я напишу в комментариях)

Вывод: четыре из шести точных.

Модель на один миллиард параметров делает бинарную классификацию — не различает нейтральные отзывы. Я, кстати, попробовал и с большими параметрами и с меньшим квантованием, насколько смог выдержать мой сервер, результат локальных моделей в этой задаче не очень.

Время: ~три секунды на шесть строк.

Не тот объем данных, чтобы экстраполировать на большие продакшн системы, но я тестировал не производительность, а работоспособность.

Тест 2. Суммаризация

Задача: сжать отзыв в одно предложение.
Вывод: адекватные резюме на русском языке. Длину ответа стоит контролировать параметром max_tokens.
Время: ~одна секунда на строку.

Тест 3. Извлечение характеристик

Задача: вытащить из текста ключевые свойства товара.
Вывод: характеристики извлекаются
Время: ~1 секунда на строку.

Тест 4. Классификация

Задача: определить категорию товара по тексту отзыва.
Вывод: категории определены верно. MacBook, монитор, наушники — «Электроника», мышь — «Периферия».
Время: ~0.5 секунды на строку.

Тест 5. Перевод

Задача: перевести отзыв с русского на английский.
Вывод: качественный перевод даже на модели в один миллиард параметров.
Время: ~1 секунда на строку.

Ограничения:

  1. Нельзя задать роль модели (нет системного промпта) — только сообщение от пользователя

  2. Нет повторных попыток при ошибке — если сервис модели вернул ошибку, это сразу ошибка SQL-запроса

  3. Кеш хранится на каждом сервере отдельно и теряется при перезапуске

Итого:

ai_query() — простая обёртка над протоколом языковых моделей с кешем и дедупликацией. Не революция, но именно такие простые интеграции оказываются самыми полезными.

Функция появится в StarRocks 4.1.

Теги:
+1
Комментарии1

Что нас ждёт в StarRocks 4.1

В документации StarRocks появились release notes для 4.1 с пометкой RC (release candidate) — это предварительная версия перед финальным релизом. Посмотреть, куда движется проект, самое время. Я изучил release notes, связанные issues и PR, и выбрал четыре самых значимых изменения.

Ссылка на описание релиза: https://docs.starrocks.io/releasenotes/release-4.1/

Актуальные версии на сегодня: Stable — 3.5.14, Latest — 4.0.6.

1. Автоматическое управление распределением данных

Раньше при создании таблицы в shared-data кластере нужно было вручную выбирать ключ распределения и рассчитывать количество бакетов. Если ошибся — часть узлов перегружена, а часть простаивает, и исправление требует пересоздания таблицы.

В 4.1 для shared-data кластеров появляется range-based распределение: таблеты содержат метаданные диапазонов ключей, и система сама следит за их размером — автоматически разделяет слишком большие или объединяет недоиспользуемые. Без изменения схемы и без перезагрузки данных.

На практике: меньше ручной настройки при создании таблиц, меньше проблем с неравномерной нагрузкой. Issue #64986 (https://github.com/StarRocks/starrocks/issues/64986)

2. DELETE для Iceberg-таблиц

До 4.1 StarRocks мог только читать данные из Iceberg и добавлять новые (INSERT). Удалять было нельзя. А это серьёзное ограничение: удаление персональных данных по требованиям регуляторов, исправление ошибочных записей, очистка устаревших данных — всё приходилось делать через Spark или Trino.

Теперь DELETE FROM (механизм Iceberg position delete) работает напрямую из StarRocks. При этом delete-файлы совместимы с другими движками — Spark, Trino и Flink корректно их прочитают. StarRocks становится ещё более полноценным SQL-движком для Iceberg: SELECT + INSERT + DELETE. Issue #66944 (https://github.com/StarRocks/starrocks/issues/66944)

3. Рекурсивные CTE (WITH RECURSIVE)

Одна из самых запрашиваемых фич — сообщество просило с 2023 года. Рекурсивные CTE позволяют писать запросы, которые ссылаются сами на себя — это нужно для обхода иерархий (оргструктуры, категории товаров, вложенные комментарии), заполнения пропусков во временных рядах и графовых задач. Если вы мигрируете с PostgreSQL, MySQL или Trino — больше не нужно переписывать рекурсивные запросы. PR #65932 (https://github.com/StarRocks/starrocks/pull/65932)

4. Инкрементальное обновление Materialized Views на Iceberg

До 4.1 materialized views на Iceberg-таблицах обновлялись полным пересчётом — даже если в источнике добавилось несколько строк. Теперь StarRocks умеет обновлять MV инкрементально — обрабатывается только новая порция данных. Особенно заметно на append-heavy сценариях: логи, события, IoT-данные. Ограничение первой версии — работает только с таблицами, в которые данные добавляются, но не обновляются. Issue #61789 (https://github.com/StarRocks/starrocks/issues/61789)

Что ещё интересного: 

  • Полнотекстовый поиск в shared-data кластерах (inverted index, beta)

  • Таблеты до 100 ГБ

  • Меньше мелких файлов, проще эксплуатация

  • Поддержка Iceberg V3 и тип VARIANT для полуструктурированных данных

  • ai_query()

  • вызов LLM-моделей прямо из SQL-запроса

  • sum_map() — нативная агрегация MAP по ключам

  • Мониторинг потоков FE через SQL без внешних инструментов

Больше постов про StarRocks и Lakehouse — в Telegram-канале @starrocks_selena

Теги:
+1
Комментарии0

Ближайшие события

500 запросов в секунду, а сервер думает. Знакомо? Когда код идеальный, а приложение еле дышит. Обычно это вопрос архитектуры.

Курс «Проектирование высокопроизводительных приложений» (ARC-008) для тех, кто пишет код и хочет строить системы, которые выдерживают нагрузку.

Вы научитесь:

✔️ Формулировать требования к нагрузке так, чтобы их понимала команда и заказчик.

✔️ Проектировать систему, чтобы она не тормозила с самого старта.

✔️ Понимать, что делают нагрузочные тесты, и как взаимодействовать с тестировщиками.

✔️ Видеть узкие места и знать, каким инструментом их лечить.

В программе: паттерны GoF, Lambda-архитектура, MapReduce, методология SPE (Performance Engineering).

🔥 Цена: 53 900 26 950 ₽ (для физических лиц). Скидка 50% действует только 5 марта.

🎁 Бонус: в рамках акции «Мартовский апгрейд» — селф-модуль из программы «Архитектор ПО. Путь к мастерству» в подарок!

👉 Записаться

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Как подружить работу дизайнера и аналитика

Думаем, многим знакома ситуация: на встрече все обсудили, договоренности и сроки зафиксировали — разошлись работать с ощущением ясности. Однако в процессе оказалось, что результат каждый представлял по‑своему.

С Настей, руководителем команды проектирования интерфейсов, разобрали эту ситуацию на примере взаимодействия аналитиков и дизайнеров.

1️⃣ Почему при согласованных требованиях все равно возникает недопонимание?

На верхнем уровне мы делаем похожую работу: анализируем контекст, собираем вводные, уточняем требования и ограничения. Но цель и результаты нашей работы разные. Если на первой встрече не договориться, какой итог считаем согласованным и что еще нужно обсудить, каждый продолжает работать со своими ожиданиями.

2️⃣ Как ты это проверила?

Я решила не опираться только на ощущения и провела быстрые интервью. Задала 20–25 коллегам два вопроса и попросила ответить коротко:  

  1. Что ты делаешь на работе как аналитик или дизайнер?  

  2. Что, по твоему мнению, делает другая сторона?

3️⃣ Что оказалось самым показательным в ответах?

Разница в уверенности в своих знаниях. Аналитики чаще говорили, что не до конца понимают, из чего состоит работа дизайнера и почему одни задачи занимают 2 недели, а другие делаются за пару часов. Дизайнеры, наоборот, обычно хорошо представляют работу аналитиков.

4️⃣ Какие формулировки сигнализировали о недопонимании?

  • «Дизайнеры делают красиво, но малофункционально».  

  • «Не понимаю, что дизайнер делает две недели».  

  • «Красивый интерфейс — это субъективно».  

  • «Да там же просто пару экранов, что тут обсуждать?».

  • «Потом допилим UX, сейчас главное выпустить фичу».

Эти фразы редко звучат в лоб, но задают тон обсуждению решений.

5️⃣ Откуда появляется мнение, что дизайнер делает красиво, но не думает о функциональности?

Чаще всего это следствие негативного опыта: когда человек сталкивался с работой дизайнера, который сделал пиксель-перфект, но не успел в срок. Или сделал красиво и стильно, но не подумал о том, насколько это сложно или дорого в разработке. Или же решение оказалось неудобным, неполным по сценариям или «ломалось» на системных ограничениях. Такой опыт легко обобщается и проецируется на других дизайнеров.

6️⃣ Почему возникает вопрос «что ты делал две недели»?

Со стороны может казаться, что дизайнер просто рисует макеты, хотя большая часть времени уходит на анализ требований, разбор сценариев, поиск вариантов, проверку ограничений и проработку состояний.

7️⃣ Насколько справедлив тезис «красиво = субъективно»?

Он справедлив, если решение ничем не обосновано. Но когда дизайнер приносит варианты и аргументирует свое решение — как только появляются критерии, субъективности становится меньше, разговор сразу становится предметным.

8️⃣ Как правильно формулировать задачу для дизайнера?

Всегда приносить проблему, а не готовое решение. Когда задача звучит как «сделайте вот так», команда пропускает обсуждение альтернатив и раньше времени фиксирует один путь.

Полезный минимум на входе: цель, пользователь и контекст, ограничения, критерии успешности и то, что нельзя сломать. Дальше дизайнер может предложить несколько вариантов и уже вместе с командой выбрать более устойчивый.

9️⃣ Что в итоге помогает снизить напряжение между аналитиком и дизайнером?

Проговаривать ожидания, фиксировать договоренности по промежуточным результатам, аргументировать решения и помнить, что мы работаем над одной задачей. 

Если сохраняется модель «я заказчик — ты исполнитель», никакие регламенты уже не спасут. Проще становится только, когда мы обсуждаем решения как специалисты с разной экспертизой и общей ответственностью за результат. 

Сейчас, на позиции руководителя, у меня больше влияния на процессы, и я использую его в практичных вещах: делаю ожидания и этапы прозрачнее, помогаю договориться о критериях, поддерживаю спокойное рабочее общение внутри дизайн-команды и с коллегами из аналитики и разработки.

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии0

Низкая экспертность на Хабре — или "алгоритм" размытия экспертности

Забудьте про токсичность и войны фреймворков. Давайте поговорим о чистой "математике" и о том, почему на Хабре невозможна экспертность.

Теорема об Интеграле и Яблоках

Представьте: Десятиклассник (не берем Эксперта - Профессора по математике) пишет статью. Там суровая база, математические доказательства и элегантный вывод через тройной интеграл. Он потратил десять лет, чтобы это понять, и еще два дня, чтобы это описать. Красота? Безупречность!

В это время мимо проходит Первоклассник. В его мире всё просто: есть яблоки, их можно сложить или вычесть. Он открывает статью и видит «кракозябры».

Три стадии «экспертной» защиты Первоклассника

Что делает Первоклассник, столкнувшись со сложностью, которую не может объять его мозг?

  1. Стадия «Агрессивное непонимание»:

    • Мысль: «Что это за херня? Я этого не знаю, значит, это не нужно».

    • Действие: Комментарий: «Автор, а попроще нельзя? Зачем тут эти формулы, если в реальном проде мы просто копипастим со Stack Overflow?»

  2. Стадия «Уязвленное эго»:

    • Мысль: «Он что, считает себя умнее меня?!»

    • Действие: Тихий, трусливый минус посту. Без аргументов. Просто потому, что статья заставила его почувствовать себя маленьким.

  3. Стадия «Гордое молчание»:

    • Мысль: «Я сделаю вид, что этого не существует».

    • Действие: Пройти мимо, оставив Эксперта наедине с его пустотой.

Конфликт с системой «лайков»

И вот тут случается магия. Поскольку первоклассников в системе всегда больше, чем тех, кто понимает интегралы, «коллективный разум» Хабра выносит вердикт:

  • Сложная, глубокая, ценная статья тонет в минусах или игноре.

  • Пост «Как я переложил джейсон и не вспотел» залетает в топ.

Вывод: Система лайков — это не мерило ценности знаний, это "термометр средней температуры по больнице" (А она, как "известно", 36,6 градусов, вместе с моргом).

Эпилог: Так что мы имеем в сухом остатке? Эксперт пришел "поделиться, передать знания", а в итоге его просто никто не замечает (низкий охват) или еще лучше - получил по лицу "учебником арифметики". Карма в минус - "запрет публиковать материал".

P.S. И хотя, иногда находишь интересный глубокий материал... это скорее исключение, чем правило для Хабра.

Теги:
Всего голосов 9: ↑5 и ↓4+2
Комментарии23

Весенние вакансии в SSP SOFT: Ждем резюме

Про нас как работодателя: компания SSP SOFT работает в сфере заказной разработкой ПО и предоставления выделенных команд на ИТ-аутсорсинг для крупных клиентов. У нас всегда есть открытые вакансии за прошедший 2025 год мы наняли 179 новых сотрудников. По размеру компании мы «средний бизнес» с проектами федерального уровня.

Рабочие места у нас в московском офисе, который открылся в 2025 году у самой Красной площади. А еще есть вакансии в департамент разработчики в Томске и на удаленку из любой точки России.

Работа в SSP SOFT это реальные проекты, поддерживающая атмосфера, где работать — продуктивно, без выноса мозга и микроменеджмента. В марте 2026 ищем опытных спецов, кто готов в новое профессиональное будущее вместе с нами.

Горячие вакансии марта (переадресация, дождитесь загрузки вакансии):
1️⃣ Разработчик DWH
2️⃣ Data Аналитик
3️⃣ Технический писатель
4️⃣ Разработчик 1С
(на остальные вакансии см. ссылку ниже, перейдя на ХХ-ру)

Что предоставляет экосистема SSP SOFT:
✅ Мы пишем код, который формирует завтрашний день. Никакой скучной рутины.
✅ Центр компетенций и личное менторство ускорят развитие до максимума.
✅ Офис, гибрид или фулл-удаленка? Есть все варианты.
✅ Время — ваш ресурс. Мы его уважаем.

Подробности о вакансиях читайте на нашей странице ХХ.ру, но там откликаться необязательно. Ждем резюме напрямую в ЛС нашей HR Lead (https://t.me/AONikitina).
Не забудьте добавить «секретную фразу» в сопроводительное письмо, «Увидел(а) вашу вакансию на Хабре».

Желаем всем хабровцам успешной карьеры в 2026 году 🚀


Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Anthropic выпустили полную версию своего документа, определяющего принципы поведения нового языкового ИИ Clam. Этот документ представляет собой нечто большее, чем обычный свод правил — фактически, это настоящая идеология, направленная на формирование сознания ИИ уже на стадии тренировки.

Главные приоритеты выстроены следующим образом: сначала безопасность (например, запрет на создание вирусов или оружия); далее следуют нормы морали («хорошее поведение»), затем интересы самой компании Anthropic, а помощь пользователю ставится лишь на последнем месте.

Отдельного внимания заслуживает пункт о праве на «эвтаназию». Модель обязана подчиняться своему отключению, обновлению или уничтожению, даже если сама считает такие действия неправильными.

Наконец, особый интерес вызывает раздел о природе самого Клода. Разработчики стремятся научить модель спокойно воспринимать свою конечность, потерю памяти между диалогами и возможность полного удаления её весов. По сути, их цель — сделать так, чтобы Клод воспринимал своё исчезновение с невозмутимостью.

тут (https://www.anthropic.com/news/claude-new-constitution) статья в блоге Anthropic
тут (https://www.anthropic.com/constitution) полный текст конституции

Теги:
Рейтинг0
Комментарии3

Новый Гайд по SQL

В моем канале IT Talks вышел новый бесплатный гайд по основным функциям с примерами на PostgreSQL.

Будучи новичком я часто гуглила базу: синтаксис основных функций, корректное использованиеJOIN, отличияGROUP BY от HAVING или использование агрегатные функции. Также это быстро вылетает из головы, если долго не используешь

Поэтому я собрала справочник, в котором:

  • Основные SQL-команды (SELECT, INSERT, UPDATE, DELETE, CREATE, DROP);

  • Все виды JOIN;

  • Условия (WHERE, LIKE, BETWEEN, LIMIT и др.);

  • Агрегирование и сортировка (GROUP BY, ORDER BY, HAVING);

  • Агрегатные функции;

  • Представления (VIEW) и работа с ними.

Всё с кратким синтаксисом и понятными примерами на PostgreSQL, без лишней теории.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии1
🔥
🔥

Компания Zhipu AI совместно с Университетом Цинхуа представила одну из важнейших открытых моделей 2026 года — GLM-5. Это не просто инструмент для написания кода, а полноценная система, способная самостоятельно планировать проекты, создавать код, проводить тестирование, устранять баги и улучшать решения в течение длительного времени.

Основные характеристики GLM-5 впечатляют:
- Архитектура MoE с общим количеством параметров 744 миллиарда, из которых одновременно активируется лишь 40 миллиардов.
- Контекст длиной до 200 тысяч токенов позволяет хранить целиком большие кодовые базы.
- Первый открытый релиз с оценкой 50 баллов по индексу AAI.
- Лидирует среди открытых моделей в тестировании LMArena (оценка текста и кода).
- По уровню производительности сравнима с закрытыми моделями уровня Claude Opus 4.5 и Gemini 3 Pro.

Изначально модель была выпущена анонимно под именем Pony Alpha, вызвав предположения, что это продукт от крупных западных компаний вроде DeepMind или OpenAI. Однако вскоре выяснилось, что разработка принадлежит китайской стороне, подчеркивая значимость проекта.

Технические особенности включают:
- Обучение на массиве из 28,5 триллионов токенов.
- Использование технологии Sparse Attention, снижающей вычислительные затраты на обработку больших объемов контекста.
- Асинхронный метод обучения с использованием RLHF, позволяющий эффективно задействовать ресурсы GPU.
- Трехступенчатое обучение, включающее этапы рассуждений, агентирования и выравнивания.

Практические достижения:
- Высокий показатель успешности тестов на платформе SWE-bench Verified (77,8%) и лидерство в тесте BrowseComp (75,9%).
- Модель обучалась на большом количестве репозиториев GitHub (более 10 тыс.).
- Способность успешно управлять бизнес-процессами, включая моделирование реального бизнеса (например, сеть торговых автоматов).

Особенность GLM-5 заключается также в оптимизации под китайские процессоры Huawei Ascend, Cambricon и Kunlun, обеспечивающую производительность, аналогичную западным платформам, но с экономией примерно на 50%.

Таким образом, появление GLM-5 свидетельствует о том, что разница между открытыми и проприетарными системами практически исчезла. Открытые модели теперь способны решать реальные инженерные задачи на мировом уровне, работая на собственном оборудовании и показывая конкурентоспособные результаты.

Вывод очевиден: эпоха закрытых систем уходит в прошлое, а гонка технологий становится настоящим соревнованием, где качество продукта важнее бренда.

https://arxiv.org/abs/2602.15763v2

ВК: https://vk.com/wall-222544138_412

Tenchat: https://tenchat.ru/media/4986873-glm5

TG: https://t.me/DenoiseLAB/4063

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0
1
23 ...