Расскажем, как подготовить IT-системы к наплыву покупателей 🛍️💻
Черная пятница, а после — предновогодняя суета с поиском подарков или продуктов…
На вебинаре расскажем, как обернуть ситуацию в свою пользу: подготовить IT-инфраструктуру, чтобы сервисы не упали, покупатели остались довольны, а компания не потеряла прибыль.
Зовем всех, кто отвечает за отказоустойчивость IT-систем в ритейле и e-com: CIO, CTO, руководителей и менеджеров по цифровой трансформации и IT, руководителей инфраструктурных операций и не только.
Обсудим, как:
добиться SLA 99,95%, обеспечить минимальные RTO и RPO, чтобы быстро восстанавливаться после сбоев;
перенести и настроить в облаке 1С;
переложить обслуживание инфраструктуры на облачного провайдера;
выстроить бэкапы и аварийное восстановление.
📅 Когда? 11 ноября в 11:00 мск.
📍Где? Встречаемся онлайн. Регистрируйтесь на странице вебинара — и до скорой встречи.
GlowByte приглашает на первый Data Sapience Data Day: дата, программа, регистрация
Data Sapience объявляет о проведении первой конференции, посвященной работе с большими данными, Data Sapience Data Day, которая состоится 18 ноября 2025 года. Мероприятие объединит ведущих экспертов IT-отрасли и руководителей крупнейших компаний.
Data Sapience Data Day 2025
В программе конференции:
Панельная дискуссия с участием CDO лидирующих организаций будет посвящена ключевым темам современного дата-рынка: ▫️ перспективам развития дата-ландшафта; ▫️ влиянию искусственного интеллекта на управление данными; ▫️ оценке готовности рынка (технологии/решения/компетенции); ▫️ вопросам миграции в публичные облака.
Клиенты выступят с докладами и расскажут о кейсах внедрения и эксплуатации решений Data Sapience. Среди спикеров — представители Альфа-Банка, ОТП Банка, Россельхозбанка и других крупных организаций.
Технологические презентации познакомят участников с возможностями Lakehouse-платформы данных Data Ocean и платформы управления данными Data Ocean Governance.
В мероприятии примут участие специалисты Т-Банка, Газпромбанка, Сбербанк Страхования, Адастры и других ведущих игроков рынка.
▶️ ПОДРОБНАЯ ПРОГРАММА И РЕГИСТРАЦИЯ ◀️ Участие в конференции бесплатное. Регистрация обязательна и проходит модерацию в соответствии с закрытым форматом мероприятия.
Легендарный разработчик культовых игр Джон Кармак посоветовал разработчикам на Python никогда не переназначать и не обновлять переменную вне итеративных вычислений в циклах. По его словам, наличие всех промежуточных вычислений полезно в отладчике и позволяет избежать проблем, когда при перемещении блока кода он автоматически использует версию переменной, отличную от изначальной. А вот в C/C++ хорошей практикой является инициализация практически всех переменных как const. Кармаку хотелось бы, чтобы это было сделано по умолчанию, а mutable было ключевым словом.
Финал хакатона прошёл на фестивале для студентов и молодых специалистов «Росатома» IT CORE 2025.
Марафон хакатонов «АтомикХак 3.0» направлен на поиск и развитие ИТ-специалистов, готовых решать задачи атомной отрасли. На базе пяти технологических вузов прошли отборочные этапы, где команды боролись за попадание в топ-5.
Финал хакатона и награждение победителей состоялось на ИТ-фестивале для студентов и молодых специалистов IT CORE 2025 в Нижнем Новгороде.
Участники работали над реальными ИТ-задачами от компаний из атомной отрасли. В роли наставников и жюри выступили эксперты Госкорпорации «Росатом».
Команды-победители получили денежные призы на торжественной церемонии закрытия фестиваля:
1 место — 300 тысяч рублей
2 место — 200 тысяч рублей
3 место — 100 тысяч рублей
Список победителей
НГТУ им. Р.Е. Алексеева
Задание от ОКБМ «Африкантов»: команды разрабатывали решения по повышению эффективности работы системы нормоконтроля предприятия. Необходимо было разработать единый цифровой инструмент для ускорения и повышения точности проверки чертежей на соответствие нормативным документам.
Победители: 1 место — «Пудж» (НГТУ им. Р.Е. Алексеева) 2 место — HDD[M2] (Ростовский государственный экономический университет) 3 место — Ping Floyd (Нижегородский филиал ВШЭ)
СПбГЭТУ «ЛЭТИ»
Задание от ООО «ДЖЭТ ЛАБ», АО «ИТЦ «ДЖЭТ»:участники работали с моделью изолированной микроэнергосистемы, объединяющей дизельгенератор, возобновляемый источник энергии, аккумуляторную батарею и переменную нагрузку. Команды с помощью методов линейного программирования искали оптимальное почасовое распределение мощности между источниками, строили компьютерную модель той же изолированной микроэнергосистемы и настраивали систему управления.
Победители: 1 место — Battom (СПбГЭТУ «ЛЭТИ») 2 место — «ИННОВАЦИЯ» (СПбГЭТУ «ЛЭТИ») 3 место — «КОманда «52»» (КГЭУ)
НИЯУ МИФИ
Задание от научно-производственного объединения «Росатома»: участники трудились над разработкой решения для автоматического анализа работы ИТ-оборудования и программного обеспечения.
Победители:
1 место — Black Lotus (ГУАП) 2 место — IUK2.0 (Калужский филиал МГТУ) 3 место — R^2 negative (Финансовый университет)
РТУ МИРЭА Задание от «Росатом Квантовые технологии»: участникам было необходимо разработать решение для оптимизации движения транспорта в городской среде. Они строили модель дорожной сети и предлагали квантово-вдохновлённый или квантовый алгоритм, который позволяет находить оптимальные маршруты. Для поиска решений использовали современные квантово-вдохновлённые методы оптимизации и симуляторы квантовых компьютеров.
Победители:
1 место — «ПМщики» (РТУ МИРЭА) 2 место — PHD Ising Group (МФТИ) 3 место — «Дагестанские учёные» (РТУ МИРЭА и МИФИ)
УрФУ Задание от АО «Гринатом»: команды создавали умного ассистента, который сможет анализировать разнородные материалы проекта (технические описания, финансовые модели, презентации) и в диалоге с пользователем формировать готовую презентацию для инвестиционного совета. Решение должно было уметь адаптировать глубину и стиль подачи под разные аудитории и собирать структурированный отчёт в корпоративном шаблоне.
Победители:
1 место — «Контора солнышек онлайн» (УрФУ) 2 место — FTI://hack (УрФУ) 3 место — enviloup_team (УрФУ)
Первый Data Sapience Data Day: дата, программа, регистрация
Data Sapience объявляет о проведении первой конференции, посвященной работе с большими данными, Data Sapience Data Day, которая состоится 18 ноября 2025 года. Мероприятие объединит ведущих экспертов IT-отрасли и руководителей крупнейших компаний.
Data Sapience Data Day 2025
В программе конференции:
Панельная дискуссия с участием CDO лидирующих организаций будет посвящена ключевым темам современного дата-рынка: ▫️перспективам развития дата-ландшафта; ▫️влиянию искусственного интеллекта на управление данными; ▫️оценке готовности рынка (технологии/решения/компетенции); ▫️вопросам миграции в публичные облака.
Клиенты выступят с докладами и расскажут о кейсах внедрения и эксплуатации решений Data Sapience. Среди спикеров — представители Альфа-Банка, ОТП Банка, Россельхозбанка и других крупных организаций.
Технологические презентации познакомят участников с возможностями Lakehouse-платформы данных Data Ocean и платформы управления данными Data Ocean Governance.
В мероприятии примут участие специалисты Т-Банка, Газпромбанка, Сбербанк Страхования, Адастры и других ведущих игроков рынка.
▶️ ПОДРОБНАЯ ПРОГРАММА И РЕГИСТРАЦИЯ ◀️ Участие в конференции бесплатное. Регистрация обязательна и проходит модерацию в соответствии с закрытым форматом мероприятия.
Итак, поскольку бизнес, похоже, до сих пор не верит, что ему, по-прежнему, не обойтись без живых и толковых разработчиков, и предается влажным мечтам о тотальном вайб-кодинге лично потугами стейкхолдеров и продакт-оунеров (ахаха!), то я пока просто поделюсь несколькими реальными практиками, которые мне удалось применить в работе над пет‑проектами и которые я, как техлид, могу смело предложить для внедрения в небольших командах.
Затем, в следующих постах, я постараюсь объяснить доходчиво, почему Вам, уважаемые CEO и кофаундеры, глупо ждать очередного прорыва, -- лучше нанимайте хороших специалистов, пока хайп не сдулся (завтра ноябрь, але!). Без них "волшебный черный ящик" не заработает вам ничего.. ;)
Начну с банального рецепта, применимого моментально к любому индивидуальному разработчику в его повседневной деятельности (одной-двумя командами и без вложений!).
Первый шаг вроде бы очевиден, это конечно же установить плагин для IDE и привыкнуть к нему. Но загвоздка есть сразу -- придется прям выбирать и пробовать, ибо их слишком много, а единственная реально юзабильная их функция -- это автодополнение. Поэтому просто выберите такой, чтобы хорошо это делал в вашей любимой среде разработки и можно было переключаться между локальными и облачными API.
Но, когда привык и наигрался, то куда дальше? Где этот реальный буст в конце-то концов?
Будем искать! И вот что я пока нашел, однозначно полезного и перспективного:
Шаг второй: LLM CLI tool — это что‑то вроде, например, aichat, установленного локально для вашей консоли. Он приносит все возможности LLM прямо в командную строку, опираясь на мощь нативных Unix‑пайпов — вот где начинается настоящая магия. 😉
Например, вместо того чтобы тужится с shell-синтаксисом, ты можешь мгновенно зашорткатить себе быстрый запуск следующего шага:
$ aichat -e create bash script to launch docker container with qwen-code and current or specified folder mounted to workdir as volume
Шаг третий: Coding Agent — попробуйте, наконец, полноценного агента. Мне кажется очевидным, что агенты должны работать в изоляции, поэтому я настоятельно рекомендую подходить к снаряду сразу через контейнер. Мой текущий выбор — Qwen‑code в Docker, который я запускаю с любым локальным каталогом, смонтированным как volume, связанным с рабочей директорией.
Qwen‑code отлично работает в связке с открытой рядом IDE — позволяя плавно переключаться между ручным кодингом и LLM‑ассистированным процессом разработки.
2000 запросов в день бесплатно! ;)
Оба инструмента уже описаны на Хабре. Но, поскольку инструментов великое множество -- хотел бы обратить ваше внимание именно на эти. Спасибо.
В следующих постах, возможно, расскажу подробнее о часто возникающих кейсах и следующих шагах, вроде добавления MCP.
ИИ в продакшн: где заканчивается хайп и начинается реальная польза
Полгода назад Дарио Амодей из Anthropic заявил: к сентябрю 2025 года 90% кода будут писать нейросети — не помощники, а полноценная замена разработчиков. Наступил ноябрь. Пророчество не сбылось — но IT-индустрия изменилась радикально. Теперь в компаниях раскол — кто-то жалуется, что нейросети только перегружают всех, а кто-то обучает ИИ на замену рутине.
На конференции AI Boost эксперты от Сбера, Магнита, Атол и Surf обсудили, что изменилось за последние полгода и как ИИ-агенты на самом деле работают в продакшене разработки. Получилась честная и горячая дискуссия, как команды бигтеха и ИТ-компаний переходят на ИИ и что стало с ролью разработчика. Смотрите запись самого обсуждаемого круглого стола конференции, из которой узнаете:
Почему люди всё ещё пишут 90% кода и как команды учатся использовать AI-агентов в реальной работе.
Чем хороший джун отличается от ML-модели и что ждёт джунов в мире, где их задачи уже умеет решать AI.
Можно ли доверить нейросетям проектирование сложных систем и где проходит граница ответственности человека.
Стоит ли перестраивать SDLC ради ИИ или достаточно встроить новые инструменты в существующие процессы.
Почему спагетти-код может стать нормой.
Может ли вообще ИИ заменить разработчиков — или все это так и останется хайпом.
Иногда кажется, что мы всё ближе к «золотой кнопке» — нажал, и готово. Но, как показывает опыт, чтобы внедрить ИИ по-настоящему, нужно быть внутри процесса — с руками в коде и головой в архитектуре.
Евгений Сатуров, CTO Mobile в Surf
Спикеры:
Дмитрий Панычев — Head of Seller Development в Magnit OMNI
Глеб Михеев — лидер трайба «Цифровой ассистент» в Сбере, автор телеграм-канала «Уставший техдир»
Сегодня мы решили обойтись без банальных страшилок про призраков и ведьм и придумать кое-что более пугающее. Герои наших историй столкнулись с настоящими цифровыми кошмарами — взломом и потерей данных.
Почитайте, чтобы немного пощекотать нервы, а затем пройдите небольшой тест. Благодаря нему сможете оценить, насколько хорошо вы разбираетесь в надежном хранении. Всем, кто не испугается, подарим промокод на 1 000 бонусов в панели Selectel.
«Раньше казалось, что творческие профессии ИИ заменить не сможет. Но оказалось, что это не так..»
У ИТ-компании "Криптонит" есть свой подкаст — "Криптонит говорит". И недавно вышел новый выпуск — он посвящён искусственному интеллекту, нейросетям и профессии ML-специалиста!
Правда ли ИИ так сильно влияет на бизнес и повседневную жизнь? Какие профессии сможет заменить искусственный интеллект? И где надо учиться, чтобы стать погонщиком нейросетей?
Обо всём этом поговорили в нашем новом подкасте! А в конце бонус — «прожарка» ML-специалистов от ChatGPT😄
В подкасте приняли участие:
Георгий Поляков, заместитель руководителя лаборатории ИИ, «Криптонит»
Артём Рыженков, старший специалист-исследователь лаборатории ИИ, «Криптонит»
Новое видео с нашей Конференции Luxms, в котором Вадим Кананыхин, Руководитель отдела управления и аналитики данных ГК «Синтека», рассказал про свои наработки и интересные проекты, а также поделился собственными приемами и «лайфхаками» работы с Luxms BI.
Luxms BI — классный продукт, который нам развязал руки и кардинально увеличил наши возможности в аналитике, построении отчётности, управлении хранилищами данных.
В выступлении:
BI-дэшборд для поставщиков: управленческие данные в одном окне, фильтры и гибкая визуализация под роль пользователя;
Оптимизация процессов: ускорение расчётов за счёт предобработки JSON и автоматического обновления только новых данных;
Рост эффективности: перераспределение ресурсов и фокус на наиболее прибыльных товарных категориях;
Отказоустойчивость и автономность: автоматический контроль сборов данных и уведомления о сбоях в Telegram;
Luxms BI + Luxms Data Boring = инфраструктура доверия: свежие данные, надёжная архитектура и единый источник аналитической правды.
Обсудили контуровцы: Антон Нечуговских, ведущий инженер-программист в 24 года, и Никита Хубаев, начинающий инженер-программист в 36 лет.
Сеньор в 25 лет вызывает недоверие у коллег из-за своего возраста
Сеньор в 24: Открытые и адекватные люди скорее делают вывод о тебе по тому, как ты с ними взаимодействуешь, а не по тому, сколько тебе лет. Но с недоверием да, иногда сталкиваюсь. Я поэтому и перестал брить бороду 😁 и это не шутка.
Джун в 36: Я раньше работал в продажах, и примерно в 23 года уже был директором магазинов. Старшие коллеги воспринимали это нормально. Важно то, как ты себя позиционируешь в команде, насколько развиты у тебя харды и софты. Если с этим всё в порядке, то и команда это чувствует.
Пользы для продукта или команды от 35-летнего джуна больше, чем от 25-летнего сеньора, из-за большего жизненного опыта у джуна
Джун в 36: Да, пользы чуточку больше, но это связано не с возрастом, а с тем, какой у тебя грейд. Если ты сеньор, то занимаешься внутри команды больше архитектурными задачами, и то время, которое мог бы потратить на разработку продукта, тратишь на наставничество, помощь в написании кода и код-ревью. А будучи джуном в 35 лет ты концентрируешься на том, чтобы писать код и в итоге приносить больший пользовательский опыт.
Сеньор в 24: Хм, ну работа же не заканчивается написанием кода. 😉 Какое-то видение появляется, и из-за того, что есть сеньорский опыт и технический бэкграунд, ты это видение применяешь в нужном направлении. Уже многое умеешь, но при этом есть альтернативный вижн по сравнению с коллегами, которые намного старше тебя. Можешь на их языке с ними общаться и доносить до них что-то новое.
Джун в 36: Некоторые люди в командах не могут занимать должность мидла, хотя с технической стороны они уже глубокие сеньоры. Считаю, лучший грейд — это мидл+.
Джуну в 35 сложнее найти работу, чем джуну в 25
Сеньор в 24: Думаю, что да. Увы, эйджизм никуда не делся. 🤷♂️ Скорее всего, эйчар отметит в тебе целеустремлённость, но поставит под сомнения перспективы.
Джун в 36: Я стал разработчиком после 30 лет, и самое сложное было впервые оказаться на собеседовании. Но отмечу то, что, вероятно, в этом возрасте у тебя будет всё хорошо с софтами, и это твоё преимущество. А для работодателя знак: если такой кандидат осмелился пойти в айти после тридцати, то, скорее всего, в нём есть настойчивость и ответственность, которая и в работе обязательно проявится.
Джуны сталкиваются с излишним контролем на работе, даже когда им 35
Сеньор в 24: Считаю, что джуна не надо сильно контролировать, пусть сам копается, выдаёт результат, а дальше можно будет подкорректировать.
Джун в 36: Согласен, но смотря какие задачи ты даёшь джуну. Если задача от бизнеса, то нужно будет разделить с ним ответственность. В целом, не надо контролировать, как джун пишет код, при этом всё-таки проводить код-ревью, чтобы помогать ему писать код правильно, и следить за сроками.
Не стоит начинать карьеру в IT после 30, лучше искать что-то другое
Сеньор в 24: Средний возраст ребят в IT меньше 30 лет, и когда ты находишься в обществе людей старше тебя, то и сам как будто бы быстрее взрослеешь. В другую сторону работает так же: если вокруг все младше тебя, ты молодеешь и наполняешься этой энергией.
Джун в 36: Поддерживаю! Если ты видишь в себе потенциал, тебе это интересно, обязательно попробуй. Но не требуй от себя много, например того, что добьёшься чего-то в короткий срок. Отнесись к этому, как к пути. Лучше уж после 30, чем после 40. Но даже если после 40 тебе это интересно — здорово! Я знаю людей, которые учились и в 60 лет, проходили стажировки. Да, не все из них трудоустроились, но это был вызов для них и новый опыт.
Сеньор в 24: Менять свой путь после 30 — сложно, я восхищаюсь теми, кто это делает. 👍
Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥
Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Modelsдо 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.
А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:
GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.
Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.
GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.
Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.
MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.
Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.
«Почему онлайн-сертификации больше про продажу бренда, чем про образование: мой опыт сертификации Яндекса + статистика рынка»
Я никогда не верил в ценность сертификатов. В теории это просто инструмент бюрократии, полезность которого можно оценить только через призму больших систем. За свою жизнь я не встретил примеров, когда сертификат реально помог человеку.
НО. Яндекс смог продать мне идею: иметь сертификат по инструменту, который я использую каждый день — это действительно круто. Особенно учитывая скидку 80%.
Сдача сертификата пошла не по плану с первой секунды:
Из 4 часов отведенного времени я потратил 2 часа на:
Настройку камер
Получение доступов
Прокликивание разрешений
Скачивание отдельного браузера
Регистрацию в аккаунте системы экзамена
Результат? 3 секунды после входа я узнал, что встроенный софт моей ОС, работающий в фоновом режиме, воспринимается системой прокторинга как попытка жульничества.
После 15 минут попыток настройки я капитулировал — половина экзамена уже прошла, я физически не успевал его закончить.
Попытка получить возмещение: Оказалось, деньги возвращают только если ты написал в поддержку за сутки до старта экзамена. Не мой кейс.
1000 рублей (вместо полных 5000 без промокода) потрачены без удовольствия. И пожалуй воздержусь от попыток повтора этого гемороя.
Потом я понял, что это не ошибка системы — это её особенность.
Зачем делать крутой сервис, если LTV = время сдачи самого экзамена?
LTV (Lifetime Value) — это параметр, который показывает, сколько денег компания заработает от одного клиента за всё время сотрудничества. Для платформы Яндекса, продающей сертификаты, LTV практически нулевой: клиент платит один раз, сдаёт экзамен один раз, и всё.
Других продуктов на платформе нет (или уже не будет). Нет подписок, нет апселлов, нет повторных продаж.
Поэтому экономически иррационально вкладывать в качество.
Можно просто заработать на бренде Яндекса и продавать сертификаты как «сливки».
LTV в EdTech и модель монетизации
Из исследования CloudPayments по LTV студентов в онлайн-образовании:
LTV студента зависит от возможности повторных покупок и апселлов
В модели one-time payment (одна покупка — один экзамен) LTV минимален
В модели подписки с повторными покупками LTV на порядки выше
Платформы сертификации Яндекса относятся к первой категории — поэтому компании не заинтересованы в удержании клиента.
Почему ЯНДЕКС (и другие платформы с такой моделью) могут игнорировать качество?
Точка 1: Клиент платит один раз и исчезает
Нет модели повторных продаж
Нет апселлов
Нет причин вкладывать в удержание
Точка 2: Бюрократический щит
Если клиент не написал в поддержку за сутки до экзамена — политика не позволяет вернуть деньги
Это не ошибка, это feature: минимизация refund'ов
Точка 3: Репутационный капитал Яндекса срабатывает
Люди покупают сертификат именно потому, что это Яндекс
Качество самой платформы вторично
Сертификат — это просто печать с логотипом, которая подтверждает: «Я прошел тест от Яндекса»
Точка 4: Масса клиентов погашает сетование на форумах
1000 рублей за сертификат × 100 000 попыток = ₽100 млн в год
Даже если 5% людей напишут негативный отзыв, это не повлияет на бизнес
Социальная сеть инвестировать в качество инвестирует, если это грозит репутацией. Здесь это не грозит.
Образование как атракцион
Это не только про Яндекс. Это системная проблема рынка:
Бизнес-модель большинства EdTech-компаний:
Привлечь клиента через маркетинг и репутацию
Получить деньги один раз (LTV ≈ стоимость курса)
Минимизировать затраты на support и улучшения
Повторить со следующим клиентом
Для других потенциальных покупателей сертификатов:
Проверьте, есть ли у платформы модель повторных продаж или апселлов
Если нет — не ждите класса-А поддержки
Сертификаты ценны, только если они узкоспециализированные (AWS, Google, Cisco) или требуемые работодателями (вроде TOGAF в консалтинге или 1С)
Generic сертификаты (тип сертификации Яндекса) — это в основном фиксирование момента времени, когда вы что-то знали
Несколько лет в backend-разработке. Последние месяцы всё изменили
Есть старая поговорка:
«Хорошо поставленный вопрос — уже половина ответа».
Сегодня, если ты не можешь чётко объяснить AI, что тебе нужно — значит, ты сам не до конца понимаешь задачу.
🧩 Три типа разработчиков
Я всё чаще вижу, что разработчики сегодня делятся на три категории:
1. Vibe coders
Знают немного, но пытаются компенсировать это с помощью AI.
2. Скептики
Уверены, что лучше делать всё вручную, а AI не поможет.
3. Архитекторы
Понимают, что AI — это инструмент. Он ускоряет работу и помогает увидеть то, что можно было не учесть на ранних этапах. Иначе можно дойти до середины проекта и понять, что половину придётся переписать.
⚙️ Мой подход
Сегодня важен не сам процесс написания кода (routine tasks), а архитектура. Это было важно всегда — задолго до появления AI.
Главное различие:
Кто писал плохой код — с AI будет писать плохой код, но в 10 раз быстрее.
Кто писал хороший код — с AI будет писать хороший код, тоже в 10 раз быстрее.
🔁 Мой workflow
Анализирую задачу.
Проектирую архитектуру.
Формулирую чёткие правила.
AI пишет — я проверяю и корректирую.
⚠️ Проблемы при работе с AI
1. Ясность
Нужно чётко понимать, что ты делаешь и чего хочешь.
2. Память
AI не помнит прошлые задачи. Новый запрос — новая сессия.
3. Переанализ
Если AI каждый раз анализирует весь проект заново:
Время отклика растёт.
Код в разных частях получается в разном стиле.
Tokens расходуются быстрее (а значит, ты больше платишь).
🧠 Моё решение
Я использую три базовых файла, которые всегда даю AI-агенту:
Agent Rules File — все coding standards: что можно, что нельзя.
Project Map File — структура проекта и расположение файлов.
Business Logic File — бизнес-логика и связи между компонентами.
Так AI не переанализирует проект, понимает контекст и пишет консистентный код.
💬 Вывод
AI не заменит инженера. Но инженер, использующий AI, заменит инженера, который им не пользуется.
❓ Финал
Если ты backend-разработчик — в какой категории ты?
И второй вопрос: как ты решаешь проблему токенов и контекста? Есть свой подход?
💭 P.S. Если ты думаешь, что AI может писать качественный код без твоего участия — дай ему сложную задачу. Потом расскажи, что получилось. 😏
Итоги SimpleOne Day 25: лидеры цифровизации России поделились опытом реализации ESM, Low-code и GenAI
24 октября 2025 года в Москве прошла ежегодная ИТ-конференция SimpleOne Day 25, организованная компанией SimpleOne (направление прикладных бизнес-систем корпорации ITG).
SimpleOne DAY 25
Мероприятие собрало более 400 участников — представителей крупнейших российских компаний и государственных организаций, руководителей ИТ-департаментов, архитекторов цифровых сервисов и экспертов в области Enterprise Service Management.
Главной темой конференции стали практические подходы к автоматизации бизнес-процессов с применением технологий ESM, Low-code и GenAI. Участники представили 13 кейсов, демонстрирующих, как цифровые инструменты помогают ускорить обработку обращений, сократить трудозатраты и повысить эффективность внутренних сервисов.
Первые лица крупных предприятий поделились историями реальных внедрений — от банковского сектора и промышленности до образования и государственного управления. В числе спикеров — представители ФКУ «Соцтех», Банка «Санкт-Петербург», МТС Банка, АЛРОСА ИТ, Инфосистемы Джет, Петрович-Тех, Systeme Electric, Т1 Интеграции, IRB Family и Президентской Академии РАНХиГС.
Отдельное внимание уделили развитию технологий искусственного интеллекта. ФКУ «Соцтех», РАНХиГС и АЛРОСА рассказали о применении GenAI на платформе SimpleOne — от автоматической классификации обращений и анализа пользовательских запросов до интеллектуальной маршрутизации и поддержки внутренних сервисов.
В свою очередь команда SimpleOne представила доклады о развитии решений компании и применении искусственного интеллекта на платформе, показав, как технологии Low-code и GenAI ускоряют автоматизацию внутренних процессов.
Во время конференции информационный партнёр мероприятия “Компьютерра” собрал данные об эффективности современных решений для автоматизации. По данным опроса, 57% участников отметили снижение зависимости от подрядчиков после перехода на Low-code, 43% компаний уже самостоятельно управляют логикой платформы без участия вендора, а 35% организаций сообщили о сокращении времени обработки обращений более чем на 25% после внедрения ESM. Кроме того, каждая четвёртая компания фиксирует рост производительности более чем на 20% после интеграции GenAI-инструментов.
«SimpleOne DAY 25 стал не просто конференцией, а площадкой, где крупный российский Enterprise открыто делился опытом цифровой трансформации. Мы видим, как наши клиенты и партнёры строят зрелые сервисные экосистемы, используя Low-code и ESM, и уже сегодня внедряют GenAI в реальные процессы. Это подтверждает, что отечественные технологии способны не только заместить иностранные решения, но и задать новые стандарты эффективности» - Руслан Шарипов, Исполнительный директор SimpleOne, корпорация ITG.
Обновление каталога образов: новые версии Linux-дистрибутивов в Рег.облаке
В каталоге предустановленных операционных систем для виртуальных серверов Рег.облака добавили свежие релизы для работы с Linux: Debian 13, AlmaLinux 10, Rocky Linux 10 и Ubuntu 24.04 LTS. Образы уже доступны во всех регионах размещения IT-инфраструктуры, включая регион, соответствующий требованиям ФЗ-152.
Новые дистрибутивы включают актуальные исправления безопасности, улучшения производительности и поддержку современного оборудования. А значит пользователям будет доступна более стабильная работа виртуальных серверов, совместимость с актуальными версиями библиотек и фреймворков, а также возможность использовать системы с длительным циклом поддержки.
На площадке Networking Toolbox (GitHub) доступны более 100 сетевых инструментов для системных администраторов и сетевых специалистов, включая решения для проверки DNS, TLS, DHCP, HTTP и почтовых серверов, для конвертирования CIDR, масок, IPv4/IPv6, MAC-адресов, калькуляторы подсетей, генераторы конфигов, утилиты для тестирования производительности, шифрования и маршрутизации, а также справочники по основам сетей IPv6 и сетевым протоколам.
Расскажем, как проводить нагрузочное тестирование на Python
Ждем вас через час, в 18:30 мск, на митапе для Python-специалистов. Как обычно, поговорим обо всем, что волнует сообщество. Сделаем глубокий разбор экосистемы mypy и протестируем ее. Выясним, как запускать задачи по расписанию от cron/systemd timers до чистого Python. Узнаем, насколько сильно можно нагрузить систему, прежде чем она сломается. Все это — в компании экспертных спикеров из Selectel, Яндекса и Райффайзен Банка.
Приходите лично или подключайтесь к трансляции.
Программа
18:35-19:05 — mypy в неестественной среде обитания Сделаем обзор gradual typing в Python и экосистемы mypy, разберем отличия от линтеров и других анализаторов типа.
19:05-19:35 — Все идет по cron-у. Или нет? Поговорим о том, как запускать задачи по расписанию: от cron/systemd timers до чистого Python и библиотек вроде APScheduler, Celery, а также Kubernetes CronJob и Redis Queue.
19:35-20:00 — Ломай меня полностью Разберемся, зачем и как проводить нагрузочное тестирование.
Тестирование движков массивно-параллельных вычислений: StarRocks, Trino, Spark. Spark — с DataFusion Comet и Impala
Друзья, в блоге компании Data Sapience, партнера GlowByte, вышла новая статья, третья в цикле материалов про нагрузочные испытания вычислительных технологий массивных параллельных вычислений.
В этот раз в список решений добавляется Spark, включая работающий с технологией нативных вычислений DataFusion Comet, и набирающий популярность StarRocks.