Обновить

Разработка

Сначала показывать
Порог рейтинга

Итак, поскольку бизнес, похоже, до сих пор не верит, что ему, по-прежнему, не обойтись без живых и толковых разработчиков, и предается влажным мечтам о тотальном вайб-кодинге лично потугами стейкхолдеров и продакт-оунеров (ахаха!), то я пока просто поделюсь несколькими реальными практиками, которые мне удалось применить в работе над пет‑проектами и которые я, как техлид, могу смело предложить для внедрения в небольших командах.

Затем, в следующих постах, я постараюсь объяснить доходчиво, почему Вам, уважаемые CEO и кофаундеры, глупо ждать очередного прорыва, -- лучше нанимайте хороших специалистов, пока хайп не сдулся (завтра ноябрь, але!). Без них "волшебный черный ящик" не заработает вам ничего.. ;)

Начну с банального рецепта, применимого моментально к любому индивидуальному разработчику в его повседневной деятельности (одной-двумя командами и без вложений!).

Первый шаг вроде бы очевиден, это конечно же установить плагин для IDE и привыкнуть к нему. Но загвоздка есть сразу -- придется прям выбирать и пробовать, ибо их слишком много, а единственная реально юзабильная их функция -- это автодополнение. Поэтому просто выберите такой, чтобы хорошо это делал в вашей любимой среде разработки и можно было переключаться между локальными и облачными API.

Но, когда привык и наигрался, то куда дальше? Где этот реальный буст в конце-то концов?

Будем искать! И вот что я пока нашел, однозначно полезного и перспективного:

  • Шаг второй: LLM CLI tool — это что‑то вроде, например, aichat, установленного локально для вашей консоли. Он приносит все возможности LLM прямо в командную строку, опираясь на мощь нативных Unix‑пайпов — вот где начинается настоящая магия. 😉

    Например, вместо того чтобы тужится с shell-синтаксисом, ты можешь мгновенно зашорткатить себе быстрый запуск следующего шага:

    $ aichat -e create bash script to launch docker container with qwen-code and current or specified folder mounted to workdir as volume

  • Шаг третий: Coding Agent — попробуйте, наконец, полноценного агента. Мне кажется очевидным, что агенты должны работать в изоляции, поэтому я настоятельно рекомендую подходить к снаряду сразу через контейнер. Мой текущий выбор — Qwen‑code в Docker, который я запускаю с любым локальным каталогом, смонтированным как volume, связанным с рабочей директорией.

Qwen‑code отлично работает в связке с открытой рядом IDE — позволяя плавно переключаться между ручным кодингом и LLM‑ассистированным процессом разработки.

2000 запросов в день бесплатно! ;)
2000 запросов в день бесплатно! ;)

Оба инструмента уже описаны на Хабре. Но, поскольку инструментов великое множество -- хотел бы обратить ваше внимание именно на эти. Спасибо.

В следующих постах, возможно, расскажу подробнее о часто возникающих кейсах и следующих шагах, вроде добавления MCP.

Теги:
Рейтинг0
Комментарии3

ИИ в продакшн: где заканчивается хайп и начинается реальная польза

Полгода назад Дарио Амодей из Anthropic заявил: к сентябрю 2025 года 90% кода будут писать нейросети — не помощники, а полноценная замена разработчиков.
Наступил ноябрь. Пророчество не сбылось — но IT-индустрия изменилась радикально. Теперь в компаниях раскол — кто-то жалуется, что нейросети только перегружают всех, а кто-то обучает ИИ на замену рутине.

На конференции AI Boost эксперты от Сбера, Магнита, Атол и Surf обсудили, что изменилось за последние полгода и как ИИ-агенты на самом деле работают в продакшене разработки. Получилась честная и горячая дискуссия, как команды бигтеха и ИТ-компаний переходят на ИИ и что стало с ролью разработчика. Смотрите запись самого обсуждаемого круглого стола конференции, из которой узнаете:

  • Почему люди всё ещё пишут 90% кода и как команды учатся использовать AI-агентов в реальной работе.

  • Чем хороший джун отличается от ML-модели и что ждёт джунов в мире, где их задачи уже умеет решать AI.

  • Можно ли доверить нейросетям проектирование сложных систем и где проходит граница ответственности человека.

  • Стоит ли перестраивать SDLC ради ИИ или достаточно встроить новые инструменты в существующие процессы.

  • Почему спагетти-код может стать нормой.

  • Может ли вообще ИИ заменить разработчиков — или все это так и останется хайпом.

Иногда кажется, что мы всё ближе к «золотой кнопке» — нажал, и готово. Но, как показывает опыт, чтобы внедрить ИИ по-настоящему, нужно быть внутри процесса — с руками в коде и головой в архитектуре.

Евгений Сатуров, CTO Mobile в Surf

Спикеры:

  • Дмитрий Панычев — Head of Seller Development в Magnit OMNI

  • Глеб Михеев — лидер трайба «Цифровой ассистент» в Сбере, автор телеграм-канала «Уставший техдир»

  • Владимир Кочегаров — Head of QA в компании Атол

  • Евгений Сатуров — CTO Mobile в Surf

Смотрите полную запись круглого стола на YouTube.

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии0

Умеете хранить данные? Предлагаем проверить!

Сегодня мы решили обойтись без банальных страшилок про призраков и ведьм и придумать кое-что более пугающее. Герои наших историй столкнулись с настоящими цифровыми кошмарами — взломом и потерей данных. 

Почитайте, чтобы немного пощекотать нервы, а затем пройдите небольшой тест. Благодаря нему сможете оценить, насколько хорошо вы разбираетесь в надежном хранении. Всем, кто не испугается, подарим промокод на 1 000 бонусов в панели Selectel.

Теги:
Всего голосов 5: ↑5 и ↓0+9
Комментарии1

«Раньше казалось, что творческие профессии ИИ заменить не сможет. Но оказалось, что это не так..»

У ИТ-компании "Криптонит" есть свой подкаст — "Криптонит говорит". И недавно вышел новый выпуск — он посвящён искусственному интеллекту, нейросетям и профессии ML-специалиста!

Смотрите и слушайте подкаст:

Правда ли ИИ так сильно влияет на бизнес и повседневную жизнь? Какие профессии сможет заменить искусственный интеллект? И где надо учиться, чтобы стать погонщиком нейросетей?

Обо всём этом поговорили в нашем новом подкасте! А в конце бонус — «прожарка» ML-специалистов от ChatGPT😄

В подкасте приняли участие:

  • Георгий Поляков, заместитель руководителя лаборатории ИИ, «Криптонит»

  • Артём Рыженков, старший специалист-исследователь лаборатории ИИ, «Криптонит»

  • Ярослав Самойлов, ML Team Lead, Magnus Tech

Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии1

Новое видео с нашей Конференции Luxms, в котором Вадим Кананыхин, Руководитель отдела управления и аналитики данных ГК «Синтека», рассказал про свои наработки и интересные проекты, а также поделился собственными приемами и «лайфхаками» работы с Luxms BI.

Luxms BI — классный продукт, который нам развязал руки и кардинально увеличил наши возможности в аналитике, построении отчётности, управлении хранилищами данных.

В выступлении:

  • BI-дэшборд для поставщиков: управленческие данные в одном окне, фильтры и гибкая визуализация под роль пользователя;

  • Оптимизация процессов: ускорение расчётов за счёт предобработки JSON и автоматического обновления только новых данных;

  • Рост эффективности: перераспределение ресурсов и фокус на наиболее прибыльных товарных категориях;

  • Отказоустойчивость и автономность: автоматический контроль сборов данных и уведомления о сбоях в Telegram;

  • Luxms BI + Luxms Data Boring = инфраструктура доверия: свежие данные, надёжная архитектура и единый источник аналитической правды.

Видео выступления и материалы — на нашем сайте.

Теги:
Рейтинг0
Комментарии0

Влияет ли возраст на карьеру в IT

Обсудили контуровцы: Антон Нечуговских, ведущий инженер-программист в 24 года, и Никита Хубаев, начинающий инженер-программист в 36 лет.

Сеньор в 25 лет вызывает недоверие у коллег из-за своего возраста

Сеньор в 24: Открытые и адекватные люди скорее делают вывод о тебе по тому, как ты с ними взаимодействуешь, а не по тому, сколько тебе лет. Но с недоверием да, иногда сталкиваюсь. Я поэтому и перестал брить бороду 😁 и это не шутка.

Джун в 36: Я раньше работал в продажах, и примерно в 23 года уже был директором магазинов. Старшие коллеги воспринимали это нормально. Важно то, как ты себя позиционируешь в команде, насколько развиты у тебя харды и софты. Если с этим всё в порядке, то и команда это чувствует. 

Пользы для продукта или команды от 35-летнего джуна больше, чем от 25-летнего сеньора, из-за большего жизненного опыта у джуна

Джун в 36: Да, пользы чуточку больше, но это связано не с возрастом, а с тем, какой у тебя грейд. Если ты сеньор, то занимаешься внутри команды больше архитектурными задачами, и то время, которое мог бы потратить на разработку продукта, тратишь на наставничество, помощь в написании кода и код-ревью. А будучи джуном в 35 лет ты концентрируешься на том, чтобы писать код и в итоге приносить больший пользовательский опыт. 

Сеньор в 24: Хм, ну работа же не заканчивается написанием кода. 😉 Какое-то видение появляется, и из-за того, что есть сеньорский опыт и технический бэкграунд, ты это видение применяешь в нужном направлении. Уже многое умеешь, но при этом есть альтернативный вижн по сравнению с коллегами, которые намного старше тебя. Можешь на их языке с ними общаться и доносить до них что-то новое.

Джун в 36: Некоторые люди в командах не могут занимать должность мидла, хотя с технической стороны они уже глубокие сеньоры. Считаю, лучший грейд — это мидл+.

Джуну в 35 сложнее найти работу, чем джуну в 25

Сеньор в 24: Думаю, что да. Увы, эйджизм никуда не делся. 🤷‍♂️ Скорее всего, эйчар отметит в тебе целеустремлённость, но поставит под сомнения перспективы. 

Джун в 36: Я стал разработчиком после 30 лет, и самое сложное было впервые оказаться на собеседовании. Но отмечу то, что, вероятно, в этом возрасте у тебя будет всё хорошо с софтами, и это твоё преимущество. А для работодателя знак: если такой кандидат осмелился пойти в айти после тридцати, то, скорее всего, в нём есть настойчивость и ответственность, которая и в работе обязательно проявится.

Джуны сталкиваются с излишним контролем на работе, даже когда им 35

Сеньор в 24: Считаю, что джуна не надо сильно контролировать, пусть сам копается, выдаёт результат, а дальше можно будет подкорректировать.

Джун в 36: Согласен, но смотря какие задачи ты даёшь джуну. Если задача от бизнеса, то нужно будет разделить с ним ответственность. В целом, не надо контролировать, как джун пишет код, при этом всё-таки проводить код-ревью, чтобы помогать ему писать код правильно, и следить за сроками.

Не стоит начинать карьеру в IT после 30, лучше искать что-то другое

Сеньор в 24: Средний возраст ребят в IT меньше 30 лет, и когда ты находишься в обществе людей старше тебя, то и сам как будто бы быстрее взрослеешь. В другую сторону работает так же: если вокруг все младше тебя, ты молодеешь и наполняешься этой энергией.

Джун в 36: Поддерживаю! Если ты видишь в себе потенциал, тебе это интересно, обязательно попробуй. Но не требуй от себя много, например того, что добьёшься чего-то в короткий срок. Отнесись к этому, как к пути. Лучше уж после 30, чем после 40. Но даже если после 40 тебе это интересно — здорово! Я знаю людей, которые учились и в 60 лет, проходили стажировки. Да, не все из них трудоустроились, но это был вызов для них и новый опыт.

Сеньор в 24: Менять свой путь после 30 — сложно, я восхищаюсь теми, кто это делает. 👍

***

Выпуск подкаста с Антоном и Никитой доступен на YouTube, Rutube, VK, Яндекс Музыке.

Теги:
Всего голосов 10: ↑5 и ↓50
Комментарии6

Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥

Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Models до 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.

А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:

  • GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.

  • Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.

  • GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.

  • Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.

  • MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.

Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.

Попробовать 🕹️

Теги:
Рейтинг0
Комментарии0

«Почему онлайн-сертификации больше про продажу бренда, чем про образование: мой опыт сертификации Яндекса + статистика рынка»

Я никогда не верил в ценность сертификатов. В теории это просто инструмент бюрократии, полезность которого можно оценить только через призму больших систем. За свою жизнь я не встретил примеров, когда сертификат реально помог человеку.

НО. Яндекс смог продать мне идею: иметь сертификат по инструменту, который я использую каждый день — это действительно круто. Особенно учитывая скидку 80%.

Сдача сертификата пошла не по плану с первой секунды:

Из 4 часов отведенного времени я потратил 2 часа на:

  • Настройку камер

  • Получение доступов

  • Прокликивание разрешений

  • Скачивание отдельного браузера

  • Регистрацию в аккаунте системы экзамена

Результат? 3 секунды после входа я узнал, что встроенный софт моей ОС, работающий в фоновом режиме, воспринимается системой прокторинга как попытка жульничества.

После 15 минут попыток настройки я капитулировал — половина экзамена уже прошла, я физически не успевал его закончить.

Попытка получить возмещение:
Оказалось, деньги возвращают только если ты написал в поддержку за сутки до старта экзамена. Не мой кейс.

1000 рублей (вместо полных 5000 без промокода) потрачены без удовольствия. И пожалуй воздержусь от попыток повтора этого гемороя.

Потом я понял, что это не ошибка системы — это её особенность.

Зачем делать крутой сервис, если LTV = время сдачи самого экзамена?

LTV (Lifetime Value) — это параметр, который показывает, сколько денег компания заработает от одного клиента за всё время сотрудничества. Для платформы Яндекса, продающей сертификаты, LTV практически нулевой: клиент платит один раз, сдаёт экзамен один раз, и всё.

Других продуктов на платформе нет (или уже не будет). Нет подписок, нет апселлов, нет повторных продаж.

Поэтому экономически иррационально вкладывать в качество.

Можно просто заработать на бренде Яндекса и продавать сертификаты как «сливки».

LTV в EdTech и модель монетизации

Из исследования CloudPayments по LTV студентов в онлайн-образовании:

  • LTV студента зависит от возможности повторных покупок и апселлов

  • В модели one-time payment (одна покупка — один экзамен) LTV минимален

  • В модели подписки с повторными покупками LTV на порядки выше

Платформы сертификации Яндекса относятся к первой категории — поэтому компании не заинтересованы в удержании клиента.

Почему ЯНДЕКС (и другие платформы с такой моделью) могут игнорировать качество?

Точка 1: Клиент платит один раз и исчезает

  • Нет модели повторных продаж

  • Нет апселлов

  • Нет причин вкладывать в удержание

Точка 2: Бюрократический щит

  • Если клиент не написал в поддержку за сутки до экзамена — политика не позволяет вернуть деньги

  • Это не ошибка, это feature: минимизация refund'ов

Точка 3: Репутационный капитал Яндекса срабатывает

  • Люди покупают сертификат именно потому, что это Яндекс

  • Качество самой платформы вторично

  • Сертификат — это просто печать с логотипом, которая подтверждает: «Я прошел тест от Яндекса»

Точка 4: Масса клиентов погашает сетование на форумах

  • 1000 рублей за сертификат × 100 000 попыток = ₽100 млн в год

  • Даже если 5% людей напишут негативный отзыв, это не повлияет на бизнес

  • Социальная сеть инвестировать в качество инвестирует, если это грозит репутацией. Здесь это не грозит.

Образование как атракцион

Это не только про Яндекс. Это системная проблема рынка:

Бизнес-модель большинства EdTech-компаний:

  1. Привлечь клиента через маркетинг и репутацию

  2. Получить деньги один раз (LTV ≈ стоимость курса)

  3. Минимизировать затраты на support и улучшения

  4. Повторить со следующим клиентом

Для других потенциальных покупателей сертификатов:

  • Проверьте, есть ли у платформы модель повторных продаж или апселлов

  • Если нет — не ждите класса-А поддержки

  • Сертификаты ценны, только если они узкоспециализированные (AWS, Google, Cisco) или требуемые работодателями (вроде TOGAF в консалтинге или 1С)

  • Generic сертификаты (тип сертификации Яндекса) — это в основном фиксирование момента времени, когда вы что-то знали

Можете найти меня в тг

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии2


Несколько лет в backend-разработке. Последние месяцы всё изменили

Есть старая поговорка:

«Хорошо поставленный вопрос — уже половина ответа».

Сегодня, если ты не можешь чётко объяснить AI, что тебе нужно —
значит, ты сам не до конца понимаешь задачу.

🧩 Три типа разработчиков

Я всё чаще вижу, что разработчики сегодня делятся на три категории:

1. Vibe coders

Знают немного, но пытаются компенсировать это с помощью AI.

2. Скептики

Уверены, что лучше делать всё вручную, а AI не поможет.

3. Архитекторы

Понимают, что AI — это инструмент.
Он ускоряет работу и помогает увидеть то, что можно было не учесть на ранних этапах.
Иначе можно дойти до середины проекта и понять, что половину придётся переписать.

⚙️ Мой подход

Сегодня важен не сам процесс написания кода (routine tasks), а архитектура.
Это было важно всегда — задолго до появления AI.

Главное различие:

  • Кто писал плохой код — с AI будет писать плохой код, но в 10 раз быстрее.

  • Кто писал хороший код — с AI будет писать хороший код, тоже в 10 раз быстрее.

🔁 Мой workflow

  1. Анализирую задачу.

  2. Проектирую архитектуру.

  3. Формулирую чёткие правила.

  4. AI пишет — я проверяю и корректирую.

⚠️ Проблемы при работе с AI

1. Ясность

Нужно чётко понимать, что ты делаешь и чего хочешь.

2. Память

AI не помнит прошлые задачи. Новый запрос — новая сессия.

3. Переанализ

Если AI каждый раз анализирует весь проект заново:

  • Время отклика растёт.

  • Код в разных частях получается в разном стиле.

  • Tokens расходуются быстрее (а значит, ты больше платишь).

🧠 Моё решение

Я использую три базовых файла, которые всегда даю AI-агенту:

  1. Agent Rules File — все coding standards: что можно, что нельзя.

  2. Project Map File — структура проекта и расположение файлов.

  3. Business Logic File — бизнес-логика и связи между компонентами.

Так AI не переанализирует проект, понимает контекст
и пишет консистентный код.

💬 Вывод

AI не заменит инженера.
Но инженер, использующий AI, заменит инженера, который им не пользуется.

❓ Финал

Если ты backend-разработчик —
в какой категории ты?

И второй вопрос:
как ты решаешь проблему токенов и контекста?
Есть свой подход?

💭 P.S. Если ты думаешь, что AI может писать качественный код без твоего участия —
дай ему сложную задачу.
Потом расскажи, что получилось. 😏

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии2

Итоги SimpleOne Day 25: лидеры цифровизации России поделились опытом реализации ESM, Low-code и GenAI

24 октября 2025 года в Москве прошла ежегодная ИТ-конференция SimpleOne Day 25, организованная компанией SimpleOne (направление прикладных бизнес-систем корпорации ITG).

SimpleOne DAY 25
SimpleOne DAY 25

Мероприятие собрало более 400 участников — представителей крупнейших российских компаний и государственных организаций, руководителей ИТ-департаментов, архитекторов цифровых сервисов и экспертов в области Enterprise Service Management.

Главной темой конференции стали практические подходы к автоматизации бизнес-процессов с применением технологий ESMLow-code и GenAI. Участники представили 13 кейсов, демонстрирующих, как цифровые инструменты помогают ускорить обработку обращений, сократить трудозатраты и повысить эффективность внутренних сервисов.

Первые лица крупных предприятий поделились историями реальных внедрений — от банковского сектора и промышленности до образования и государственного управления. В числе спикеров — представители ФКУ «Соцтех», Банка «Санкт-Петербург», МТС Банка, АЛРОСА ИТ, Инфосистемы Джет, Петрович-Тех, Systeme Electric, Т1 Интеграции, IRB Family и Президентской Академии РАНХиГС.

Все доклады спикеров доступны по ссылке.

Отдельное внимание уделили развитию технологий искусственного интеллекта. ФКУ «Соцтех», РАНХиГС и АЛРОСА рассказали о применении GenAI на платформе SimpleOne — от автоматической классификации обращений и анализа пользовательских запросов до интеллектуальной маршрутизации и поддержки внутренних сервисов.

В свою очередь команда SimpleOne представила доклады о развитии решений компании и применении искусственного интеллекта на платформе, показав, как технологии Low-code и GenAI ускоряют автоматизацию внутренних процессов.

Во время конференции информационный партнёр мероприятия “Компьютерра” собрал данные об эффективности современных решений для автоматизации. По данным опроса, 57% участников отметили снижение зависимости от подрядчиков после перехода на Low-code, 43% компаний уже самостоятельно управляют логикой платформы без участия вендора, а 35% организаций сообщили о сокращении времени обработки обращений более чем на 25% после внедрения ESM. Кроме того, каждая четвёртая компания фиксирует рост производительности более чем на 20% после интеграции GenAI-инструментов.

«SimpleOne DAY 25 стал не просто конференцией, а площадкой, где крупный российский Enterprise открыто делился опытом цифровой трансформации. Мы видим, как наши клиенты и партнёры строят зрелые сервисные экосистемы, используя Low-code и ESM, и уже сегодня внедряют GenAI в реальные процессы. Это подтверждает, что отечественные технологии способны не только заместить иностранные решения, но и задать новые стандарты эффективности» - Руслан Шарипов, Исполнительный директор SimpleOne, корпорация ITG.

Теги:
Рейтинг0
Комментарии0

Обновление каталога образов: новые версии Linux-дистрибутивов в Рег.облаке

В каталоге предустановленных операционных систем для виртуальных серверов Рег.облака добавили свежие релизы для работы с Linux: Debian 13, AlmaLinux 10, Rocky Linux 10 и Ubuntu 24.04 LTS. Образы уже доступны во всех регионах размещения IT-инфраструктуры, включая регион, соответствующий требованиям ФЗ-152.

Новые дистрибутивы включают актуальные исправления безопасности, улучшения производительности и поддержку современного оборудования. А значит пользователям будет доступна более стабильная работа виртуальных серверов, совместимость с актуальными версиями библиотек и фреймворков, а также возможность использовать системы с длительным циклом поддержки.

Как начать использовать новые дистрибутивы:

  1. Перейдите в личный кабинет Рег.облака или откройте мастер заказа на странице облачных серверов.

  2. Нажмите «Создать сервер».

  3. В разделе «Операционная система» выберите один из новых дистрибутивов в выпадающем списке.

  4. Продолжите настройку конфигурации сервера.

Протестировать обновления можно уже сейчас на сайте Рег.облака.  

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

На площадке Networking Toolbox (GitHub) доступны более 100 сетевых инструментов для системных администраторов и сетевых специалистов, включая решения для проверки DNS, TLS, DHCP, HTTP и почтовых серверов, для конвертирования CIDR, масок, IPv4/IPv6, MAC-адресов, калькуляторы подсетей, генераторы конфигов, утилиты для тестирования производительности, шифрования и маршрутизации, а также справочники по основам сетей IPv6 и сетевым протоколам.

Ранее на Хабре был пост: "20 инструментов кибербезопасности 2025 года для пентестинга, сканирования IP-сетей, анализа трафика".

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии0

Расскажем, как проводить нагрузочное тестирование на Python

Ждем вас через час, в 18:30 мск, на митапе для Python-специалистов. Как обычно, поговорим обо всем, что волнует сообщество. Сделаем глубокий разбор экосистемы mypy и протестируем ее. Выясним, как запускать задачи по расписанию от cron/systemd timers до чистого Python. Узнаем, насколько сильно можно нагрузить систему, прежде чем она сломается. Все это — в компании экспертных спикеров из Selectel, Яндекса и Райффайзен Банка. 

Приходите лично или подключайтесь к трансляции.

Программа

18:35-19:05 — mypy в неестественной среде обитания
Сделаем обзор gradual typing в Python и экосистемы mypy, разберем отличия от линтеров и других анализаторов типа.

19:05-19:35 — Все идет по cron-у. Или нет?
Поговорим о том, как запускать задачи по расписанию: от cron/systemd timers до чистого Python и библиотек вроде APScheduler, Celery, а также Kubernetes CronJob и Redis Queue.

19:35-20:00 — Ломай меня полностью
Разберемся, зачем и как проводить нагрузочное тестирование.

Подключайтесь к трансляции:

YouTube
ВКонтакте

Теги:
Всего голосов 3: ↑3 и ↓0+6
Комментарии0

Ближайшие события

Тестирование движков массивно-параллельных вычислений: StarRocks, Trino, Spark. Spark — с DataFusion Comet и Impala

Друзья, в блоге компании Data Sapience, партнера GlowByte, вышла новая статья, третья в цикле материалов про нагрузочные испытания вычислительных технологий массивных параллельных вычислений.

Ранее техническим руководителем решений Data Ocean Nova и Data Ocean Flex Loader Евгением Вилковым были опубликованы статьи, посвященные сравнению Impala, Trino и Greenplum, в том числе по методике TPC-DS.

В этот раз в список решений добавляется Spark, включая работающий с технологией нативных вычислений DataFusion Comet, и набирающий популярность StarRocks.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Всем привет!

Как автоматизировать тестирование батч-моделей?

Если вы работаете с ML-моделями и сталкивались с батч-обработкой данных, то знаете, насколько муторно бывает тестировать такие процессы вручную.
А если автоматизировать этот повторяющийся хаос? В статье «Как автоматизировать тестирование батч-моделей? Гайд» рассказываем, как превратить рутину в предсказуемый и управляемый процесс.

Статья будет полезна не только специалистам по автоматизации процессов тестирования, а и ML-инженерам, MLOps-специалистам и командам разработки, занимающимся поддержкой продакшн-систем машинного обучения.

После прочтения вы точно перестанете выполнять повторяющиеся из раза в раз тесты для батч моделей вручную — потому что поймёте, что можно проще. Автоматизация начинается с малого, но экономит часы ручного тестирования.

Теги:
Рейтинг0
Комментарии0

Идея, чем заняться в длинные выходные!

В это воскресенье Иван Чижов, заместитель руководителя лаборатории криптографии, примет участие в дискуссии «Как теория информации работает в математике и биологии?». Она пройдёт в Музее криптографии — зарегистрироваться можно тут.

На дискуссии вместе с математиками и биологами обсудят:

  • является ли информация мерой неопределенности или она выступает носителем смысла в живых системах?

  • как устроена коммуникация — это просто передача сигналов или сложный процесс обмена смыслами?

  • В чем суть кодирования — в оптимизации данных или в эволюции живых систем?

Эксперты

Иван Чижов, кандидат физико-математических наук, заместитель руководителя лаборатории криптографии по научной работе IT-компании «Криптонит», доцент кафедры информационной безопасности факультета вычислительной математики и кибернетики МГУ имени М.В. Ломоносова.

Иван Мухин, кандидат биологических наук, доцент, заведующий кафедрой геоэкологии, природопользования и экологической безопасности Российского государственного гидрометеорологического университета.

Модератор:

Александр Дюльденко, кандидат исторических наук, старший научный сотрудник Музея криптографии.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Разбираешься в BPMN? Проверь себя — реши задачку от Учебного центра IBS!

Мы подготовили небольшую задачу по BPMN — на понимание поведения элементов процесса. Ответь на вопросы задачи и напиши свой ответ в комментариях.

Задача: как разные типы подпроцессов влияют на данные в BPMN?

На схеме несколько подпроцессов работают с одной переменной последовательно.

Ответь на три вопроса:

1️⃣ Могут ли 1-й и 3-й подпроцессы иметь разное содержимое?

2️⃣ Могут ли 2-й и 4-й подпроцессы иметь разное содержимое?

3️⃣ Чему будет равна переменная в итоге — 3 или 5?

Пиши свои ответы в комментариях!

Разбор решения от нашего эксперта — там же, в комментариях. 

Почему это важно?

Ответы на эти вопросы напрямую зависят от типа использованных подпроцессов (Call Activity) и их конфигурации. Это определяет:

  • Изоляцию данных и границы транзакций

  • Механизм передачи переменных между родительским и дочерними процессами

  • Как движок (например, Camunda) управляет состоянием процесса

Это не теория, а именно та ситуация, где моделирование перерастает в разработку.

Хотите глубже? На курсе по Camunda мы учим не просто рисовать схемы, а понимать и использовать такие нюансы для создания рабочих исполняемых моделей.

Теги:
Рейтинг0
Комментарии1

Безопасник должен постоянно обосновывать свою необходимость. Это нормально. ИБ не работает с какой-то конкретной угрозой 24 часа в сутки, 7 дней в неделю. Угроз много, они разные, а самое главное — реализация угрозы не может быть 100%. Но она никогда и не равна нулю. Это называется риск. То есть почти всё своё время безопасники работают с рисками — эфемерными по своей сути.

Поведение человека устроено так, что он не будет тратить энергию на то, чтобы делать что-то, что по его мнению бесполезно (ну или хотя бы не приносит удовольствие). Зачем мне шифровать пароль, если я не знаю, украдут его или нет? Риск есть всегда, но каков процент его реализации и цена защиты, а самое главное — будут ли последствия?

Можно ездить по городу на танке в постоянном ожидании войны, а можно принять риски и распустить армию.

Что думаете, где золотая середина?

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии3

Самый простой способ сообщить об успешном подключении по SSH

Всем привет! Вообще-то, обычно решают обратную задачу - сообщить о неудачных попытках подключения по SSH, а еще лучше - сразу заблокировать. С этим прекрасно справляет, например, Fail2ban, но, рассказ не о нем. Может оказаться полезно получать уведомления именно об успешных подключениях, особенно, в тот момент, когда сам НЕ подключаешься. Так же, хочется сделать это с наименьшими усилиями, без написания скриптов, без установки специфического ПО, что бы было легко "скопипастить" решение на множество систем. Так же, хочется знать не тoлько о подключениях, получивших shell, но и о удаленном выполнении команд, или копировании файлов по протоколу SSH.

Все есть в этом решении:

$ sudo apt install curl

$ sudo nano /etc/pam.d/sshd

оставьте, все, что было в этом файле и добавьте в конец:

session optional pam_exec.so /bin/bash -c (echo${IFS}Subject:ssh-${PAM_USER}@$(hostname)-${PAM_RHOST};/usr/bin/env)|/usr/bin/curl${IFS}smtp://mailhub.yourcorp.ru${IFS}--mail-from${IFS}noc@yourcorp.ru${IFS}--mail-rcpt${IFS}yourlogin@yourcorp.ru${IFS}--upload-file${IFS}-

Да, этого достаточно!

Как оказалось, curl умеет отправлять почту, в сообщении будут присутствовать все подробности, кто, когда, откуда подключился, и, даже, когда отключился. Правда, в этом решении требуется корпоративный почтовый сервер (mailhub.yourcorp.ru в нашем "однострочнике"), готовый принять письмо без аутентификации. Это допустимо, если он же является конечным сервером с ящиком пользователя, или, есть разрешение пересылки писем из корпоративной сети (в этом случае можно использовать любой другой почтовый адрес, вместо yourlogin@yourcorp.ru). Однако, такой сервер не всегда имеется, и решение не годится для персонального использования.

В этом случае, предлагаю Вам вебинар , демонстрирующий решение той же задачи, с отправкой сообщений в Telegram

На этом все, спасибо, буду рад ответить на вопросы!

Теги:
Всего голосов 6: ↑6 и ↓0+6
Комментарии1

Как я починил ошибку tokenizers в ComfyUI

Workflow Wan 2.2 GGUF Speed ComfyUI - генерация девушки-кота на Хэллоуин 
Workflow Wan 2.2 GGUF Speed ComfyUI - генерация девушки-кота на Хэллоуин 

Недавно столкнулся с ошибкой при запуске ComfyUI - конфликт версий библиотеки tokenizers. Ошибка выглядела так: ImportError: tokenizers>=0.22.0,<=0.23.0 is required for a normal functioning of this module, but found tokenizers==0.21.4....Рассказываю, как я её исправил без поломки окружения и рабочих workflow.

Описание контекста:
У меня Portable-версия ComfyUI, встроенный Python (папка "python_embeded", папка "update", рабочие workflow и боязнь обновлять всё подряд)

Конфликт:
ComfyUI или один из плагинов требует tokenizers >= 0.22.0, а установлена старая 0.21.4. Ранее я уже точечно менял wheels и версию torch для работы с Nunchaku.

Решение:
Прямые команды, выполненные через PowerShell в папке ComfyUI:
(Чтобы ввести команды - нужно находясь внутри папки ComfyUI нажать Shift + ПКМ на свободном месте в этой папке и выбрать "Открыть окно PowerShell здесь" и ввести нужные команды)

python_embeded\python.exe -m pip uninstall -y tokenizers
python_embeded\python.exe -m pip install tokenizers==0.22.0

После перезапуска всё заработало:

PS D:\AI\ComfyUI2> python_embeded\python.exe -m pip uninstall -y tokenizers Found existing installation: tokenizers 0.21.4
Uninstalling tokenizers-0.21.4:
Successfully uninstalled tokenizers-0.21.4
и
PS D:\AI\ComfyUI2> python_embeded\python.exe -m pip install tokenizers==0.22.0
Collecting tokenizers==0.22.0
Using cached tokenizers-0.22.0-cp39-abi3-win_amd64.whl.metadata (6.9 kB) Requirement already satisfied: huggingface-hub<1.0,>=0.16.4 in d:\ai\comfyui2\python_embeded\lib\site-packages (from tokenizers==0.22.0) (0.34.4) .....
Successfully installed tokenizers-0.22.0

Как итог - видео с разрешением 364 на 640px, продолжительностью 5 секунд, сгенерировалось за 8,5 минуты на 8гб VRAM + 32гб RAM.

Почему важно не трогать "update_comfyui_and_python_dependencies.bat" ? Чтобы не нарушить совместимость всего окружения.
В таких случаях не стоит паниковать - достаточно понимать, как работают зависимости Python и виртуальные окружения.

Если вы работаете с ComfyUI или подобными пакетами, умение диагностировать и чинить зависимости - ваш надёжный инструмент в арсенале.

#ai #comfyui #python #design #code #workflow #ии

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии2