В США официально купить винтовку дешевле, чем 64 ГБ оперативной памяти DDR5.

Представлен открытый и бесплатный фундаментальный курс по OpenClaw, включая весь материал на русском языке с полным описанием процессов установки, настройки, использования и полноценной кастомизации ИИ-бота под свои задачи.

Мысли про создание AI-агента, который будет помогать с "Важно, но не срочно" задачами. Часть 1

Последний месяц в сети хайпит OpenClaw (он же ClawBot, он же MoltBot).
У него есть доступы много куда — вы наверняка уже видели новости о том, как он самостоятельно тратит деньги или общается с женой (не своей)
Но меня интересует механизм работы его core feature — проактивности
Это первый масштабный агент, который не ждёт сообщения, а сам приходит и говорит: «Эй, я вот это сделал, глянь»
Я хотел собрать такого агента ещё год назад, когда обнаружил и начал исследовать Model Context Protocol, который дал моим LLM-кам доступ во внешний мир. Но тогда не хватило ни знаний, ни механизма.
Сейчас, благодаря OpenClaw, Claude Code + Codex стало понятнее, как именно это можно реализовать
И вот последнюю неделю я понемногу развиваю этот концепт
------------------------------
Суть в одном предложении
AI-агент, который знает мои цели на год и выполняет первые, самые сложные 15% работы, которые приведут меня к этим целям в долгосрок.
Последние три года я работаю на себя. У меня нет начальника, который скажет «сделай к пятнице». Почти все мои перспективные задачи лежат в квадранте «Важно, но не срочно»
И чаще всего проблема не в том, что я не знаю, что делать, а в том, что мне впадлу начать
Ресёрчить варианты. Разбираться в деталях. Сделать первый шаг. Вот эти первые 15% — самый проблемный шаг для меня
Поэтому я подумал — а что если агент будет делать именно это?
------------------------------
Представьте, что агент каждый день приходит к вам с такими сообщениями
Нетворкинг и аутрич
Учитывая твои финансовые и профессиональные цели, на этой неделе я советую тебе пообщаться с этими людьми. Я провёл небольшой ресёрч по каждому и подготовил персональное сообщение под каждого. Сделаешь до конца недели?
SEO и органика
Я опять помониторил SEO твоего сайта и сайты конкурентов. Советую сделать A, B, C, D, чтобы мы подросли в органике. Вот конкретные правки с приоритетами
Контент и кросс-постинг
Твой последний пост на LinkedIn набрал 10К просмотров — тема зашла. Давай этот пост ещё и в Threads, Instagram и на Хабр адаптируем? Вот три черновика под каждую площадку
Партнёрства
Нашёл 8 владельцев продуктово-консалтинговых агентств, которые подходят под твой ICP. Отсортировал по релевантности. Вот топ-3 с кратким профилем и черновым сообщением под каждого. Первое можешь отправить прямо сейчас.
Мониторинг конкурентов
[Конкурент] вчера выкатил новую фичу — вот что изменилось. Это может повлиять на позиционирование твоего продукта. Вот 2 варианта, как отреагировать: адаптировать лендинг или написать пост-сравнение.
Портфолио и резюме
За последний месяц ты закончил 2 проекта и написал 4 поста. Вот обновлённая версия секции «достижения» для LinkedIn-профиля и сайта. Опубликуешь?
Здоровье
Ты 4 месяца переносишь задачу "Записаться к стоматологу. Поэтому я решил действовать и нашел 3 клиники рядом с тобой с рейтингом выше 4.5, у двух есть слоты на эту неделю. Записать?
------------------------------
То есть агент не просто читает календарь — он понимает, что ему чего-то не хватает, и сам приходит за недостающим контекстом
Я хочу, чтобы агент не просто напоминал по моим задачам в календаре, а ресёрчил → структурировал → предлагал конкретный микро-шаг → спрашивал «актуально ли?»
Хочу чтобы конвертировал мои абстрактные хотелки из раздела «Важно, но не срочно» в конкретные day-to-day actions.
И это может работать не только для одного человека. Та же логика ложится на компанию: стратегические цели → первые шаги, которые никто не делает, потому что «не горит».
Пока это концепт. Но направление, в котором я копаю, кажется мне одним из самых интересных применений AI-агентов — не делать за тебя, а снимать барьер старта и помогать тебе двигаться к твоим Long Term Goals — по типу коуча/ментора
У подобного агента будут доступы к интернету и моему календарю. А общаться мы с ним будем через Telegram — видимо, как и с OpenClaw
------------------------------
Во второй поделюсь наработками и инсайтами

Делаем работу фронтенд-приложений прозрачнее
С новым релизом для детального анализа запросов в App Platform.
Логи доступа (access logs) — это записи о каждом запросе к приложению. В логах вы найдете: IP-адрес клиента, дату и время запроса, запрашиваемый ресурс (HTML, CSS, JS, изображения), статус ответа, размер данных при передаче и др.
Например, вы настроили лимит по количеству запросов → приложение достигло порога и временно заблокировалось → скачали логи → нашли источник перегрузки.
Подробнее о функциях:
1️⃣ Аналитика трафика
Вы можете оценить количество запросов, пики нагрузки, распределение по времени, источники и географию пользователей.
2️⃣ Безопасность
Логи помогают заметить подозрительные паттерны, например, массовые запросы к одному эндпоинту или сканирование URL.
3️⃣ Поиск ошибок
Если в проекте возникли сбои или простой, вы можете проверить коды ответов и быстро найти источник 404 или 500.
Важно: Логи хранятся 24 часа + для выгрузки доступно до 10 000 файлов.
Недавно вышла новая версия dplyr 1.2.0, и она принесла несколько важных обновлений, которые делают работу с данными в R ещё проще и удобнее. Опубликовал видео обзор в котором я рассказываю про самые интересные новинки: новые функции фильтрации filter_out(), when_any() и when_all(), обновлённую систему перекодировки с recode_values(), replace_values() и replace_when(), а также о важных оптимизациях старых функций.
Если вы активно используете dplyr в своих проектах, этот обзор поможет вам быстро понять, как ускорить работу с данными и писать более читаемый код. В видео я показываю реальные примеры и сценарии использования новых функций, чтобы вы могли сразу применять их в своих проектах.
Видео снято по статье "dplyr 1.2.0".
Дайджест: новости за январь 2026

🚀 Открыли регистрацию на GoCloud 2026 — нашу главную ежегодную конференцию про AI и облака. В этом году ключевой темой станет AI как сервис, а именно простые безопасные инструменты для работы с AI и AI-агентами, которые можно использовать сегодня. Подробности о треках и спикерах на сайте.
🚨 Забирайте скидки до 40% на ключевые сервисы, чтобы запускать и развертывать LLM-модели с помощью инференса или на физических серверах с GPU и CPU. Акция действует до 30 июня 2026.
📱Владельцы андроидов могут работать с облачными платформами Cloud.ru через мобильное приложение Cloud.ru Evolution — скачайте его в RuStore.
🦾 Используйте Гига-помощника в облаке, чтобы создавать виджеты мониторинга для реестров Evolution Artifact Registry и контейнерных приложений Evolution Container Apps. Теперь ИИ-помощник может анализировать работу в облаке по метрикам, логам и аудит-логам, разворачивать и обновлять контейнерное приложение. Другие возможности Гига-помощника описаны в документации.
⚙️ Обновили сервисы в цифровой среде AI Factory
В ML Inference реализовали аутентификацию для работы с API с помощью токена доступа или API-ключа.
Для Foundation Models добавили раздел «Активность», повышающий прозрачность использования сервиса и облегчающий контроль затрат. В разделе есть статистика использования моделей за месяц и детализация по каждой модели с указанием даты, времени и количества затраченных токенов.
В AI Agents добавили новую функциональность — «Промпты». С их помощью можно создавать собственные промпты в markdown-редакторе или выбирать готовые из каталога.
Для Managed RAG добавили новые экстракторы для обработки документов в форматах Word, HTML, CSV, TSV.
В Notebooks: обновили версию образа Cloud.ru Jupyter n8n до текущей версии n8n 2.4.1, переработали систему управления доступом так, чтобы повысить безопасность данных в проекте и предотвратить случайное удаление чужих ресурсов, сделали раздел Proxy Services, откуда можно управлять прокси-серверами.
☁️ Тестируйте новые сервисы в стадии Public Preview бесплатно, если вы зарегистрированы в личном кабинете:
Evolution Managed ClickHouse — сервис, который позволяет создавать и настраивать кластеры ClickHouse®, управлять базами данных, пользователями, а также изменять параметры кластера через интерфейс платформы Cloud.ru Evolution.
Evolution VPN — сервис для создания защищенного канала связи между облачной инфраструктурой и сетями пользователя.
Управление ПО — сервис для агентного управления программным обеспечением внутри хоста виртуальной машины или физического сервера. При этом агент на хосте передает данные о состоянии хоста в сервис, который проверяет систему на соответствие политикам безопасности — смотрит на сложность паролей, версии ПО и не только.
Подробнее о других обновлениях облачных платформах.
👨💻 Скачивайте чек-лист про 15 шагов к качественному Data Lakehouse для миграции из классического хранилища данных в современную архитектуру в облаке с пошаговыми рекомендациями от экспертов.
🤖 Освойте ключевые инструменты AI и научитесь успешно внедрять инновации в бизнес-процессы на бесплатном курсе «AI для менеджеров». Вы узнаете, как подготовить бизнес к внедрению AI, выбрать AI-технологии, адаптировать AI-модели под задачи, оценить экономику AI-проектов, перейти от идеи до PoC, обеспечить Data Governance и безопасность данных. Подойдет руководителям команд, предпринимателям и всем, кто интересуется AI.
🎙️ Провели несколько интересных вебинаров и подкастов — все можно посмотреть в записи:
На февраль и март есть другие вебинары, на которые уже можно регистрироваться.
Маркетолог сливает 30% прибыли. И даже не краснеет...
Маркетингу ставят план по количеству и цене квалов.
А теперь давайте зададим маркетологу вопрос: "Сколько прибыли мы заработали с тех квалов, которых ты привел в прошлом месяце?"
Готов поспорить на ящик коньяка, он не ответит. Девяносто процентов маркетологов живут в мире “охватов, кликов, заявок”. Они не видят воронку дальше квала. И крутят рекламу вслепую, потому что не знают, кто, сколько и когда покупает.
Дальше — веселее. Спросите РОПа и маркетолога: «Что такое квалифицированный лид?» Гарантирую, ответы будут очень разные.
Маркетолог приводит человека с вопросом про цены. Продажники говорят: "Это мусор, напрягаться не будем". Это и есть та самая дыра в воронке, куда улетают до 30% лидов, продаж и прибыли.
Чтобы ее заткнуть, не нужен год совещаний или ИИ. Нужен один документ и одна рабочая неделя.
Система квалификации лидов BANT+TSL (Google Таблица).
Разберетесь за один час, внедрите за одну неделю и перестанете терять миллионы рублей.
Привет! В GPTunneL мы строим инфраструктуру, которая помогает бизнесу безопасно и эффективно использовать генеративные модели в продуктах.
Наша цель — сделать работу с LLM предсказуемой, контролируемой и масштабируемой: от качества ответа до стоимости и соответствия требованиям.
Сейчас мы усиливаем инженерную команду и ищем Python AI/ML Engineer, который поможет нам развивать ML‑ядро и пайплайны, улучшать качество моделей и внедрять решения в продакшн. Если вам интересно работать на стыке NLP, инженерии и продукта — будем рады познакомиться.
Чем предстоит заниматься:
Проектировать и разрабатывать пайплайны для работы с Large Language Models (LLM) — от прототипа до продакшена
Создавать AI-агентов — проектировать мультиагентные систем, оркестрацию, tool-use, планирование и memory
Разрабатывать и оптимизировать RAG / GraphRAG систем — строить retrieval-пайплайны, работать с векторными БД, графами знаний, chunking-стратегиями, re-ranking
Экспериментировать и исследовать — подбирать модели, prompt engineering, fine-tuning, оценивать качествао(evaluation pipelines)
Интегрировать модели в продуктовые сервисы через API, очереди, стриминг
Работать с данными — готовить датасеты, строить ETL-пайплайны для обучения и инференса
Что мы ожидаем:
Must have
Python — уверенное владение (3+ лет коммерческого опыта)
Глубокое понимание архитектуры Transformers (attention, tokenization, encoder/decoder, positional encoding и т.д.)
Практический опыт работы с LLM (OpenAI API, Anthropic, open-source модели — LLaMA, Mistral, Qwen и др.)
Опыт построения RAG-систем (векторные БД: Qdrant / Pinecone / Weaviate / Milvus, embedding-модели, retrieval-стратегии)
Понимание принципов GraphRAG — работа с графами знаний, entity extraction, graph-based retrieval
Опыт создания AI-агентов (LangChain / LangGraph / CrewAI / AutoGen или аналоги)
Знание фреймворков: HuggingFace Transformers, PyTorch
Опыт работы с LangChain / LlamaIndex или аналогичными фреймворками
Понимание принципов prompt engineering, chain-of-thought, few-shot, function calling
Умение работать с Git, базовое понимание CI/CD
Английский — чтение документации и статей свободно
Nice to have
Опыт работы с Diffusion-моделями (Stable Diffusion, SDXL, Flux, Midjourney API) — генерация изображений, fine-tuning (LoRA, DreamBooth, Textual Inversion), ComfyUI / A1111
Опыт fine-tuning LLM (LoRA, QLoRA, PEFT, RLHF/DPO)
Знание vLLM / TGI / Ollama для оптимизации инференса
Опыт работы с multimodal-моделями (GPT-4V, LLaVA и др.)
Знакомство с MLOps практиками (MLflow, Weights & Biases, эксперимент-трекинг)
Опыт работы с облачными GPU (RunPod, Vast.ai, AWS, GCP)
Понимание FastAPI / asyncio для построения высоконагруженных сервисов
Опыт работы с Neo4j / NetworkX для графовых структур
Публикации, open-source контрибьюции или pet-проекты в области AI/ML
Технологический стек
Python PyTorch HuggingFace LangChain LlamaIndex LangGraph FastAPI Docker PostgreSQL Redis Qdrant Neo4j vLLM Git
Условия
📍 Удалённая работа (full remote)
💰 Конкурентная заработная плата (обсуждается по результатам собеседования)
🕐 Гибкий график
🧠 Работа с cutting-edge технологиями — никакого легаси, только передний край AI
🚀 Влияние на продукт — ваши решения идут в прод, а не в стол
📈 Возможности для профессионального роста и участия в R&D
🤝 Команда, которая горит AI и делает крутые вещи
Как откликнуться:
Отправьте ваше резюме/CV и ссылку на GitHub (если есть) в тг нашему HRBP @hr_welcome .
Будет плюсом: краткое описание самого интересного AI-проекта, над которым вы работали.
GPTunneL — мы делаем AI, который работает. ⚡️
Вот интересен предел нашей деградации из за ИИ, ведь 10 лет назад я половину рф и всю европу насквозь без навигатора проезжал- сейчас даже до магазина без навигатора не ездят…
А с ии через 10 лет мы будем спрашивать как дышать, видимо.
Перплексити сдох, перешел на курсор и за полдня убил в себе программиста, как мне показалось.
Наркота какаята вкусная и вредная. Это мой последний выдох разума родил)
IPS и IDS: как устроены системы защиты от атак в сети

IDS и IPS — это системы защиты от сетевых атак и вредоносной активности. IDS анализирует копию сетевого трафика и отправляет оповещения при обнаружении угроз. IPS обрабатывает весь проходящий через него трафик и может блокировать атаки в реальном времени — отбрасывать пакеты или разрывать соединения.
В основе обеих систем — сенсоры, аналитические модули и панель управления. Разворачивать их можно на уровне сети или отдельных серверов — выбор зависит от архитектуры и требований к защите.
Подробнее об IDS и IPS, их принципах работы и алгоритме выбора системы читайте на сайте Рег.облака.
Когда задача считается выполненной
Для нас, например, в работе важен результат — хорошо сделанная задача и закрытая потребность пользователя. Этого легко достичь, когда команда продумывает план действий, реализует решение и доводит его до результата, который действительно приносит пользу.
При этом у каждого в команде свое понимание того, что значит выполненная задача. Разработчик, тестировщик и аналитик оценивают результат по разным критериям — через свою роль и зону ответственности.
Мы поговорили с коллегами и попросили их рассказать, в какой момент для них задача считается завершенной. Их ответы читайте ниже.
Настя, тестировщик:
Я считаю задачу выполненной, когда функционал соответствует требованиям и критериям приемки. Для этого проверяю основные сценарии, убеждаюсь, что нет критичных и серьезных багов, смотрю, чтобы мелкие дефекты были зафиксированы и не влияли на результат.
Важно, чтобы все работало стабильно в разных условиях и было понятно пользователю. Если после проверки к задаче не остается вопросов, я считаю ее завершенной.
Ваня, системный аналитик:
Для меня выполненная задача — это структурированный и согласованный набор информации. Такой результат позволяет мне продолжить работу самостоятельно или передать задачу дальше без постоянных уточнений и дополнительных вопросов.
Поэтому важно определить стейкхолдеров: кто источник требований, кто принимает решение, кто конечный пользователь фичи. Должен быть понятен контекст — какую проблему и для кого мы решаем.
Дальше я фиксирую границы задачи: что в нее входит, а что включать не нужно. Кроме того, должен быть чек-лист для проверки кейсов при приемке.
И наконец, пункты задачи должны быть приоритизированы, а сроки выполнения — обозначены, чтобы работа двигалась предсказуемо и без постоянных возвратов к деталям.
Олег, android-разработчик:
Задача выполнена, когда:
Функциональность реализована и проверена вручную — примерно так, как это сделал бы тестировщик, но без учета конкретных тест-кейсов.
Новое поведение решает цель задачи, а не просто повторяет постановку. Иногда по ходу работы находится вариант проще для разработки/поддержки или удобнее для пользователя — выбираю его. Фича должна закрывать потребность.
Пограничные случаи поведения (corner cases) проработаны и учтены. В постановке не всегда учитываются моменты, которые становятся заметны в коде. Например, что показать на мобильном клиенте при 500 ответе сервера или при долгой загрузке из-за задержки ответа сервера.
Новое поведение покрыто тестами, есть уверенность, что его не сломают случайно. Также важно, чтобы оно не сломало существующие автотесты.
Новое поведение поддерживаемо и расширяемо: его сможет понять и продолжить другой разработчик.
Применяем кодогенерацию в Java для решения алгоритмических задач

В прошлый раз мы разобрались, как решается задача трансляции деревьев. И остановились на том, что в случае с AST от компилятора TypeScript, придётся руками обрабатывать 263 типов узлов. Тысячи строк однотипного boilerplate-кода: приведения типов, аннотации, объявления методов — всё это нужно не просто написать, но ещё и поддерживать. А если требования к архитектуре поменяются — переписывать заново.
Однако в случае с Java у нас есть способ упростить себе жизнь — кодогенерация. Нет, не та, что при помощи ИИ-агентов, хотя это мы тоже затронем. Вместо тысяч строк Java кода можно использовать лаконичный конфиг, в котором описывается соответствие узлов и их связи, а всю рутину берёт на себя генератор. Изоморфные преобразования, декомпозиция — всё это описывается там.
Как реализовать это с помощью JavaPoet, что умеет эта библиотека, а также как встроить в процесс нормализацию можно узнать в новом материале, посвящённом использованию кодогенерации для трансляции деревьев.
Где хранить код и как настроить CI/CD, если GitLab CE уже не хватает
Иногда возможностей бесплатного GitLab уже недостаточно, при этом платная версия по понятным причинам недоступна. Собственные форки требуют постоянной возни с обновлениями и закрытием CVE, а написание своей системы — больших затрат ресурсов.
У нас есть готовое решение для такого случая. На вебинаре 27 февраля мы расскажем о Deckhouse Code — единой платформе для непрерывной разработки и управления жизненным циклом ПО:
Покажем, как настроить правила слияния, CODEOWNERS, push rules и безопасно хранить секреты вне платформы.
Обсудим, как сократить нагрузку на команды за счёт managed-подхода.
Проведём живое демо от коммита в консоли до артефакта в registry.
Регистрируйтесь и подключайтесь, если вы отвечаете за CI/CD в корпоративной среде. Автор лучшего вопроса в чате вебинара получит персональное демо под свою задачу.

«Сокращать нельзя оставить»: где правильно поставить запятую и как сделать этот непростой процесс экологичным?
26 февраля в 11.00 (МСК) поговорим о том, о чём обычно молчат в корпоративных коммуникациях. Увольнения и сокращения стали новой реальностью: четверть российских компаний проходили через них за последние 2 года. И каждый второй случай, по данным исследований, – потеря 11-20% команды. Для многих это, увы, не разовая история, а повторяющийся сценарий.
Но цифры – это одно, а другое – тревога в глазах тех, кто остается, чувство вины у руководителей, обида уходящих и выгорание HR, который вынужден брать на себя ответственность.
На вебинаре с экспертами K-Team (ГК «КОРУС Консалтинг») и Alter разберём, как проводить сокращения без разрушительных последствий:
🟢 Почему даже точечные увольнения превращаются в токсичный хаос и как этим управлять
🟢 Что говорить уходящим, чтобы снижать напряжение
🟢 Как работать с «выжившими» – когда команда нуждается в поддержке не меньше, чем те, кто ушёл
🟢Где брать ресурс HR и руководителям, когда сложных разговоров не избежать
Приходите – будем говорить прямо и поделимся инструментами, которые по-настоящему помогают и поддерживают всех участников процесса.

Экс‑разработчик Ubisoft представил открытый видеоредактор FreeCut, который работает в браузере и позволяет собирать сложные видео, улучшает их качество, накладывает эффекты и субтитры.
Проект умеет:
сокращать, урезать, соединять видосы, добавлять картинки, другие ролики, формы, текст;
добавлять анимацию, создать любую композицию и реализовать всевозможные идеи;
CSS‑эффекты, ключевые кадры, переходы, фильтры, коррекция цвета, перемещение камеры, 3D;
экспортировать во всех самых популярных форматах: MP4, MOV, WebM, MKV;
аудио принимает в форматах: MP3, AAC, WAV;
поддержку кодеков: H.264, H.265, VP8, VP9, ProRes;
сжимает видео без потери качества.

Вышел Gemini 3.1 Pro от Google (доступно в Google AI Studio). Этот ИИ показал 77,1% в сложнейшем тесте на абстрактное мышление ARC‑AGI-2. Результат в два раза превосходит показатели прошлой версии и оставляет позади даже Opus 4.6 с GPT-5.2. Также разработчики из Google прокачали базовые способности ИИ: теперь модель умеет генерировать анимированные SVG по текстовому описанию и решать логические задачи с новыми паттернами, которых не было в обучении.

Привет. У меня вопрос к разработчикам LLM. Периодически читаю про жалобы на галлюцинации LLM и невозможность адекватной оценки вероятности её ответов (типа, уверенно врёт). При этом, я раньше занимался разработкой системы распознавания рукописного текста, и у нас была в чём-то схожая проблема (трудно было оценить достоверность результатов распознавания). Решалась она довольно неплохо путём прогона цепочки распознавания достаточно большого числа раз на одном и том же изображении, и последующей перенормировкой вероятностей в итоговом списке ответов (ответы, по существу генерировались методом монте-карло путём последовательного продвижения по графу возможных вариантов в байесовской цепи). Как понимаю, в LLM принцип генерации ответа в чём-то похожий (последовательный вероятностный перебор цепочки токенов с генерацией их в реальном масштабе времени). Соответственно, вопрос - а если повысить в разумных пределах температуру и Top P, прогонять цепочку несколько раз, а потом пересчитывать итоговую вероятность правильности ответа путём перенормировки списка, это не может ли помочь хотя бы частично решить проблему?
PS
Заранее извиняюсь, если что-то не догоняю, я в LLM не Копенгаген, но идея, думаю, понятна.

В сезоне INFOSTART AWARDS 2025 мы обновили механику выбора победителей - добавили этап экспертного голосования. Цель простая: объединить оценку сообщества Инфостарта с независимым взглядом со стороны рынка, чтобы отмечать не только популярные материалы, но и решения, которые реально работают в бизнесе.
Процесс идёт в два этапа.
Сначала команда Инфостарта формирует шорт-лист номинантов. Мы оцениваем активность авторов за год, практическую пользу материалов и решений, отклик сообщества, применимость в проектах, глубину проработки и вклад в развитие профессиональной среды.
Затем в дело вступает экспертное жюри INFOSTART AWARDS 2025 - ИТ-директора, технические руководители и лидеры цифровых трансформаций из крупных компаний разных отраслей. Они голосуют за номинантов из шорт-листа, и победителями становятся авторы и решения с наибольшей поддержкой экспертов.
Почему это важно? В жюри - люди, которые ежедневно отвечают за внедрения, масштабирование и устойчивую работу ИТ-систем. Они оценивают подходы не по описанию, а с точки зрения того, что реально работает: с учётом рисков, практического эффекта и жизнеспособности.
Это принципиально меняет вес награды. Когда за решение голосует тот, кто сам его внедряет, - это уже не просто признание сообщества, а подтверждение профессионализма, почет и уважение.
Полный список экспертов жюри и представление каждого — в статье на сайте.
Церемония награждения пройдёт офлайн на INFOSTART TEAM EVENT 2026 в Москве.
От чего зависит надёжность работы облачной 1С? Инфраструктура очень важна, но ещё один ключевой фактор — качество инженерного сопровождения

26 февраля вместе с нашим партнёром ASTON обсудим практический опыт техподдержки систем 1С в облаке.
На вебинаре эксперты
проанализируют события прошлого года на рынке 1С и тренды 2026
расскажут об условиях, моделях и подходах к кастомизации техподдержки 1С в облаке
сравнят сценарии поддержки на основе своих повседневных кейсов
дадут рекомендации по бесшовной передаче систем 1С на техподдержку и организации процесса т/п: все участники получат полезные чек-листы
поделятся лайфхаками и выводами из реализованных проектов
Спикеры
Анжелика Захарова, руководитель практик 1С и кибербезопасности K2 Cloud
Яков Кротов, директор направления ИИ и сервисных проектов ASTON
📍 26 февраля, четверг, 11:00 мск
Вебинар будет интересен CIO, CTO, руководителям ИТ-инфраструктуры, специалистам по финансовым и бухгалтерским операциям, специалистам по 1С.