Команда разработки Хабра запустила культовую игру Doom прямо на профильном ресурсе для IT-специалистов. Это открытая версия Chocolate Doom, доступная в браузерах на ПК и мобильных устройствах.
Управление на ПК стандартное, также работает мышка (поворот, движение, выстрел). В мобильной версии (в горизонтальной ориентации) также добавлены контролы для удобного управления.
«Зумеры ленивы, не хотят работать и уходят с обеда навсегда» — знакомые жалобы? Автор копает архивы и показывает: точно такие же претензии были к миллениалам («эгоисты без трудовой этики»), поколению X («бездельники MTV») и даже бэби-бумерам в 60-х.
Каждое поколение мнит себя жертвой, а стереотипы — нестареющая классика. Текст для тимлидов, HR и всех, кто устал от стереотипов — с историей, цитатами, опросами и мнениями из разных исследований и СМИ.
Неделю назад выступал с темой MCP сервера и как можно решить проблему с забиванием контекста как при старте диалога, так и при последующем общении через MCP сервера
Это больше походит на исследовательскую работу, а не на мой каждодневный сценарий использования. Мне было интересно, до скольки токенов можно сжать диалог без ухудшения качества
Вот, можете ознакомиться ⤵️⤵️⤵️
Давайте для начала о том, что такое MCP
MCP — протокол, который позволяет LLM подключаться к внешним сервисам: Notion, GitHub, Jira, Google Analytics, любой сервис с API. Один стандартный разъём вместо зоопарка интеграций — как USB для AI.
Протокол создали в Anthropic в ноябре 2024, в декабре 2025 передали в Linux Foundation с поддержкой OpenAI, Google, Microsoft и AWS. Де-факто стандарт индустрии. Вот тут есть каталог серверов, можете глянуть
Но у MCP есть две неочевидные проблемы, на которые я наткнулся после нескольких месяцев активного использования.
🛸 Проблема №1: Tools съедают контекст до старта
Предзагруженные MCP Tools занимают Context Window ещё до первого сообщения. Как системный промпт — уже там, когда вы только открыли чат.
Конкретные цифры из моих замеров:
Apify MCP — 7 инструментов, ~11.8k токенов
GitHub Official MCP — 40 инструментов, ~25-30k токенов
Несколько серверов вместе — легко съедают 40-70k токенов
При контексте в 200k это уже 20-35% бюджета — и вы ещё ничего не спросили.
🛸 Проблема №2: JSON забивает контекст в процессе
MCP-сервер — это переброска JSON-запросов между LLM и сервисом. Каждый вызов инструмента генерирует запрос и ответ, которые остаются в истории чата. Эти JSON часто громоздкие — особенно ответы с данными. Контекст забивается не на старте, а по ходу общения.
Почему это важно
Популярные модели имеют Context Window 128-200k токенов. Это весь бюджет чата: системные промпты, знания о вас, файлы, коннекторы. Что не влезает — забывается.
Хуже того: чем больше загружено в контекст, тем чаще модель теряет детали. В тестах на поиск 8 фактов GPT-5.1 падает с 65% до 30% при заполнении до 100k токенов. Даже более мощная GPT-5.2 проседает с 95% до 70%.
То есть проблема не только в лимите, но и в качестве работы модели при забитом контексте.
Решение для проблемы №1: Dynamic MCP
Docker Dynamic MCP — подключаем серверы не заранее, а динамически, во время разговора.
Например, вместо 40+ инструментов GitHub в контексте постоянно — лёгкий шлюз с базовыми командами:
mcp-find — найти сервер в каталоге
mcp-add — подключить к текущей сессии
mcp-exec — выполнить инструмент
mcp-remove — отключить сервер
Базовая нагрузка: ~4k токенов вместо 40-70k. Серверы подключаются по требованию и удаляются, когда больше не нужны. Работает с каталогом Docker MCP, где уже 300+ верифицированных серверов.
Нужно установить Desktop Client и в настройках Beta Features включить Enable Docker MCP Toolkit
Решение проблемы №2: запускать MCP сервера в SubAgents
SubAgents из Claude Code выполняют запрос в изолированном контексте, возвращая только результат.
Вся грязная работа — поиск серверов, подключение, вызовы инструментов, парсинг JSON-ответов — происходит в отдельном контексте подагента. В основной контекст попадает только чистый финальный ответ.
Claude Code (основной контекст)
│
▼ Запрос
┌─────────────┐
│ SubAgent │ ← вся работа с MCP
└─────────────┘
│
▼ Только результат
Claude Code (чистый контекст)
Итог: ~70k токенов экономии = 35% контекста свободно для реальной работы
Для полного описания всего этого нужна большая статья, так как без картинок и примеров суть идеи может быть непонятна
Факториалы и субфакториалы. Разбираемся с ними вместе с экспертами ИТ-компании «Криптонит».
Когда человек первый раз встречает восклицательный знак в математических записях, он обычно удивляется. Это выглядит, словно цены на распродаже: 50! 80! 100!
На самом деле запись вида n! называется факториал и означает произведение всех натуральных чисел от 1 до n. Например: 5! = 5 × 4 × 3 × 2 × 1 = 120.
Идея факториала встречалась ещё в Древней Индии, а современное обозначение n! ввёл французский математик Кристиан Крамп в 1808 году.
Функция вычисления факториала есть во многих математических библиотеках. Она применяется, в частности, при анализе алгоритмов сортировки для определения верхней границы их сложности.
В общем случае факториал n! показывает количество всех возможных перестановок ИЗ n элементов. Например, из трёх элементов [A, B, C] всего может быть 6 перестановок: ABC, ACB, BAC, BCA, CAB, CBA, т.е. 3! = 6.
Дальнейшее развитие идеи привело к появлению субфакториала.
Он обозначается !n и показывает число перестановок n элементов, в которых ни один элемент не остаётся на своём месте.
Для тех же трёх элементов [A, B, C] субфакториал записывается как !3 и равен двум, поскольку возможны только две комбинации, в которых каждый элемент меняет своё положение: [B, C, A] и [С, A, B].
Факториалы и субфакториалы используются в разных разделах математики.
В комбинаторике они выражают количество перестановок, в теории чисел их изучают в контексте делимости, в теории вероятностей — для подсчёта элементарных исходов.
В новостях нам чуть ли не каждую неделю рассказывают о том, что очередная новая AI-моделька начисто победила людей в каком-нибудь супер-невозможном бенчмарке – а значит, нас ждет полная доминация жестянок уже не далее, чем завтра. И меня тут внезапно настигло чувство дежавю с тем, как я два года назад изучал греческий (потерпите, сейчас всё станет понятно).
В 2024 году я чуть больше чем за полгода занятий с репетитором подготовился и сдал экзамен по греческому языку сразу двух уровней A2 и B1 на «отлично» (или, как говорят греки, «αρίστα»).
Но есть нюанс! Говорить/писать на греческом более-менее свободно я так и не могу. Потому что задачи «сдать экзамен по языку» и «выучить язык» хоть и являются частично пересекающимися, но они далеко не идентичны. И в условиях ограниченных ресурсов, решить первую задачу сверх-оптимизацией получаемых знаний и навыков конкретно под узкую цель «получить все нужные галочки на экзамене» – это гораздо легче, чем прямо «по-честному» осваивать весь широкий набор языковых навыков.
Похожая проблема существует и в мире бенчмарков для оценки искусственного интеллекта. Базовая логика у них понятна: «давайте возьмем какой-нибудь набор задач, которые люди более-менее умеют решать своим мясным умишком с успешностью в среднем эдак 80% – и, если AI их в этом обгонит, то можно заключить, что он уже умнее человека!»
Загвоздка здесь в том, что как только такого рода бенчмарк публикуют, и он привлекает к себе общественное внимание – достичь цели «набрать самый высокий результат и победить на этом фестивале писькомерства между альтмасками и цукербринами» оказывается гораздо проще не через длинный путь «делаем сверх-умную модель, которая вообще всё делает оче-оче круто, в том числе и этот набор задач», а через банальное задрачивание модели на конкретный тип задач в этом тесте.
К чему это я? Тут нейросети на днях успешно забороли очередной «непобедимый бенчмарк по креативности, который уж точно может решить только по-настоящему генерализованный интеллект не хуже человеческого» (читайте подробное описание сути дела у Игоря Котенкова). Значит ли это, что, наконец, «AGI achieved»? Ну, э-э, скорее нет, чем да (по причинам, описанным выше).
Отдельный здесь кек – это то, что для решениях самых сложных задач в такого рода бенчмарках нейросети уже не просто кидают на амбразуру с наказом «ну ты это, постарайся там». Нет, им сейчас делают целый обвес специальных правил, как правильно методологически раскалывать такие орешки. Типа: ты сначала нагенерируй 100 разных ответов на этот вопрос, потом каждый ответ попробуй заново подставить к задачке и прикинь «а не херню ли я сделала?», а потом еще пусть итоговое решение отберет из прошедших предыдущие фильтры вообще другая строгая нейросеть-критик.
И тут уже возникает вопрос: а можно ли считать, что тут действительно валидным будет утверждение «модель XXX решила бенчмарк YYY»? Ведь, в каком-то смысле, тут не сама модель придумала вот этот весь алгоритм – а кожаные датасаентисты сами его подобрали таким образом, чтобы максимизировать получающийся результат.
Мы много писали, вы много читали — и вместе мы сделали этот год насыщенным. А теперь самое интересное: давайте посмотрим, каким был 2025 год для нашего блога.
📚 215 публикаций Столько материалов мы выпустили за год. А вы их (почти все) прочитали. Спасибо за доверие!
👀 1 851 319 читателей Почти два миллиона взглядов на наши продукты, инфраструктуру и разработки команды.
⭐ 852 добавления в избранное Тексты, которые вы сохраняли, чтобы вернуться к ним позже и перечитать внимательнее. А чаще всего вы читали про облачные сервисы, OpenStack, DevOps-практики и тестирование — тексты, основанные на нашем опыте.
И ещё один повод гордиться этим годом — спецпроекты. Их посмотрели, прокомментировали и сохранили на будущее больше 350 000 человек! Масштаб, если честно, впечатляет даже нас.
И если этот год чему-то научил нас, то вот чему: честные истории, понятные разборы и свежие идеи важны и нужны. Поэтому мы продолжим в новом году!
Рассматриваем генетический код через призму машинного в новом выпуске ПВЗ
ПВЗ — подкаст команды Ozon Tech, в котором мы говорим о технологиях. На этот раз — о генной инженерии.
У микрофона ведущие Марина Самойлова, руководитель направления платформы данных, и Виктор Корейша, руководитель направления Managed Services. Гость выпуска: учёный-нейробиолог Владимир Алипов.
Разобрали, действительно ли у человека и бактерии один и тот же генетический код, возможности и этичность его редактирования. Узнали, с какой биг датой работают учёные и смогут ли они сделать человека умнее.
Дочитала замечательный роман «Гроздья гнева» — в России он, увы, не сильно популярен. А вот в Америке читал каждый школьник, как у нас «Тихий Дон». Кстати, автор получил Нобелевку за это произведение.
Эта книга Великую депрессию, а точнее про бедственное положение американских фермеров в те годы. Они массово покидали южные штаты и целыми семьями бежали в Калифорнию в поисках хоть какой-то работы. Естественно, никакой работы не было — люди умирали с голоду на обочинах дороги. Вот только они остались без работы из-за массового использования новой сельхоз техники.
Я читала и думала: ага, а нас-то, диджитальщиков и айтишников, без работы оставит искусственный интеллект. И допьем мы последний айс матча латте на кокосовом, оставим квартиры в Питере и Москве и огромной вереницей тружеников двинемся вдоль трассы. Куда-нибудь в Афганистан — туда, где ChatGPT ещё не успел отобрать работу. В дороге, как и положено: кто-то умрет, кто-то заболеет холерой, кто-то узнает, что в Кабул еще не завезли коворкинги.
И будем мы скитаться, выживать, и лет через двадцать кто-то напишет роман про наше стенание: «Великая айтишная миграция. Упадок».
Больше грустных постов про IT-рынок в моем телеграм-канале. А еще там лавина диких историй из мира маркетинга (про стыдные проекты с экстрасенсами, угрозы переломать ноги и обзоры на всратую рекламу от наших дедов) в моем канале - приходите, будем вместе рефлексировать.
Как тестировать Joomla PHP-разработчику? Компонент Patch tester.
Joomla - open source PHP-фреймворк с готовой админкой. Его основная разработка ведётся на GitHub. Для того, чтобы международному сообществу разработчиков было удобнее тестировать Pull Requests был создан компонент Patch Tester, который позволяет "накатить" на текущую установку Joomla именно те изменения, которые необходимо протестировать.
На стороне инфраструктуры Joomla для каждого PR собираются готовые пакеты, в которых находится ядро + предложенные изменения. В каждом PR обычно находятся инструкции по тестированию: куда зайти, что нажать, ожидаемый результат. Тестировщики могут предположить дополнительные сценарии, исходя из своего опыта и найти баги, о которых сообщить разработчику. Или не найти, и тогда улучшение или исправление ошибки быстрее войдёт в ядро Joomla.
Напомню, что для того, чтобы PR вошёл в ядро Joomla нужны минимум 2 положительных теста от 2 участников сообщества, кроме автора.
Записал видео (на английском языке) своей критики выдачи ИИ тула от Абишека Вармы из университета штата Иллинойс. Тул генерит SVA (SystemVerilog Assertions) для верификации (по простонародному - QA) цифровых аппаратных блоков систем на кристалле. Для повышения понятности, в начале видео рассказал основные идеи протокола AXI (Advanced eXtensible Interface): правила хендшейка valid/ready, конвейерность транзакций, внеочередной возврат данных по запросу чтения с тэгами.
Правила для проверок оно пишет некорректные. Например что если записать по адресу 100 число 123, то отныне и вовеки веков если прочитать с адреса 100, то там будет 123. Не задумывается, то после первой записи и до чтения может быть вторая, которая запишет число 456.
Далее, проверка для теста проверяет что после сброса (reset) данные на шине AXI будут равны X в виде data == 'x. Но это ерунда по двум причинам: Во-первых, данные могут быть после сброса какими угодно, хоть 0, хоть 123, так как они будуг игнорироваться если с ними не ходит бит valid=1, который кстати сбрасывается в 0. Во вторых, операция сравнения == 'x (неопределенным значением) дает в качестве результата 'x. Чтобы делать именно сравнение с 'x нужно использовать другую операцию ===, то это все равно не будет работать потому что (1). Это вообще невалидный тест.
Но это все цветочки - на это его можно натаскать. Более интересный вид тупости - ИИ конструирует проверку, что если сделаны запросы с тэгами 11, 3, 4, 7, то и данные будут возвращаться в таком же порядке - с тэгами 11, 3, 4, 7. Ему не приходит в голову задать себе вопрос - если бы это было так, зачем в AXI вообще были бы нужны тэги? Они ведь нужны чтобы идентифицировать данные которые приходят не в том порядке, скажем 4, 11, 3, 7.
Китайский разработчик создал мусорное ведро с автоприцеливанием. Умное устройство двигается за пользователем по всему дому и ловит любой мусор. В умное ведро встроены датчики движения и мини-ПК с ИИ, которых рассчитывает траекторию полёта мусора.
Не нравится скроллить длинные тексты, поэтому искал веб-браузер для Андроид, в котором можно перелистывать касаниями. Поиск и нейросети подсказали несколько вариантов, из которых часть оказалась устаревшей или просто ошибочной. К примеру- в Mozila Firefox была такая встроенная возможность , но её убрали. С остальными дело такое-
У Firefox есть много расширений, среди них нашёл подходящий режим чтения с перелистыванием. Однако оно работало плохо .
EinkBro. Его пришлось ставить из APK. Тоже глючил.
UC Browser. Обещают такую функцию. Из Гугл Плей его удалили, но в магазине Xiaomi он есть. Среди разрешений требует возможность изменять системные настройки. Поэтому решил не устанавливать.
4. Наконец нашёл Via Browser. Очень маленький, но с богатыми настройками, среди них можно назначить на "длительные нажатия" на стандартные элементы интерфейса( к примеру, на "вперёд") разные действия на выбор. Среди них есть и перелистывание. Кроме того Via поддерживает скрипты и в режиме чтения очень хорошо сохраняет уже переформатированный текст( с крупным шрифтом) в PDF и MHT( даже сложные статьи с Хабра).
$500 тысяч долларов в месяц заработал разработчик будильника для iPhone. Разработчик выпустил приложение, где просто сделал сигнал в несколько раз громче стандартного решения от Apple. Приложение стало популярным в App Store.
Как вы думаете, что произойдёт, если в промт добавить… всего три слова?
Представьте, что вы задаёте нейросети не команду, а направление для мысли. Это технология, меняющая подход к генерации текста — «Расширение смысла».
У Вас есть три ключевых слова, смыслами которых необходимо обогатить текст: «перспектива», «выгода», «мастерство». Но чтобы максимально показать моделям глубину направлений, Вы вводите эти 3 слова как весь набор слов, связанных с каждым словом (100-200 для каждого слова). Это перестраивает ядро запроса. Алгоритм находит скрытые связи в обширной семантической сети, раскрывая неочевидные грани каждого понятия. Для «перспективы» — это не просто будущее, а горизонт планирования и вектор развития. Для «выгоды» — монетизация навыка и финансовая устойчивость. Каждое слово обрастает облаком профессиональных концепций из разных областей.
Сравните результат. Было: «Этот курс — ваш билет в мир востребованного визуального маркетинга. За три месяца вы освоите искусство создания продающей инфографики». После расширения смыслов появляется иная формулировка: «Это ваш шанс изменить взгляд на визуальную коммуникацию. За три месяца вы научитесь превращать сухие цифры в ясные истории, а готовые схемы — в рабочие инструменты». Второй вариант отвечает на вопросы «зачем?» и «к чему это приведёт?».
На уровне модели происходит сдвиг. Она избегает шаблонной цепочки «курс → научит → результат» и выстраивает новую траекторию: «возможность → изменение подхода → ясные истории». Так возникает текст с другой глубиной.
В ручную это делать не совсем удобно, но! - Вам не требуется вручную подбирать сотни ассоциаций — эта работа уже заложена в бесплатный инструмент Lexicon Rephraser (метод "Расширение смысла" добавлен в версии 3.7.2 от 25.12.2025). При вводе слова алгоритм мгновенно обращается к базе словоформ, строит дерево семантических связей (до 250 слов ассоциаций для каждого слова, которым требуется расширить смысл) и формирует обогащённый запрос.
Вы лишь задаёте вектор с помощью ключевых слов. Система выполняет сложную работу по подбору и взвешиванию ассоциаций. На выходе — не шаблонный текст, а смысловая реконструкция вашей исходной идеи, выраженная с новой убедительностью и ясностью.
Попробуйте. Введите три слова, определяющие суть вашего сообщения, и увидите, как меняется не только формулировка, но и её воздействие. Это следующий шаг, когда технология работает не вместо мысли, а как её усилитель, раскрывая потенциал базовых понятий.
Ранее из-за дефицита ОЗУ (бум искусственного интеллекта и скупка любых карт памяти для серверов) 2 плашки памяти на 64 ГБ оперативной памяти в США стали стоить столько же или дороже (после скидки) полуавтоматической винтовки AR15.
Об этом в рамках ежегодного мероприятия ОТП Банка Trend Watching 2025 рассказал директор по внедрению искусственного интеллекта и эффективности процессов ОТП Банка Дмитрий Маркосьянц. Он развеял главные иллюзии рынка относительно цифровых трендов 2025/2026 годов и поделился результатами внедрения AI-технологий в банке, экономический эффект от которых за 2025 год составил 1 млрд 030 млн рублей.
По оценке Дмитрия, несмотря на ажиотаж последних лет, около 80% компаний (в частности, в финтехе) сегодня технически не готовы к полноценной промышленной реализации ИИ. Главная причина — попытка перепрыгнуть неизбежные этапы эволюции при низком уровне базовой автоматизации.
«Мы видим много ручного труда и думаем: нужен ИИ. Но если нет стабильного процесса, понятных источников данных и API, то искусственный интеллект превращается в очень продвинутого водителя в машине, у которой нет колес. Водитель может быть гениальным, но авто все равно не поедет», — отметил он.
Одной из ключевых тем выступления стала трансформация подхода к разработке. Ожидание, что ИИ станет автономным разработчиком и перепишет сложный корпоративный ландшафт с legacy-кодом, не оправдалось из-за слишком широкого рабочего контекста и риска возникновения большого числа ошибок. Поэтому ОТП Банк сегодня проводит серию экспериментов с так называемыми «пет-проектами» (PET-projects).
Этот подход подразумевает сужение задачи до размера изолированного мини-агента, который закрывает конкретный «ручной разрыв»: переводит данные из системы в систему, сверяет источники или формирует документы по шаблону. «Это не революция за ночь, это практичная эволюция: находим разрыв, закрываем маленьким агентом и оркестрируем их на единой платформе».
Правильно выбранная стратегия уже приносит ощутимые плоды. Суммарный экономический эффект от внедрения технологий ИИ в ОТП Банке за 2025 год составил 1 млрд 30 млн рублей.
При этом наши коллеги подчеркивают, что универсальной формулы ROI для оценки эффекта от ИИ не существует, так как требуется учет большого числа переменных в зависимости от контекста. Для оценки эффективности ОТП Банк использует микс качественных и количественных данных, учитывая не только сокращение FTE (эквивалент полной занятости) или прямую экономию, но и рост производительности, скорость процессов, снижение операционных рисков и улучшение клиентского опыта (NPS).
Пробежимся по основным статьям, которые наши авторы написали в этом году.
Год начался с "ПИКантной миграции" – активный участник сообщества FineBI GlowByte от первого лица рассказал о том, как компания ПИК мигрировала c Tableau на FineBI.
Ведущий архитектор GlowByte Марк Лебедев поделился результатами нагрузочного тестирования, которое он с коллегами провел для сравнения Greenplum 6 с Greenplum 7 и Cloudberry, а спустя время дополнил картину, рассказав о тестировании YMatrix.
Следующий год планируем открыть статьей о выборе BI-системы на основе разработанной в GlowByte методики.