Обновить

Моя лента

Тип публикации
Порог рейтинга
Уровень сложности
Предупреждение
Войдите или зарегистрируйтесь, чтобы настроить фильтры
Статья

Чипсет B650 будет оставаться актуальным: выпуск новинки отложен

Время на прочтение3 мин
Охват и читатели4.7K

Многие думают, что дни B650 сочтены, но недавнее решение AMD продлевает ему жизнь еще на довольно долгое время. Совсем недавно компания собиралась завершить его производство и перейти на выпуск более новых решений, но, вероятно, передумала. Причиной такого неожиданного поворота стало то, о чем только ленивый не говорил в последнее время. Об этом подробнее в нашей статье...

Читать далее
Новость

Безопасность на дорогах: Атом и УрФУ изучили когнитивную нагрузку водителей

Время на прочтение2 мин
Охват и читатели3.6K

Команда Атома совместно со специалистами учебно-научной лаборатории нейротехнологий Уральского федерального университета (УрФУ) провела исследование, направленное на оценку уровня когнитивной нагрузки водителей при использовании интерфейсов электромобиля.

Читать далее
Статья

Как я перестал лениться и написал бота, который переносит слова из Kindle в ReWord за меня (теперь с ИИ)

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели5.1K

Всем привет!

Думаю, многим из тех, кто решил покорять литературу на английском знакома эта ситуация: читаешь книгу (в моем случае - на читалке Kindle), честно выделяешь незнакомые слова, думая: «Вот дочитаю главу/книгу, выпишу их и выучу».

Но есть загвоздка :-)

Читать далее
Новость

Флагманская модель для кодинга GLM-4.7 доступна бесплатно в Koda для VS Code и CLI

Время на прочтение1 мин
Охват и читатели9.2K

Китайская команда Z.ai представила GLM-4.7 — новую версию своей модели для кодинга. Обновление получилось далеко не косметическим: основной фокус сделан на агентные сценарии, работу в терминале и устойчивость на длинных задачах.

По бенчмаркам рост выглядит вполне предметно. Модель существенно прибавила в...

Читать далее
Статья

Если бы в мире исчез Kubernetes

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели6K

Представьте, что однажды утром вы просыпаетесь, а мир вокруг стал другим. Нет, ничего страшного не случилось: ни ледникового периода, ни падения метеорита. Но все сервисы вдруг начали работать так, как работали в те времена, когда про Kubernetes еще никто не слышал.

И что было бы?
Статья

Динамика рынка труда на базе ОТКРЫТЫХ источников

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели13K

Заметил в последние пару недель заметный рост активности в разделе «Карьера в IT-индустрии». Если раньше казалось, что статьи с попытками аналитики на тему рынка труда выходят с периодичностью одна–две в неделю, то сейчас всё чаще ловлю себя на ощущении, что в ленте появляется по одной–две такие статьи в день. Вполне могу допустить, что это субъективное восприятие, и я нахожусь в некоторой иллюзии - во многом потому, что для меня самого эта тема сейчас стоит остро, и я, как и многие, уже довольно давно пытаюсь найти себя в текущем рынке.

Попробую начать эту статью с ответа на вопрос, который вполне справедливо задают многие пользователи под подобными публикациями: «Зачем эта статья? Что здесь сказано нового?». И попробую подойти к этому вопросу менее эмоционально и более практично. Во мне довольно громко звучит внутренний голос, кричащий: «Харе ныть! Иди делом займись». Поэтому я постараюсь максимально коротко и, по возможности, опираясь на цифры, проанализировать, насколько состояние «Всё горит! Всё пропало!» объективно, а не является следствием того, что я просто оказался в группе людей, которым сейчас не везёт и которым «…надо только подождать. Там всё будет бесплатно, там всё будет в кайф…».

Читать далее
Статья

«Дозорные» итоги года, часть 1: Dozor Detective, Персона 4D и нейросети для безопасников

Уровень сложностиСредний
Время на прочтение14 мин
Охват и читатели3.4K

Подводить итоги года — любимая новогодняя традиция. Запасаемся мандаринками, горячим шоколадом и устраиваемся поудобнее. Мы начинаем.

За этот год соларовская команда разработчиков DLP сделала значительный акцент на том, чтобы Solar Dozor не просто фиксировал инциденты, а по-настоящему расследовал их.

В первой статье нашего предновогоднего цикла, посвященной инструментам анализа и расследования, Яна Менжевицкая, аналитик отдела бизнес-аналитики систем предотвращения утечек информации ГК «Солар», даст краткий обзор изменений и подробно расскажет о самом масштабном обновлении прошедшего периода — модуле Dozor Detective и инструментах, которые превращают разрозненные данные в целостную картину произошедшего инцидента. Это настоящий прорыв в автоматизации рутины для офицеров безопасности.

Введение: краткий обзор изменений за период
Solar Dozor — российская система предотвращения утечек конфиденциальной информации и корпоративного мошенничества (Data Leak Prevention). С ее помощью автоматически отслеживаются и блокируются попытки передачи конфиденциальной информации, а также выявляются признаки корпоративного мошенничества. 20 лет Solar Dozor защищает от утечек крупнейшие отечественные организации самых разных сфер и отраслей — от производства до госсектора.

Система постоянно совершенствуется: в конце 2024-начале 2025 г. вышли версии 8.0. и 8.0.1, которые предлагают пользователям новый подход к ведению расследований инцидентов безопасности и новые функции контроля передачи данных.

Спойлер: … а в июне и сентябре 2025 г. — версии 8.1. и 8.2 с графическим инсталлятором и рядом технических улучшений, обеспечивающих повышенный уровень безопасности. Также разработчики уделили внимание повышению стабильности и удобства работы с системой.

Читать далее
Статья

Люди! Делайте же нормальные файлы EXCEL! (ч.1)

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели5.9K

Люди добрые, не ругайте вы меня почем зря за предположение, что ваши Эксель таблички ненормальные, статью до конца не дочитав... Но, к сожалению и с вероятностью 90%, они действительно таковы.

Эта статья всего лишь крик души специалиста, который устал. Дико устал. Чудовищно устал от того, что ему каждый день приходится смотреть на десятки ужасных таблиц в его любимейшем Экселе (ну и Гугл доксе заодно). Ещё больше его удручает, что даже на курсах по повышению грамотности экселя об элементарных вещах сказать забывают. Как результат – текущие от боли глаза. Ну почему?! Почему такие простые вещи никто нигде не рассказывает?!

Добрый человек, не поленись. Дочитай. И твои таблицы станут на порядок лучше и понятнее не только для тебя, но и для всех окружающих!

Поехали!
Новость

Salesforce теряет доверие к большим языковым моделям для бизнес-задач

Время на прочтение2 мин
Охват и читатели4.9K

В корпорации Salesforce заметили, что первоначальный энтузиазм по отношению к большим языковым моделям (LLM) постепенно сменился более прагматичным взглядом. По мнению компании, нейросети оказались ненадежными инструментами для корпоративных приложений. Разработчики отмечают, что модели часто теряют контекст диалога, игнорируют инструкции или демонстрируют непредсказуемое поведение, что делает их использование в критически важных бизнес-процессах рискованным.

Читать далее
Статья

Оптимизация Power BI: как одно свойство уменьшает размер модели на 30%

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели3.2K

Сегодня мы, Павел Ефремов и Мухаммед Пашаев (разработчики аналитических систем в Лемана Тех), поговорим об оптимизации моделей данных в Power BI Desktop — конкретно о движке Tabular. Небольшая вводная: в нашей компании Power BI — основной BI-инструмент (лучшие для лучших😏). Используем локальную версию Power BI Report Server, поэтому вопрос производительности моделей и отчетов стоит особо остро. Мы регулярно проводим ревью моделей (подробнее в нашей прошлой статье), стараясь придерживаться лучших практик — минимальная нужная гранулярность данных, никаких избыточных связей, двунаправленных связей, скрытых автоматических календарей и прочее. Тем не менее отчеты все равно порой залипают и работают медленно. Казалось бы, уже много где поковырялись, все оптимизировали, и все равно фрустрация не уходит. Так, вместе с коллегой мы взялись копать глубже, шерстить интернет и Microsoft-документацию и наткнулись на почти незаметное, но важное свойство табличной модели. Что, если мы скажем, что у Tabular Model есть свойство, благодаря которому можно уменьшить размер модели до 30%, ускорить обновление данных, снизить нагрузку на сервер и при этом не менять ни одной таблицы, связи или строку DAX?

Это открытие заставило нас по-новому взглянуть на оптимизацию в Power BI. Оказалось, что помимо привычных правил вроде избегания лишних связей или сокращения столбцов есть и менее заметные, но очень мощные приемы. Они не требуют переделывать модель, но при этом реально ускоряют отчеты и снижают нагрузку.

Читать далее
Пост

🚀 Роскосмос сообщает, что ракета «Союз» на старте, и 52 аппарата скоро отправятся на орбиту. Среди них и наш аппарат.

🛰 Пуск 28-го декабря, не переключайтесь.

Фото: Роскосмос (с)

Теги:
+22
Комментарии0
Новость

Fix Price оптимизирует процесс поставок из Китая

Время на прочтение2 мин
Охват и читатели5K

Сеть Fix Price модернизировала внутренний ИТ-сервис для работы с маркированной продукцией китайских поставщиков.

Сеть Fix Price активно сотрудничает с поставщиками из Китая. Все импортируемые ими товары должны отвечать нормам и требованиям Евразийского экономического союза (ЕАЭС) и законодательств стран присутствия сети. Контролировать это соответствие помогает маркировка.

Для маркировки сотрудники ритейлера и их китайские партнеры используют разработанный Fix Price ИТ-сервис, обновление которого помогло оптимизировать процесс поставок.

Новая версия ИТ-сервиса обеспечивает интеллектуальный контроль процессов уже на начальном этапе товаропроводящей цепи и для ритейлера, и для его партнеров в Китае. Теперь Fix Price получает от поставщиков информацию о статусе марки товаров и о каждой поставке в режиме реального времени.

В обновленном сервисе организована совместная онлайн-работа команд компании и партнеров. Это позволяет полностью синхронизировать действия, обеспечивая гибкое управление процессами отгрузки контейнеров и работы с артикулами.

Уже сейчас компания может отследить прямые результаты обновления ИТ-сервиса для бизнеса:

Обновление внутреннего сервиса
Пост

Теория о поколениях на практике

«Зумеры ленивы, не хотят работать и уходят с обеда навсегда» — знакомые жалобы? Автор копает архивы и показывает: точно такие же претензии были к миллениалам («эгоисты без трудовой этики»), поколению X («бездельники MTV») и даже бэби-бумерам в 60-х.

Каждое поколение мнит себя жертвой, а стереотипы — нестареющая классика. Текст для тимлидов, HR и всех, кто устал от стереотипов — с историей, цитатами, опросами и мнениями из разных исследований и СМИ. 

Читайте тут «Про душные истории о «зумерах» и претензиях к ним»

Теги:
0
Комментарии0

Ближайшие события

Новость

Вышли декабрьские обновления для «Яндекс Станций» и «ТВ Станций»

Время на прочтение4 мин
Охват и читатели5.3K

Компания «Яндекс» выпустила декабрьские обновления для «Яндекс Станций» и «ТВ Станций», включая более десяти новых опций — от новых возможностей «Алисы» на устройствах до улучшений в управлении звуком и контентом, персональных итогов года и новых ИИ‑подборок. Также в мобильном приложении «Дом с Алисой» появились персональные итоги года — короткая история о том, как прошёл у пользователя год с «Алисой» и умными устройствами.

Читать далее
Статья

Необычные ёлочные ретрогирлянды из СССР

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели12K

Что может быть общего у новогодних праздников, технической реконструкции и электровакуумных приборов? О чём тут можно поговорить, в атмосфере всеобщего «Джингл бенс — джингл бенс»? Разумеется, это световое оформление праздника — светящиеся украшения, гирлянды. Современные светодиодные их варианты, естественно, отметаем, как и не станем смотреть на прорву обычных скучных пластиковых фонариков со стандартными миниатюрными лампочками накаливания. Пороемся и поищем более или менее оригинальные в техническом смысле украшения или, по крайней мере, интересные решения их отдельных узлов. Тёплые ламповые, да. Исследуемое время и пространство ограничим просторами нашей необъятной Родины, скажем — «то, что могло попасть в руки среднестатистическому гражданину СССР».

Читать далее
Статья

Анализируем вредоносное ПО на примере семпла от группировки BO Team: подробный мануал для начинающих

Уровень сложностиПростой
Время на прочтение15 мин
Охват и читатели4.5K

Хабр, всем привет! На связи Никита Полосухин, ведущий аналитик центра мониторинга и реагирования на кибератаки RED Security SOC. Сегодня мы разберем loader от группировки BO Team. Материал предназначен для начинающих ИБ-специалистов и представляет собой краткий мануал, который поясняет, как быстро определить функциональность вредоносного ПО, достать из семпла индикаторы и какие инструменты можно использовать для анализа.

Читать далее
Новость

NVIDIA урежет производство игровых GPU на 40% — ИИ-чипы приносят в 12 раз больше

Время на прочтение2 мин
Охват и читатели9K

По данным китайского отраслевого форума Board Channels от 17 декабря, которые подтвердило тайваньское издание Benchlife, NVIDIA планирует сократить производство видеокарт GeForce RTX 50-й серии на 30–40% в первой половине 2026 года. Причина проста: ускорители для дата-центров приносят компании $51,2 млрд за квартал, тогда как игровой сегмент — лишь $4,3 млрд. Соотношение почти 12 к 1. На фоне дефицита памяти GDDR7, которую производители перенаправляют на более маржинальные HBM-чипы для ИИ-ускорителей, NVIDIA делает очевидный выбор в пользу дата-центров.

Читать далее
Пост

Неделю назад выступал с темой MCP сервера и как можно решить проблему с забиванием контекста как при старте диалога, так и при последующем общении через MCP сервера

Это больше походит на исследовательскую работу, а не на мой каждодневный сценарий использования. Мне было интересно, до скольки токенов можно сжать диалог без ухудшения качества

Вот, можете ознакомиться ⤵️⤵️⤵️

Давайте для начала о том, что такое MCP

MCP — протокол, который позволяет LLM подключаться к внешним сервисам: Notion, GitHub, Jira, Google Analytics, любой сервис с API. Один стандартный разъём вместо зоопарка интеграций — как USB для AI.

Протокол создали в Anthropic в ноябре 2024, в декабре 2025 передали в Linux Foundation с поддержкой OpenAI, Google, Microsoft и AWS. Де-факто стандарт индустрии. Вот тут есть каталог серверов, можете глянуть

Я уже писал про MCP ранее, тоже можете глянуть

--------------

Но у MCP есть две неочевидные проблемы, на которые я наткнулся после нескольких месяцев активного использования.

🛸 Проблема №1: Tools съедают контекст до старта

Предзагруженные MCP Tools занимают Context Window ещё до первого сообщения. Как системный промпт — уже там, когда вы только открыли чат.

Конкретные цифры из моих замеров:

  • Apify MCP — 7 инструментов, ~11.8k токенов

  • GitHub Official MCP — 40 инструментов, ~25-30k токенов

  • Несколько серверов вместе — легко съедают 40-70k токенов

При контексте в 200k это уже 20-35% бюджета — и вы ещё ничего не спросили.

🛸 Проблема №2: JSON забивает контекст в процессе

MCP-сервер — это переброска JSON-запросов между LLM и сервисом. Каждый вызов инструмента генерирует запрос и ответ, которые остаются в истории чата. Эти JSON часто громоздкие — особенно ответы с данными. Контекст забивается не на старте, а по ходу общения.

Почему это важно

Популярные модели имеют Context Window 128-200k токенов. Это весь бюджет чата: системные промпты, знания о вас, файлы, коннекторы. Что не влезает — забывается.

Хуже того: чем больше загружено в контекст, тем чаще модель теряет детали. В тестах на поиск 8 фактов GPT-5.1 падает с 65% до 30% при заполнении до 100k токенов. Даже более мощная GPT-5.2 проседает с 95% до 70%.

То есть проблема не только в лимите, но и в качестве работы модели при забитом контексте.

Решение для проблемы №1: Dynamic MCP

Docker Dynamic MCP — подключаем серверы не заранее, а динамически, во время разговора.

Например, вместо 40+ инструментов GitHub в контексте постоянно — лёгкий шлюз с базовыми командами:

  • mcp-find — найти сервер в каталоге

  • mcp-add — подключить к текущей сессии

  • mcp-exec — выполнить инструмент

  • mcp-remove — отключить сервер

Базовая нагрузка: ~4k токенов вместо 40-70k. Серверы подключаются по требованию и удаляются, когда больше не нужны. Работает с каталогом Docker MCP, где уже 300+ верифицированных серверов.

Нужно установить Desktop Client и в настройках Beta Features включить Enable Docker MCP Toolkit

Решение проблемы №2: запускать MCP сервера в SubAgents

SubAgents из Claude Code выполняют запрос в изолированном контексте, возвращая только результат.

Вся грязная работа — поиск серверов, подключение, вызовы инструментов, парсинг JSON-ответов — происходит в отдельном контексте подагента. В основной контекст попадает только чистый финальный ответ.

Claude Code (основной контекст)
         │
         ▼ Запрос
    ┌─────────────┐
    │  SubAgent   │ ← вся работа с MCP
    └─────────────┘
         │
         ▼ Только результат
Claude Code (чистый контекст)

Итог: ~70k токенов экономии = 35% контекста свободно для реальной работы

Для полного описания всего этого нужна большая статья, так как без картинок и примеров суть идеи может быть непонятна

Теги:
+5
Комментарии0
Пост

Факториалы и субфакториалы. Разбираемся с ними вместе с экспертами ИТ-компании «Криптонит».

Когда человек первый раз встречает восклицательный знак в математических записях, он обычно удивляется. Это выглядит, словно цены на распродаже: 50! 80! 100!

На самом деле запись вида n! называется факториал и означает произведение всех натуральных чисел от 1 до n. Например: 5! = 5 × 4 × 3 × 2 × 1 = 120.

Идея факториала встречалась ещё в Древней Индии, а современное обозначение n! ввёл французский математик Кристиан Крамп в 1808 году.

Функция вычисления факториала есть во многих математических библиотеках. Она применяется, в частности, при анализе алгоритмов сортировки для определения верхней границы их сложности.

В общем случае факториал n! показывает количество всех возможных перестановок ИЗ n элементов. Например, из трёх элементов [A, B, C] всего может быть 6 перестановок: ABC, ACB, BAC, BCA, CAB, CBA, т.е. 3! = 6.

Дальнейшее развитие идеи привело к появлению субфакториала.

Он обозначается !n и показывает число перестановок n элементов, в которых ни один элемент не остаётся на своём месте.

Для тех же трёх элементов [A, B, C] субфакториал записывается как !3 и равен двум, поскольку возможны только две комбинации, в которых каждый элемент меняет своё положение: [B, C, A] и [С, A, B].

Факториалы и субфакториалы используются в разных разделах математики.

В комбинаторике они выражают количество перестановок, в теории чисел их изучают в контексте делимости, в теории вероятностей — для подсчёта элементарных исходов.

Теги:
0
Комментарии0
Пост

В новостях нам чуть ли не каждую неделю рассказывают о том, что очередная новая AI-моделька начисто победила людей в каком-нибудь супер-невозможном бенчмарке – а значит, нас ждет полная доминация жестянок уже не далее, чем завтра. И меня тут внезапно настигло чувство дежавю с тем, как я два года назад изучал греческий (потерпите, сейчас всё станет понятно).

В 2024 году я чуть больше чем за полгода занятий с репетитором подготовился и сдал экзамен по греческому языку сразу двух уровней A2 и B1 на «отлично» (или, как говорят греки, «αρίστα»).

Но есть нюанс! Говорить/писать на греческом более-менее свободно я так и не могу. Потому что задачи «сдать экзамен по языку» и «выучить язык» хоть и являются частично пересекающимися, но они далеко не идентичны. И в условиях ограниченных ресурсов, решить первую задачу сверх-оптимизацией получаемых знаний и навыков конкретно под узкую цель «получить все нужные галочки на экзамене» – это гораздо легче, чем прямо «по-честному» осваивать весь широкий набор языковых навыков.

Похожая проблема существует и в мире бенчмарков для оценки искусственного интеллекта. Базовая логика у них понятна: «давайте возьмем какой-нибудь набор задач, которые люди более-менее умеют решать своим мясным умишком с успешностью в среднем эдак 80% – и, если AI их в этом обгонит, то можно заключить, что он уже умнее человека!»

Загвоздка здесь в том, что как только такого рода бенчмарк публикуют, и он привлекает к себе общественное внимание – достичь цели «набрать самый высокий результат и победить на этом фестивале писькомерства между альтмасками и цукербринами» оказывается гораздо проще не через длинный путь «делаем сверх-умную модель, которая вообще всё делает оче-оче круто, в том числе и этот набор задач», а через банальное задрачивание модели на конкретный тип задач в этом тесте.

К чему это я? Тут нейросети на днях успешно забороли очередной «непобедимый бенчмарк по креативности, который уж точно может решить только по-настоящему генерализованный интеллект не хуже человеческого» (читайте подробное описание сути дела у Игоря Котенкова). Значит ли это, что, наконец, «AGI achieved»? Ну, э-э, скорее нет, чем да (по причинам, описанным выше).

Отдельный здесь кек – это то, что для решениях самых сложных задач в такого рода бенчмарках нейросети уже не просто кидают на амбразуру с наказом «ну ты это, постарайся там». Нет, им сейчас делают целый обвес специальных правил, как правильно методологически раскалывать такие орешки. Типа: ты сначала нагенерируй 100 разных ответов на этот вопрос, потом каждый ответ попробуй заново подставить к задачке и прикинь «а не херню ли я сделала?», а потом еще пусть итоговое решение отберет из прошедших предыдущие фильтры вообще другая строгая нейросеть-критик.

И тут уже возникает вопрос: а можно ли считать, что тут действительно валидным будет утверждение «модель XXX решила бенчмарк YYY»? Ведь, в каком-то смысле, тут не сама модель придумала вот этот весь алгоритм – а кожаные датасаентисты сами его подобрали таким образом, чтобы максимизировать получающийся результат.

Теги:
+3
Комментарии3