Обновить

Все потоки

Сначала показывать
Порог рейтинга
Уровень сложности

Терминал сбора данных (ТСД). Как выбрать и не ошибиться: практика интегратора

Уровень сложностиПростой
Время на прочтение19 мин
Охват и читатели4K

После ухода с рынка исторических лидеров в области складского оборудования выбор терминала сбора данных (ТСД) стал сложной практической задачей. Появилось множество новых брендов и моделей, и оценивать их только по техническим характеристикам из каталогов оказалось недостаточно. Потребовалась система оценки, основанная на понимании реальных складских процессов.

Мы, INTEKEY, с 2017 года автоматизируем склады. Наш опыт работы с лидерами рынка позволил сформировать чёткий стандарт требований к оборудованию. Когда привычные решения стали недоступны, мы последовательно применили этот стандарт для поиска и тестирования новых партнёров. 

В этой статье разберем:

- наш метод оценки ТСД, основанный на анализе поведения устройства в реальных рабочих условиях

- какие, на первый взгляд, незначительные параметры на самом деле определяют скорость операций, количество ошибок и простоев

- какой путь мы прошли, выбирая партнеров после ухода с рынка исторических лидеров, и на каких брендах остановились

- примеры моделей под разные роли на складе;

- практические аспекты интеграции: какие особые требования появляются при работе с маркировкой «Честный знак»

Читать далее

Как управлять активами в филиалах, если до склада 2000 км

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели4.6K

Представьте: у компании 300 подразделений по всей стране или пять производственных площадок от Москвы до Дальнего Востока. Как узнать, сколько реально ноутбуков в омском филиале, где они находятся и в каком статусе принтер, купленный два года назад: используется, неисправен, в ремонте или уже подлежит списанию? Если данные приходят через мессенджеры или эксельные файлы, присланные раз в квартал — вы уже в зоне риска.

Найти потерянный принтер

О важности времени в архитектуре систем ИИ

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели4.5K

Одной из наиболее недооцененных сил при проектировании систем ИИ является задержка при выполнении вычислений. Когда инженеры говорят о производительности модели, они часто сосредотачиваются на точности, полноте данных и производительности обучения.

Но в производственных системах для пользователей огромное значение имеет время. Для них важно, чтобы система отвечала на их запросы достаточно быстро. Потому что даже самая умная система ИИ начинает сильно раздражать, если ответ на запрос пользователя приходит слишком поздно.

Именно поэтому задержка часто определяет архитектуру модели в большей степени, чем общее проектное решение.

Про архитектуру ИИ

Искусство цифрового мазохизма: как я потратил сотни часов на обложки для сериалов, которые даже не смотрю

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели13K

Последние несколько лет я усиленно увлекаюсь любительской видеореставрацией: беру старые мультики, прогоняю их через большие пайплайны цифровой обработки, зачастую работаю с аудио и по итогу всё это собираю в MKV-контейнеры. От «Чипа и Дейла» эпохи старого Диснея до чистой цифры в виде «Врат Штейна».

Казалось бы: «Обложка да обложка, какая разница? Главное — видео и звук!» Но вы крупно недооцениваете мою любовь к перфекционизму.

Проблема была даже не в том, что обложек нет, а в том, что ими почти никто не занимается. Ни корпорации-издатели, ни даже базы от энтузиастов вроде TheTvDB зачастую почти не уделяют нормального внимания стародавним релизам, из-за чего лично у меня возникает странный контраст: на диске лежит моя отреставрированная классика в 4К, а медиа-сервер подтягивает размытый скриншот серии с VHS-кассеты начала 2000-х. А иногда та же практика применяется и к новым релизам 0_0 Ужас ведь.

В этой статье я хочу показать свой путь проб и ошибок — от примитивных «ИИ-фильтров» на «Чип и Дейле» и автоматических скриптов для «Розовой пантеры» до освоения цветокоррекции и ручной реставрации на куче обложек для «Тома и Джерри», а затем — до сложного и зачастую ещё более муторного симбиоза ИИ-генерации и ручной доводки при создании уникальных постеров для «Врат Штейна» и других сериалов.

Читать далее

Оперативная память, и когда она подешевеет

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели7.7K

Знаете, что самое неприятное в нынешнем кризисе на рынке электроники? Не то, что смартфоны и компьютеры стали дороже — к подорожаниям мы все давно привыкли. А то, что они стали дороже и при этом хуже. Например, в смартфонах еще год назад 8 ГБ оперативной памяти в бюджетнике считались нормой, 12 ГБ во флагмане — минимумом. Сейчас аналитики всерьез говорят о возвращении моделей с 4 ГБ ОЗУ — и это не шутка, а суровая реальность 2026 года. И с компьютерами ситуация примерно такая же. Модели с меньшим объемом ОЗУ уже начали появляться, а в самосборных системах пользователи экономят не только на DDR5, но и на объеме. Время идет, и сроки кризиса становятся чуть более понятными. Теперь у нас есть более точная дата, когда ситуация начнет налаживаться.

Читать далее

Как металлообрабатывающий завод ускорил выполнение задач в 3 раза с помощью Кайтена и ChatGPT

Время на прочтение11 мин
Охват и читатели7.9K

Расскажем, как открытый API Kaiten позволил металлообрабатывающему заводу ПФ-ФОРУМ интегрировать ChatGPT и сократить время на постановку задач

Читать далее

AI пишет код быстрее, а архитектура не успевает: три направления работы Go-команд сегодня

Время на прочтение6 мин
Охват и читатели4.7K

IT-индустрия вышла в новую фазу: мы научились быстро писать код, масштабировать системы и внедрять новые технологии почти без трения. Но столкнулись с новым вызовом: проблем не стало меньше — они стали сложнее.

Команда «Онтико» решила не делать вид, что это просто «ещё один виток роста», и в 2026 году меняет сам формат IT-конференций! GolangConf 2026 — это уже не про «послушать доклады», которые кто-то просЛушал, а кто-то просРушал :) Мы будем разбираться с тем, что реально болит у команд прямо сейчас.

Читать далее

Полный анализ целевой аудитории через нейросети за 2 часа

Время на прочтение9 мин
Охват и читатели4.5K

Статья показывает четырёхшаговый метод исследования целевой аудитории за 2 часа вместо недель.
Шаг 1: метапромптинг — попросить ИИ самому написать промпт для Deep Research.
Шаг 2: прогнать промпт через Claude, ChatGPT и Gemini, синтезировать лучшее из каждой (метод Франкенштейна).
Шаг 3: Telegram-хак — экспортировать профессиональные чаты в JSON, конвертировать через forstartup.ru/telegram-notebooklm, загрузить в NotebookLM для извлечения непубличных инсайтов из реальных диалогов.
Шаг 4: загрузить все материалы в одну нейросеть для финального синтеза портретов ЦА и болей.
Разобрано на реальном кейсе: исследование для курса по маркетингу медклиник, с промптами для копирования и чек-листом.

Читать далее

4 новые нормы в карьере: как меняется рынок труда и что делать?

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели33K

Рынок труда переживает фундаментальные изменения, и старые подходы к поиску работы и карьерному развитию больше не работают. Сопротивление бесполезно – пора принять новые нормы. В этой статье мы разберем 4 ключевые тенденции, которые определяют современную карьеру: от изменившихся сроков трудоустройства и концепции портфельной карьеры до быстрых увольнений и важности психологической устойчивости. Узнайте, как адаптироваться к этим вызовам и использовать их как возможности.

Читать далее

Компонент-обработчик ограничения скорости обработки запросов в ASP.NET Core

Уровень сложностиСложный
Время на прочтение92 мин
Охват и читатели3.2K

Это - четвертая и последняя (пока) статья цикла про ограничение скорости обработки запросов в ASP.NET Core. Она содержит концептуальное (т.е. раскрывающее состав и взаимодействие частей друг с другом) описание функции ограничения скорости обработки запросов в ASP.NET Core. В этой статье рассмотрено, как на базе универсального компонента ограничения скорости реализована функция ограничения скорости обработки запросов в ASP.NET Core.

Предупреждение: если вам не требуется или не интересно просто для себя (как это интересно мне) разбираться, как устроена и работает функция ограничения скорости обработки запросов в ASP.NET Core, то эта статья, скорее всего, покажется вам длинной и занудной. Потому что в ней рассказывается о весьма специфических подробностях, знание которых совершенно не требуются для того чтобы просто взять и начать использовать в своей программе функцию ограничения скорости обработки запросов ASP.NET Core. Для использования этой функции, скорее всего достаточно будет изучить примеры - или из первой статьи цикла - руководства по использованию, или вообще из документации на сайте Microsoft. В таком случае вам, наверное, читать эту статью не стоит. Но, возможно, и в этом случае вам стоит хотя бы заглянуть в приложения к ней. Там я, в качестве иллюстрации к основному материалу статьи, описал сделанные мной компоненты, позволяющие использовать функцию ограничения скорости нестандартным способом: возможно, вы найдёте применение одному из таких компонентов в своей программе. Компоненты эти оформлены в виде библиотек классов .NET, так что для их использования уже сейчас можно взять их в исходном виде и добавить в свое решение (solution). Причем, при описании каждого компонента я постарался вынести в начало их описания пример его использования - так, чтобы для использования компонента не требовалось читать остальной текст приложения, где написано как он устроен и работает.

Ну, а если вам пришлось разбираться (потому что эта функция не работает так, как вы ожидали) или, как мне, просто захотелось разобраться для себя, как работает функция ограничения скорости обработки запросов в ASP.NET Core - читайте дальше.

Читать далее

Статья, в которой я рассуждаю о том, как улучшить code review

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели6.7K

Представьте себе: вы закончили большую задачу, написали много строк кода, проверили всё, даже подумали над названием каждой переменной! Но откладываете создание PR на день, два, три…из-за того, что не хочется идти в ревью и получать критику?

А мне такое и представлять не надо. Я испытываю подобное почти перед каждый своим ревью, даже спустя 6 лет в разработке.

Читать далее

PageIndex: замена векторному поиску в RAG?

Уровень сложностиСредний
Время на прочтение14 мин
Охват и читатели5.2K

Попытки заменить чем‑то векторный поиск в RAG продолжаются. Про GraphRAG я уже высказывался, новый претендент на замену — Pageindex.

Идея простая. Сегментируем документ на страницы, при помощи LLM и хитрого кода строим для него таблицу содержания, TOC с деревом узлов и саммари для каждого узла. Далее отправляем эту структуру в промпт поискового запроса и просим LLM найти релевантные узлы. За каждым найденным узлом закреплены страницы документа. Эти страницы достаём и используем в качестве контекста в финальном запросе.

Нет чанков, не нужны эмбеддинги и векторные хранилища. Выглядит заманчиво. Попытаюсь добавить к этой идее немного критики и заодно расскажу как эту штуку запустить локально.

Читать далее

Как мы пережили цветовой кризис в RuStore и нашли путь к тёмной стороне темы

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели7K

Когда RuStore только запускался, мы строили дизайн на основе UI-кита от VK — удобно, практично, а главное помогло нам быстро вывести продукт на рынок. Но стор рос, интерфейсов становилось больше, дизайнеры — смелее, а требования — сложнее. И вот настал день, когда мы решили добавить тёмную тему. И всё сломалось. 

Именно тёмная тема вскрыла нашу главную проблему — ранняя структура цветовых токенов не готова к масштабируемости. Любое изменение запускало каскад правок и ломало синхронизацию между макетами и кодом. 

Под катом мы — Элина Шевченко, продуктовый дизайнер RuStore, и frontend-разработчик Андрей Едунов — расскажем историю, как мы полностью перестроили систему, не останавливая разработку, аккуратно вынесли всё из Figma в код и почему теперь можем масштабировать дизайн без драмы, даже если завтра понадобится не только тёмная тема, но и ностальгия по 2008-му, где primary — это чистый #000000, а secondary — оттенок тоски.

Читать далее

Ближайшие события

От CUDA до Token Factory и Vera Rubin: самое главное с NVIDIA GTC 2026

Время на прочтение6 мин
Охват и читатели8K

Если вы ждали от мартовского кейноута Дженсена Хуанга просто «железок» помощнее, то вы ошиблись дверью. Да, были новые чипы, но за всем этим скрывалось нечто большее. Знаете это чувство, когда мир меняется прямо у вас на глазах, как когда-то это было с интернетом? Это был тот самый момент.

Прошедший NVIDIA GTC был не типичной трансляцией ради рекламы видеокарт. Хуанг подвел логичную черту над первыми двадцатью годами существования CUDA. Наконец, мы увидели, как бизнес движется в сторону новых концепций вроде Agent as a Service, Token Factory, модульной архитектуры железа и не только. И не переживайте, если вы слышите про них впервые — это нормально. 

Привет, Хабр! Меня зовут Александр Тугов, я директор AI-вертикали в Selectel. В этой статье хочу структурировать основные тезисы, озвученные в кейноуте NVIDIA GTC, и поделиться своими мыслями. Призываю к обсуждению в комментариях!

Читать далее

ИИ-ассистент для крупного бизнеса. Как собрать обучающие курсы из вашей базы знаний

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели3.8K

В больших компаниях знания не исчезают. Но и от того, что они есть пользы немного. У вас есть регламенты на десятки страниц, презентации по продукту, записи созвонов с ключевыми клиентами, письма от службы безопасности и комплаенса, но новый сотрудник всё равно идёт спрашивать коллегу «как тут у нас это делается на самом деле». Фактическая экспертиза живёт в головах и локальных чатах, а не в единой системе. База знаний, даже если она есть, играет только роль архива — да, конечно, он тоже нужен. Но! В такой ситуации каждый новый филиал, команда или продукт учится заново, как будто до них никто этим не занимался.

Читать далее

Большой гайд по созданию и настройке Wi-Fi mesh сетей в OpenWrt: теория, проектирование, роуминг, параметры

Уровень сложностиПростой
Время на прочтение19 мин
Охват и читатели9.2K

Привет, Хабр! Меня зовут Алексей, и я занимаюсь беспроводными технологиями. Недавно я написал две статьи, посвящённые настройке /etc/config/wireless в OpenWrt. В одной я разобрал настройки секции wifi-device, а в другой wifi-iface. Но этого оказалось мало, и в комментариях меня спрашивали о тонкостях настройки mesh-сети. Что ж, спешу выполнить эту просьбу и представляю на ваш суд наиболее полный гайд, посвящённый сборке и настройке Wi-Fi mesh-сетей на базе OpenWrt.

Но прежде чем перейти к повествованию, хочу сделать важные оговорки.

Первое. Из комментариев я заметил, что, говоря о mesh-сети, пользователи имеют в виду несколько разных вещей. Поэтому эта статья будет написана от простого к сложному от самых азов к тонкостям настройки. В начале я немного по‑теоретизирую, расскажу о mesh-сетях и топологии, о том, как их лучше спроектировать и расположить роутеры, и уже дальше перейду к тонкой настройке конфигурационных файлов. Поэтому если вы считаете себя опытным пользователем, смело пропускайте начало статьи и сразу переходите ко второй её половине.

Второе. Статья получилась достаточно большая и может вас утомить. Я долго сомневался, стоит ли делать большую статью или всё же разделить на разные темы. Например, вынести отдельно часть про роуминг и отдельно про настройку конфигов. Но в итоге решил, что полезнее будет иметь полное руководство в одном месте. В конце концов, главная цель этой статьи показать, что при должном уровне настройки беспроводные mesh-сети ничуть не уступают кабелю. Мне по роду занятий часто приходится слышать замечания коллег, которые говорят: «Да всё беспроводное и mesh это фигня, нет ничего лучше кабеля. Вот я купил домой mesh-систему всего из трёх узлов, а она не работает как нужно». Забегая вперёд, хочу сказать, что если всё сделать как надо, можно добиться небывалой производительности. Не без гордости могу заявить, что в моём арсенале есть mesh-сети, состоящие из более чем 50 узлов, построенные исключительно на OpenWrt и без использования внешних контроллеров.

Читать далее

Критически важный гелий под угрозой: сколько еще продержится производство чипов

Время на прочтение5 мин
Охват и читатели9K

Современные электронные устройства, от смартфонов до мощных серверов, зависят от микросхем. Их производство требует предельной точности и строго контролируемых условий на специализированных фабриках. Даже небольшие отклонения приводят к браку целых партий и срыву поставок.

Сейчас под угрозой оказался один из базовых «кирпичиков» этого производства — гелий. Перебои с его поставками уже начали влиять на работу фабрик и могут в ближайшее время сказаться на объемах выпуска чипов. Чтобы понять масштаб проблемы, разберемся, какую роль этот газ играет в производстве и что там с его доступностью в текущих условиях.

Читать далее

Open source-экосистемы: как Группа Т-Технологии развивает AI/ML-решения

Время на прочтение10 мин
Охват и читатели4.7K

Делюсь разговором с AI/ML-командой Группы Т-Технологии. Это — Анатолий Потапов @anatolii-potapov, который руководит группой фундаментальных технологий LLM, и Даниил Гаврилов, возглавляющий исследования в AI. Получился подробный разбор того, чем занимается AI/ML-команда и Группа в целом в рамках данного направления.

Читать далее

Mustard Tempest и многоступенчатая цепочка доставки вредоносного ПО

Время на прочтение8 мин
Охват и читатели5.6K

В конце 2025 года группа киберразведки зафиксировала кампанию хакерской группировки Cloud Atlas, нацеленную на российские организации из сферы промышленности и военно-промышленного комплекса. 

Для первичного проникновения использовалась электронная почта: рассылка велась от имени реального контрагента через скомпрометированный почтовый ящик. 

Читать далее

Микросервис потоковой конвертации видео (Python, FFmpeg)

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7.3K

Недавно перед нами встала задача быстро реализовать микросервис для конвертации видео. Стандартным решением для таких целей является FFmpeg, который умеет читать файлы чанками (запросы HTTP Range) с URL и выводить результат в stdout. Поэтому я решил попробовать подход с потоковой конвертацией.

Важно уточнить, что под «потоковой обработкой» здесь подразумевается передача данных в виде последовательности чанков (Chunked Streaming), а не классический Continuous Streaming, как в случае с live-видео.

Читать далее