Обновить

Моя лента

Тип публикации
Порог рейтинга
Уровень сложности
Предупреждение
Войдите или зарегистрируйтесь, чтобы настроить фильтры
Статья

От регулярок к ANTLR4: три архитектурных решения на парсере бизнес-формул

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели503

Три года назад я писал свой первый коммерческий парсер на ANTLR4 — для бизнес-формул аналитической системы. Несколько лет спустя я бы сделал его иначе в трёх центральных местах. Разбираю каждое: левая рекурсия для приоритета операторов, Listener vs Visitor, и почему getText() для повторного парсинга — антипаттерн.

Читать далее

Новости

Статья

LLM.txt – нужен или нет? Польза или вред? Разбор на реальных данных

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели327

Ноль. Именно столько раз GPTBot, ClaudeBot и PerplexityBot обратились к файлу llms.txt на тысяче доменов за месяц. Не «мало». Не «редко». Ноль. Эти цифры – не из теоретической статьи, а из аудита CDN-логов, который провёл Флавио Лонгато, LLM Optimization / SEO Strategist в Adobe. И они рушат красивую историю о «новом стандарте для AI-SEO».

Я Пётр Гришечкин, эксперт в области SEO. Последние 15 лет я проектирую системы кратного роста трафика для крупнейших сайтов. И последнее время пишу всякие околоSEO статьи – заходите в мой канал.

Сегодня разберём, стоит ли тратить время на llms.txt, что реально показывают серверные логи и куда направить усилия, чтобы AI-системы действительно видели ваш контент.

Читать далее
Статья

AI-расслоение: почему с генеративным ИИ всё пошло не так, как со смартфонами

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели693

Есть устойчивый стереотип: новые технологии — это всегда удел молодых. Так было со смартфонами. Так было с соцсетями. Молодёжь пробует первой, осваивает глубже, а аудитория постарше подтягивается с отставанием в 3–5 лет.

С генеративным ИИ у меня уже второй год складывается совершенно другое ощущение. Среди людей, которых я наблюдаю в индустрии, на конференциях, в рабочих чатах и на Хабре, глубже всех в тему погружены не 22-летние «рожденные цифровыми». А инженеры, архитекторы, тимлиды и — что удивительнее всего — руководители с 15–20-летним опытом. Те самые, кто обычно последними осваивает новый стек.

Возможно, мне просто кажется. Возможно, это ошибка выжившего и именно я чаще вижу таких людей в своём пузыре. Поэтому я решил проверить: есть ли за этим ощущением реальные данные?

Короткий ответ: да, есть. И картина получается намного интереснее, чем «молодые впереди».

Читать далее
Статья

LxBox: переносим опыт singbox-launcher в Android

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели1.3K

Привет. Полгода назад я выложил singbox-launcher — десктопный GUI для управления ядром sing-box. По фидбеку стало понятно: идея зашла, людям удобно собирать и отлаживать конфиги на ноутбуке, а потом переносить их на роутеры и другие сетевые устройства. Подробнее о десктопной версии я писал на Хабре.

Пару слов для тех, кто не в контексте. Есть небольшой класс кроссплатформенных сетевых ядер, которые умеют гибкую маршрутизацию трафика и поддерживают современный набор протоколов: WireGuard, VLESS, SOCKS5, Shadowsocks, Hysteria2, TUIC и так далее. Sing-box в этом списке — не самый раскрученный, но для меня он оказался наиболее интересным: быстрая эволюция, внимание к деталям, чистый код, живое общение мейнтейнеров с пользователями, классно организованный по логике конфиг.

Довольно быстро стали приходить запросы на Android-порт. Первое время казалось, что это будет прямое переиспользование десктопного кода. На практике сценарии потребления на мобильных оказались сильно другими: другой UX, другой lifecycle, Doze и background-лимиты, OEM-специфика, ограниченный экран, другие ожидания от автозапуска и обновлений. В итоге пришлось переписать практически всё с нуля.

Результат этой работы — LxBox, и сегодня я хочу рассказать, чем он отличается от существующих Android-клиентов и как устроен изнутри.

Читать далее
Статья

Quest For The Holy Memex: Часть 2 или Вавилонский Синдром

Уровень сложностиСложный
Время на прочтение22 мин
Охват и читатели749

Quest For The Holy Memex: Часть 2 или Вавилонский синдром...

Хорошо, у нас есть “имя зверя” - информационные перегрузки, и есть гипотеза, что именно эта штука на самом деле сильно портит мне жизнь (и не только мне), как это проверить и доказать? Как можно вообще “отдебажить” реальность? Мы не можем изолировать эти сценарии, погонять тесты - даже в естественных науках это не всегда возможно, в социальных “искусствах” вообще все очень плохо даже с воспроизводимостью опытов.

Но кое-что мы все же сделать можем...
Статья

YAKE! вместо нейросети: как мы заменили 600 МБ ONNX-реранкера на 400 строк статистики

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели1.7K

В Yttri мы изначально использовали ONNX-реранкер bge-reranker-v2-m3 для RAG-поиска. Качество было хорошим, но цена для local-first desktop-приложения оказалась слишком высокой: около 600 МБ модели, до 1.8 ГБ RAM в пике и ощутимая нагрузка на CPU.

В статье разбираю, как мы заменили тяжёлый нейросетевой реранкер на собственную реализацию YAKE! на Rust: без модели, без прогрева, без внешних сервисов и с латентностью порядка микросекунд.

Показываю механику алгоритма, интеграцию в RAG, автотегирование, ограничения подхода и главный архитектурный вывод: не каждая AI-задача требует ещё одной нейросети. Иногда лучший AI-компонент - это тот, который удалось удалить.

Читать далее
Статья

Все об устройстве WSPR с примерами на Python (часть 2)

Уровень сложностиСредний
Время на прочтение27 мин
Охват и читатели1.9K

WSPR — цифровой протокол, разработанный Джо Тейлором (K1JT) в 2008-2009 годах, с целью исследования распространения радиосигналов от коротковолновых передатчиков малой и сверхмалой мощности. В предыдущей части были рассмотрены механизмы помехозащищенного кодирования данных и формирования сигнала для отправки его в эфир. В этой части статьи рассматриваются механизмы детектирования и декодирования принимаемого из сигнала.

Статья может быть интересна радиолюбителям, как знакомым, так и не знакомым с WSPR, а также тем, кто интересуется темой цифровой обработки сигналов и хочет понять устройство этого протокола.

Читать далее
Статья

Воскрешение NumLockCalc после 17 лет забвения

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели2.1K

Эта статья про одну клавишу и рефлекс длиной в двадцать с лишним лет.

С 2003-го у меня привычка: палец сам идёт на NumLock → появляется калькулятор. Пользовался каждый день, тысячи нажатий. Потом пришли Win11 и корпоративный запрет *.exe – клавиша опустела, а палец всё равно идёт.

В какой-то момент надоело, сел и сделал скрипт. Код писала нейросеть, а я три ночи подряд тыкал её носом в то, что не работает. По дороге узнал много нового про внутренности калькулятора Win11, перехват NumLock и прозрачность чужих окон.

Дальше по классике: одна фича потянула остальные. В трее теперь живут ещё единицы измерения, заметки для Obsidian, учёт времени и скриншоты. CalcNumLock, один PYW на 150 kB или .exe на 50 МБ, исходник на GitHub.

Бесплатно | Без рекламы | Без интернета .→
Статья

Что, если человеческая глупость — это не ошибка, а замысел

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели1.6K

Делюсь своими размышлениями по книге «Основные законы человеческой глупости» Карло Чиполлы.

Что, если глупость — это не «баг», а «фича» мироздания? А иррациональные поступки могут быть природным механизмом сдерживания прогресса. Автор пытается «выявить, распознать и по возможности нейтрализовать одну из наиболее могущественных и тёмных сил, которые всячески препятствуют возрастанию человеческого благополучия и счастья».

Читать далее
Новость

Анонс лекции по MBSE

Время на прочтение1 мин
Охват и читатели1.3K

Как управлять ИТ-продуктом, когда хаос становится нормой?

27 апреля в 16:00 вместе с экспертом по системной инженерии Антоном Королевым узнаем, как управлять жизненным циклом продукта в условиях постоянных изменений.

Моделеориентированная системная инженерия (MBSE) — это современный подход к управлению жизненным циклом продукта: с этапа создания моделей и до проектирования.

Кому будет полезно:

— ИT-директорам и руководителям ИТ‑подразделений

— Архитекторам и тимлидам

— Руководителям продуктовых и сервисных команд

— ИТ- и инженерным специалистам


Разберем:

✔ Как системный подход выстраивает логическую цепочку от стратегии бизнеса до плана изменений

✔ Как управлять требованиями

✔ Как использовать MBSE для снижения рисков

✔Как встроить моделирование в бизнес-процесс

 📅  Дата: 27 апреля 2026

 ⏰  Время: с 16:00 до 18:00 (сбор гостей в 15:40)

📍   Место: Молодёжный кластер «Салют», Екатеринбург, ул.Толмачёва,12


Регистрация обязательна, участие бесплатное, количество мест офлайн ограничено

👉Программа и регистрация по ссылке.

Читать далее
Новость

Anthropic назвала причины «отупения» Claude Code

Время на прочтение2 мин
Охват и читатели3.9K

Anthropic объяснила, почему части пользователей Claude Code в последние недели казалось, что инструмент стал хуже писать и править код. В инженерном разборе компания пишет, что дело было не в самой модели, а в продуктовой обвязке вокруг нее: настройке глубины рассуждения (reasoning effort), работе с контекстом и системной инструкции. По версии Anthropic, изменения затронули Claude Code, Claude Agent SDK и Claude Cowork, но не API и не инфраструктуру инференса.

Читать далее
Статья

14 уроков за 14 лет опыта работы в Google

Время на прочтение10 мин
Охват и читатели2.2K

«Самые трудные уроки, которые я усвоил, — не о том, как работаешь ты. Они о том, как работают команды: как на самом деле принимаются решения, где ломается координация, чем отличаются команды, которые доводят дело до конца, от тех, кто стоит на месте. Этот список советов про то, как стать сильнее как отдельный инженер, и больше — про системы вокруг инженерии.» — Эдди Османи, ирландский инженер‑программист, директор в подразделении Google Cloud AI.

Читать далее
Пост

DeepSeek V4: 8 технических инноваций, de-NVIDIAfication и что это значит для рынка

Вчера OpenAI выпустил GPT-5.5. Сегодня DeepSeek выложил V4 – открытые веса, MIT-лицензия, 1М токенов контекста. Тайминг, конечно...

8 технических инноваций

Техническое описание V4 впечатляет не столько отдельными решениями, сколько плотностью инноваций – DeepSeek упаковал в один релиз больше новых техник, чем большинство лабораторий выпускают за год. Не все из них обязательно окажутся одинаково эффективными, но уровень инженерной амбиции – зашкаливающий.

1. Гибридное внимание (CSA + HCA)

Классический механизм Attention был серьёзно доработан. Теперь используется комбинация Compressed Sparse Attention и Heavily Compressed Attention, заменившая Multi-head Latent Attention из V3 и DeepSeek Sparse Attention из V3.2. У этого есть свои ньюансы и "цена". Эксперты пишут, что это может серьезно влиять на применимость модели в задачах с легаси кодом, так как компрессия контекста будет приводить к тому, что Дипсик 4 сможет корректно работать только с тем, кодом, который написал сам, а на легаси могут быть сюрпризы.

Результат: на окне в 1 миллион токенов модель потребляет лишь 27% вычислений и 10% памяти (KV-кэша) по сравнению с V3.2. Читать целые кодовые базы и книги стало экстремально дешево.

2. Оптимизатор Muon на триллионном масштабе

Индустрия привыкла к оптимизатору AdamW – он де-факто стандарт для обучения трансформеров. DeepSeek перевёл большую часть параметров на Muon – это первый публично известный случай применения Muon на модели масштаба 1.6T параметров.

Muon дал более быструю сходимость и стабильность при обучении гигантской MoE-архитектуры. Ранее он валидировался только на существенно меньших масштабах.

3. Гиперконнекции (mHC)

Классические остаточные связи (residual connections) между слоями нейросети были заменены на Manifold-Constrained Hyper-Connections. С помощью проекции на многообразие Биркгофа через итерации Синкхорна–Кноппа они устранили риск того, что сигналы "взорвутся" при обучении очень глубокой сети – проблему, которая убивала предыдущие попытки сделать обучаемые остаточные связи.

Накладные расходы: всего ~6.7% дополнительных вычислений. Техника была впервые опубликована DeepSeek в январе 2026 года.

4. Слияние знаний через On-Policy Distillation (OPD)

Вместо того чтобы в конце обучать модель всему одновременно (что приводит к размыванию компетенций), авторы пошли двухэтапным путём:

  1. Сначала обучили 10+ узких ИИ-экспертов (отдельно математик, отдельно кодер, отдельно логик и т.д.) через SFT + GRPO (reinforcement learning).

  2. Затем через On-Policy Distillation аккуратно "перелили" знания каждого эксперта в единую финальную модель.

Это устранило проблему, когда знания из одной области мешают другой – так называемое cross-domain interference.

5. Генеративный судья (GRM)

Для обучения сложным задачам DeepSeek отказался от классических скалярных "оценщиков" (как в стандартном RLHF). Вместо числовой оценки "хорошо/плохо" модель теперь сама текстово анализирует свои шаги – Generative Reward Model. Это качественно более богатая обратная связь при обучении.

6. Три режима мышления "из коробки"

Глубиной рассуждений модели можно управлять:

  • Non-Think – быстрый интуитивный ответ

  • Think-High – вдумчивый анализ

  • Think-Max – "выжми педаль в пол": модель расписывает все гипотезы, ищет краевые случаи и доказывает свой ответ (требует ≥384K контекста)

Think-Max – это режим, в котором DeepSeek замеряет свои лучшие бенчмарки. На HLE он поднимает score с 34.5 до 37.7, на SimpleQA-Verified – с 46.2 до 57.

Теги:
+2
Комментарии3

Ближайшие события

Статья

Конфликты потоковой репликации в PostgreSQL

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели2.1K

Потоковая репликация - это хорошо зарекомендовавшая себя техника физической репликации в режиме мастер-реплики. Она проста в настройке, стабильна и демонстрирует высокую производительность. Многие удивляются, когда узнают о конфликтах при репликации - ведь реплики работает только в режиме чтения.

В статье описываются конфликты репликации и как с ними бороться.

Читать далее
Статья

Как мы за 3 месяца обучили 15 человек поддержке и сэкономили бизнесу десятки миллионов рублей

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели2.2K

Работа в крупной ИТ-компании — это здорово. Особенно когда проекты есть. И они были.

Но один из крупнейших заказчиков, испытав трудности из-за надвигающегося кризиса, решил оптимизировать расходы и отказаться от поддержки, взяв всё в свои руки.

Годами компания не вникала в проект. У них и так хватало сложностей с другими его частями — поддержку разных компонентов осуществляли разные подрядчики. И вот после недолгих организационных моментов заказчик забрал двух человек из нашей команды к себе. Конечно, это был риск.

Читать далее
Статья

Как работать с DDR4

Время на прочтение11 мин
Охват и читатели2.8K

Доброго дня. Сегодня я хотел бы рассказать о DDR4 в контексте модулей памяти.

1)    Чуть-чуть об авторе

Автор имеет опыт в коммерческой разработке печатных плат около двух лет. До начала этого пути занимался баловством с микроконтроллерами на самодельных платах. На текущий же момент можно перечислить два значимых успешных проекта: материнская плата на RK3588 (LPDDR4X-4266MT/s, HDMI2.1, PCIe2/3, Ethernet 2.5G, USB2/3, SATA3), модуль памяти UDIMM DDR4 3200 MT/s. Разумеется, было много прочих, но они не требовали глубокого понимания работы с согласованием сигналов по задержке, понимания импеданса. Стоит учитывать, что автор является самоучкой чуть более чем полностью, так как более опытных коллег попросту не было и нет. Опыт работы имеется только с российскими фабриками.

Разработка велась в Altium, какого-либо моделирования (Cadence/Ansys/иной софт) не проводилось. Однако, проекты полностью работоспособны, что является косвенным доказательством валидности моих эвристик.

Последний вводный абзац. Если будет интерес и потребность – планируется сделать еще одну статью о workflowпри работе с DDR4 в Altium. Также есть что рассказать про LPDDR4, если будет таковой запрос. Если есть интерес к разработке печатных плат – по ссылке доступно мое «пособие», полностью свободное.

Читать далее
Статья

OpenAI представила ChatGPT Image 2.0: как пользоваться, получить доступ и насколько она лучше конкурентов

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели2.4K

В то время пока все думали, что крупные ИИ-лаборатории слишком заняты выпуском моделей для генерации видео и разработкой агентов для программирования, OpenAI незаметно представила новый флагманский продукт.

Он называется ChatGPT Image 2.0 и пришел на смену GPT Image 1.5 в качестве модели по умолчанию для генерации изображений с помощью ChatGPT.

На странице анонса почти нет текста. В основном там представлены только примеры изображений, что, вероятно, является правильным решением. Можно целый день описывать рендеринг текста словами, а можно просто показать плакат, на котором каждая буква идеально отображена, и позволить пользователю самостоятельно принять решение.

Читать далее
Статья

Мессенджер на Paginator. Боевые задачи

Уровень сложностиСредний
Время на прочтение16 мин
Охват и читатели2.2K

В прошлой статье я сравнивал Paginator с Paging 3 на кошачьем уровне: «вот простой фид, смотрите — три строки вместо тридцати». Это полезно для первого знакомства, но не отвечает на главный вопрос: а как оно себя поведёт, когда продукт начнёт требовать то, ради чего люди обычно и пишут свой велосипед поверх Paging 3?

В этой статье я беру мессенджер — потому что мессенджер это честный полигон. Там есть:

Читать далее
Статья

ChatGPT 5.5: Полный обзор и тесты. Как использовать новую нейросеть в России

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели2.5K

Выход ChatGPT 5.5 (кодовое имя «Spud») многое изменил в мире ИИ. Это не просто дежурное обновление, а первая с нуля переобученная базовая языковая модель OpenAI со времен GPT-4.5. Ищете подробный обзор новой нейросети? Вы по адресу.

Читать далее
Статья

«Сделай красиво» — это не промт: бренд-платформа за 8 часов без дизайнера

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели2.5K

Зачем стартапу бренд до MVP?

Любой продакт на этом месте говорит: «Запусти MVP, проверь гипотезу, бренд потом». Логично. Проблема в том, что без бренд-платформы каждый следующий артефакт — лендинг, баннер, push, карточка в соцсети — генерируется заново с нуля. 20 артефактов по 5 минут — это 20 лотерей. 8 часов один раз — это система, из которой всё выводится. Показываю на кейсе, как собрать constraint-файл на одну страницу и перестать бросать кости

Читать далее
1
23 ...