Pull to refresh
61

Пользователь

1,3
Rating
16
Subscribers
Send message

Ваш RAG не умеет думать. А мой умеет

Level of difficultyMedium
Reading time8 min
Reach and readers26K

Привет, Хабр!

Базовые RAG-системы уже научились неплохо справляться с прямыми вопросами по тексту. Но только если ответ лежит в одном конкретном абзаце, а вопрос сформулирован почти так же, как сам исходный документ. Попробуйте заставить систему связать факты из трёх разных источников или сделать банальный логический вывод. В большинстве случаев результат будет неутешительным. А уж про поиск скрытых связей я даже спрашивать боюсь.

Сегодня рассмотрим open-source RAG-фреймворк HippoRAG 2. В сфере RAG главным преимуществом данного фреймворка является качество ответов, потому что принципы его работы основаны на реальном человеческом мозге. Давайте разберёмся, откуда он взялся, как устроен изнутри и как его запустить.

Читать далее

ИИ фотосессия: лучшие нейросети для генерации фото + 21 готовый промпт

Level of difficultyEasy
Reading time16 min
Reach and readers6.8K

Хотите сгенерировать фотографию, неотличимую от реальности? В статье: топовые нейросети для генерации реалистичных фото, секреты референсов и 21 профессиональный промпт для ИИ фотосессии.

Читать далее

Философия информации, глава 2. Существование информации

Reading time34 min
Reach and readers14K

Перед прочтением этого текста рекомендуется прочитать начало этой истории. Иначе будет не понятно, зачем понадобилось выстраивать сложную конструкцию вместо того, чтобы сделать как обычно, по-простому.
Читать дальше →

Код без автора

Level of difficultyEasy
Reading time8 min
Reach and readers18K

Открыл MR на ревью. 847 строк. Тесты зелёные. Линтер чистый. Не понимаю ни одной строчки. GitClear проанализировали 211 миллионов строк - и нашли проблему, которую не видно ни в каких метриках.

Читать далее

Apple хочет чтобы я купил Mac за 200к. У меня два приложения в App Store и ни одного макбука

Level of difficultyMedium
Reading time14 min
Reach and readers19K

У меня нет макбука. Но два моих приложения лежат в App Store. Рассказываю весь путь: регистрация Apple Developer из России, сертификаты без Xcode, автоматическая сборка через GitHub Actions. Три варианта: для вайбкодеров, программистов без мака и хардкорщиков.

Читать далее

3000+ часов в Claude Code: как я сконцентрировал весь опыт в трёх плагинах

Level of difficultyHard
Reading time10 min
Reach and readers50K

Я работаю в Claude Code каждый день. Не «попробовал пару раз и написал статью» — а реально каждый день, минимум 8 часов, иногда значительно больше. Больше года. Если грубо посчитать — это 3000+ часов в терминале. За это время я успел построить собственную систему оркестрации из 39 агентов, опубликовать её как open-source, набрать звёзды на GitHub — и эволюционировать дальше.

Сейчас весь мой опыт сконцентрирован в трёх плагинах.

Полгода назад я написал на Хабре про Claude Code Orchestrator Kit — 39 агентов, 38 скиллов, 25 слеш-команд. Серьёзная система, реально работавшая. И я ей горжусь — это был важный этап.

Но когда сидишь в инструменте по 8 часов в день — быстро видишь, что можно сделать лучше. Экосистема Claude Code развивается быстрее, чем один человек способен обновлять свой кит. Каждые две-три недели Anthropic что-то меняет — новые API для плагинов, новые возможности агентов, новые паттерны. И каждый раз нужно лезть в 39 файлов агентов, проверять, не сломалось ли что-то, не устарел ли паттерн.

В какой-то момент я понял: пора эволюционировать. При моём объёме работы с Claude Code часы в неделю уходили не на продукт, а на починку инфраструктуры. Значит, нужен другой подход.

Читать далее

Мы сделали лучший REST фреймворк для Django

Level of difficultyEasy
Reading time17 min
Reach and readers24K

Привет! Меня зовут Никита Соболев, я core-разработчик языка программирования CPython, а так же core-разработчик фреймворка Litestar, пакета django-stubs и множества других пакетов для Django.

Сегодня я расскажу, как мы сделали самый быстрый и самый семантически корректный фреймворк для создания апишек на Джанго. Поговорим про конкурентов, покажу очень крутые интеграции, поделюсь своей философией и правилами, которые использовались для создания фреймоврка, ну накину на вентилятор для интереса.

Если хотите похоливарить в коментах на тему того, какой фреймворк самый лучший и удобный – залетайте! Обсудим.

Читать далее

# 10 ошибок рефакторинга

Level of difficultyEasy
Reading time7 min
Reach and readers11K

Рефакторинг — это не уборка, это хирургия на живом коде. Большинство провалов здесь не технические: смешали рефакторинг с улучшениями, сделали один огромный коммит, затянули релиз — и три недели работы ушли в мусор. Собрал 10 ошибок из реальных проектов: с примерами кода, разбором механики и способами не наступить на те же грабли.

Читать далее

Зарубежные хостинги блокируют в России — переехал на Яндекс Cloud за 0 ₽/мес с помощью Claude Code

Level of difficultyMedium
Reading time6 min
Reach and readers26K

Vercel из России работает через раз. Sweb и Beget — от 300 руб/мес за раздачу файлов. Оказалось, что Яндекс Cloud отдаёт Object Storage, DNS, SSL и Cloud Functions бесплатно. Перенёс сайт за один день с помощью Claude Code + два самописных скилла для yc CLI и Яндекс Метрики.

Читать далее

ИИ-дед возвращается. Реализация ИИ-собеседника для телефонных бесед с мошенниками

Level of difficultyEasy
Reading time30 min
Reach and readers26K

Многие помнят статью «Мошенники позвонили моему ИИ-деду. Он продержал их 31 минуту и записал всё». Статья быстро набрала популярность, плюсы и комментарии. К сожалению, позже выяснилось, что автор немного «пофантазировал» и описал гипотетический сценарий реализации ии-бота, за что справедливо подвергся критике.

Тем не менее, я (как и многие другие) вполне уверен, что предложенный сценарий использования LLM реален, реализуем на текущем железе и доступных моделях. Что ж, посмотрим, можно ли дома собрать фреймворк, позволяющий ИИ беседовать с мошенниками по телефону без мгновенного раскрытия.

Читать далее

Научил ИИ-агента помнить важное и забывать лишнее в SQLite

Level of difficultyHard
Reading time20 min
Reach and readers13K

Я делаю локально работающего ИИ-агента и столкнулся с тем, что стандартный подход «закинуть текст в векторную базу, достать по косинусу» для долгоживущего агента не работает: контекст замусоривается, факты конфликтуют, ничего не забывается. Вместо этого реализовал графовую когнитивную память поверх одного файла SQLite: эпизодические и семантические узлы, типизированные рёбра, именованные сущности, гибридный поиск (FTS5 + vector + graph) с Reciprocal Rank Fusion, кривую забывания Эббингауза и фоновую LLM-консолидацию. В статье — полная архитектура с кодом, SQL-схемой и формулами. Код и минимальный пример — в репозитории.

Дальше long-read

Нетипичные оптимизации в PostgreSQL, или Креативное ускорение запросов

Level of difficultyMedium
Reading time14 min
Reach and readers13K

Когда речь заходит об оптимизации базы данных, разработчики обычно перечисляют привычный набор приёмов: слегка переписать запрос, накинуть индекс на колонку, денормализовать, сделать analyze, vacuum, cluster, и так по кругу. Классические техники, конечно, работают, но иногда креативный подход даёт гораздо больше.

В этой статье Haki Benita показывает нетипичные техники оптимизации в PostgreSQL.

Читать далее

Проблема не в промпте: как Claude Code плывет на длинных задачах и как управлять контекстом

Level of difficultyMedium
Reading time13 min
Reach and readers14K

На коротких задачах coding-агент выглядит почти как живой разработчик: читает код, гоняет тесты, находит проблему, предлагает diff, но на длинной дистанции магия заканчивается. Стоит агенту или пользователю подмешать еще пару логов, несколько файлов "на всякий случай" или еще один MCP-сервер, и агент начинает забывать договоренности, повторять уже проверенные шаги и терять план.

Обычно это объясняют так: "модель тупит" или "надо лучше промптить", но на практике проблема часто в другом: мы складируем состояние задачи в историю чата и надеемся, что модель удержит его сама. Не удержит.

Контекст у LLM - это не бездонный мешок, а рабочая часть "памяти" модели, ее нужно проектировать: что хранить отдельно, что подмешивать just-in-time, что выбрасывать после шага и что обязательно возвращать после compaction.

В этой статье я разберу context engineering на примере coding agents, а конкретно на Claude Code: почему long context до сих пор деградирует, почему проблема особенно больно бьет по агентам, чем полезны /compact и Plan Mode, и как собрать минимальный контекстный конвейер без магии и лишней философии.

Читать далее

Параллельный поиск в PostgreSQL: Погружение в архитектуру и производительность pg-smart-search SDK

Level of difficultyMedium
Reading time8 min
Reach and readers6.1K

Многие проекты рано или поздно утыкаются в «потолок» стандартного поиска. Обычный LIKE перестает справляться, когда данных становится больше 100 тысяч строк, а пользователи начинают ошибаться в каждом втором слове. Типовым решением в такой ситуации считается внедрение Elasticsearch или Meilisearch.

Но внешние движки — это всегда «налог» на инфраструктуру: лишняя память, задержки на сетевой хоп и, самое главное, головная боль с синхронизацией данных. В этой статье мы разберем, как выжать из PostgreSQL производительность специализированного поисковика, используя Node.js как оркестратор параллельных стратегий и механизм AbortSignal для предотвращения лишней нагрузки на БД. Разбираем внутреннее устройство SDK pg-smart-search.

Читать далее

Как построить структуру корпоративной базы знаний с нуля: Outline + Event Storming

Level of difficultyMedium
Reading time6 min
Reach and readers9K

Несколько месяцев назад я опубликовал статью про использование Outline для корпоративной базы знаний. Теперь хочу описать некоторые процессы подробнее.

Сегодня речь пойдет про основы создания такой базы знаний. Опишу кратко применение метода Event Storming, ревью структуры, регламент по ведению БЗ.

Изучить вопрос

Симулятор смысла: почему программисты выгорают, а фаундеры нет

Level of difficultyEasy
Reading time4 min
Reach and readers45K

Осторожно: эта статья может заставить вас задуматься, чем вы занимаетесь прямо сейчас — и вам это может не понравиться.

Читать далее

Проблема эргономики цифровой среды: устойчивость систем за счёт пользователей

Level of difficultyHard
Reading time6 min
Reach and readers7.8K

Современные цифровые продукты выглядят устойчивыми.

Они работают, масштабируются, удерживают пользователя, демонстрируют высокую вовлечённость и формальную эффективность. На уровне метрик всё выглядит корректно: система не падает, пользователь остаётся внутри, взаимодействие продолжается.

Проблема в том, что эта устойчивость всё чаще достигается не за счёт формы самой системы, а за счёт скрытой компенсации со стороны человека.

Читать далее

Трёхстрочный Deep Learning: 20 примеров нейросетевой магии

Level of difficultyMedium
Reading time29 min
Reach and readers12K

В 2012 году AlexNet потряс мир — тысячи строк кода, две видеокарты, недели обучения. Сегодня вы превзойдёте его одной строкой, а модель загрузится за секунды.

В статье — 20 полностью рабочих примеров глубокого обучения, каждый ровно в три строки Python. Анализ тональности, резюмирование текста, вопросно-ответные системы, генерация текста, перевод, NER. Детекция объектов, сегментация, оценка глубины, поиск изображений по описанию. Мультимодальные модели, которые отвечают на вопросы о картинках.
Это не упрощение и не обман. За тремя строками скрываются модели с миллиардами параметров: BERT прочитал всю Википедию, GPT-2 обработал 40 ГБ текста, CLIP просмотрел 400 миллионов пар «картинка-описание». Всё это знание теперь доступно через один вызов функции.

Никакой дополнительной подготовки данных, никаких конфигурационных файлов, GPU не требуется. Скопируйте код — и получите результат, на который ещё пять лет назад ушли бы недели. Те же модели прямо сейчас работают в production у Netflix, Google и тысяч стартапов.
К концу статьи вы освоите 20 техник, покрывающих большинство задач NLP и компьютерного зрения — и каждая уместится в твит.

Читать далее

Сайдлоадинг и оффлоадинг: cоздание цифровых моделей личности с помощью сверхбольших промптов для LLM

Level of difficultyMedium
Reading time13 min
Reach and readers15K

Недавно я был на интересной лекции по созданию моделей личности с помощью сверхбольших промптов для LLM в библиотеке им. Фёдорова от лектория «Футурчай». Концепции, прозвучавшие на ней, оказались настолько интересными, что я решил познакомить с ними Хабр.

Читать далее

Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали

Level of difficultyMedium
Reading time9 min
Reach and readers18K

Весь 2024 и 2025 года индустрия спорила, заменит ли ИИ джунов, сколько людей лишатся работы. Фокусировались на генерации кода, автотестах и рефакторинге. Но к началу 2026 года стало очевидно: искусственный интеллект влияет не на отдельные задачи компании, а на то, как все части компании работают вместе. В этой ситуации уязвимыми стали те, кто раньше думал, что они в безопасности, — менеджмент.

Символичной точкой в этой дискуссии стали результаты масштабного исследования MIT Initiative on the Digital Economy за 2025 год: компании, перешедшие на модель «алгоритмического аудита», выявили избыточность до 25% штатных позиций, которые не создают прямой ценности продукта. Речь идет о демонтаже слоя «информационных брокеров» — людей и подразделений, чья роль исторически сводилась к контролю, фильтрации и передаче данных между отделами.

Инсайды из Anthropic и других ИИ исповедующих компаний дополняют картину: их инженеры и лиды теперь тратят до 70% времени не на написание кода, а на ревью решений, сгенерированных моделями. Дарио Амодеи (CEO Anthropic) еще в марте 2025 года прогнозировал, что ИИ будет писать «практически весь код». На практике это превратило инженеров в «менеджеров моделей», чья работа — отладка логики и проверка безопасности того, что выдал Claude или GigaChat.

В декабре 2025 года Microsoft Industry Solutions подтвердила этот тренд данными: 73% времени инженеров теперь уходит на стратегические задачи и валидацию архитектуры. Чистое написание кода упало до однозначных чисел. Это тектонический сдвиг. Вся историческая ценность менеджмента заключалась в том, чтобы быть мостом между мышлением (стратегией) и действием (исполнением). Теперь этот мост автоматизируется. Функция человека, который просто «агрегирует отчеты и несет их наверх», стала избыточной.

Читать далее
1
23 ...

Information

Rating
1,961-st
Registered
Activity