Обновить

AI и ML

Сначала показывать
Порог рейтинга
Уровень сложности

Что не так с вакансиями LLM Engineer

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели7.9K

В 2026 году вакансий, связанных с ИИ, большими языковыми моделями и агентами, стало заметно больше и в России, и за ее пределами. Технологические компании, банки и даже обычный enterprise поняли, куда движется индустрия, и начали срочно внедрять ИИ в продукты и внутренние процессы.

Если открыть hh.ru, LinkedIn или Telegram-каналы с вакансиями, легко увидеть набор ролей, которые постоянно пересекаются по описанию и требованиям.

Читать далее

Новости

Сколько на самом деле стоит GenAI в продакшене

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели7.6K

Когда обсуждают стоимость внедрения генеративного ИИ, разговор часто сводится к цене за токен или цене за арендуемый GPU. Это удобно — одно число. Но в реальном продакшене такая оценка почти всегда обманчива.

Стоимость GenAI-системы — это не только сколько стоит вызвать модель. Это инфраструктура, эксплуатация, безопасность, наблюдаемость, разработка, интеграции, поддержка пользователей и постоянные изменения вокруг моделей. Именно поэтому «мы поднимем open-source модель сами, будет дешевле» часто оказывается правдой только на первом слайде презентации.

Читать далее

Вспомнить всё. Спектр весов нейросети

Время на прочтение13 мин
Охват и читатели8.7K

В данной публикации попробуем сформировать простейшую нейросеть. Будем использовать Colab. Данный выбор также хорош тем, что то, что позволено Юpyтеру не позволено быку. Иметь локальные вычислительные мощности. В принципе довольно неплохая инфраструктура для проверки базовых алгоритмов налету. Если есть что то подобное на других платформах или можно сделать с использованием иных агентов, пожалуйста, прокомментируйте.

Целью является демонстрация сохранения информации об обучении в спектре весов, при его фильтрации и постеризации происходит не полное стирание этих данных, что можно использовать для дообучения в качестве начальных условий. При этом, после постеризации, коэффициенты весов выраженные в спектральных составляющих занимают существенно меньшее место. Также этот эффект интересен с точки зрения проектирования ИНС.

Вместо кода будут md-саммари по разделам, их можно использовать для генерации в качестве промптов для ИИ-агента.

>>ЧТЕНИЕ>>

5 скиллов Claude Code из marketplace, которые я попробовал

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели9.8K

Anthropic тихо открыл marketplace штатных скиллов для Claude Code. На главной нигде не написано, в документации полстраницы. А там 32 плагина и около 20 скиллов, которые умеют считать твои расходы на API, проводить аудит проекта на возможные автоматизации, писать другие скиллы с тестами, делать HTML-конструкторы для не-программистов и встраивать UI прямо в чат. Прогнал 5 самых интересных на своих данных и проектах. Что зашло, что нет, и где есть подвох.

Читать далее

Карпатый объяснил, почему ваши навыки программирования скоро станут ненужными. Или нет

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели10K

Андрей Карпати дал 30-минутное интервью Sequoia Capital. 357K просмотров за два дня. Главный тезис: в декабре 2025 что-то щёлкнуло. Агентные инструменты перестали ошибаться. Не стали идеальными, а перешли порог, после которого перестаёшь помнить, когда последний раз исправлял код руками.

Software 3.0: промпт вместо кода. Модель сама разбирается с окружением, дебажит, адаптируется. Его собственное приложение MenuGen стало “лишним” после одной строки промпта в Gemini.

Мой вольный пересказ с комментариями из практики: почему vibe coding и agentic engineering это разные вещи, что такое “рваный интеллект”, и почему вкус важнее знания API.

Читать далее

Архитектура важнее размера: внедряем каузальные свертки в трансформер и получаем связный сторителлинг

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели7.1K

Дело было вечером, делать было нечего. Я сидел за ноутом и разбирал новую идею Deepseek Engram: Лян Ванфень собрал вместе хеш‑таблицы и почти‑линейный трансформер — получилось дешево и сердито.

Однако есть в Engram один недостаток — он требует много RAM (каламбурчик, хаха). А хотелось архитектуру, на инференс которой не придется скидываться всем поселком.

Читать далее

Классификация галлюцинаций LLM | «Врага нужно знать в лицо»

Уровень сложностиСредний
Время на прочтение22 мин
Охват и читатели7.4K

В этой статье я постарался выписать все то, что понял про «галлюцинации» LLM за время их изучения и практики борьбы с ними. Будучи архитектором по профессии и занудой по природе, я изначально их классифицировал и искал способы, как галлюцинации победить / укротить. В этой статье я хочу поделиться тем, что мне удалось накопать.

Сопоставимого по охвату практико-ориентированного материала на русском я не нашёл. На английском есть более полные академические обзоры, но они опубликованы на arXiv и написаны для ML-исследователей.

Без академичности, описано на живом языке, надеюсь, будет понятно всем, кто осилит объем. Кратко написать статью не вышло, все же нужно показать, чем одна категория отличается от другой, а также предложить «как с ними можно бороться».

Классификацию галлюцинаций я разбил на 5 групп, на фундаментальном уровне выделив «главных виноватых»:
— Проблема в весах, а виновато предобучение
— Проблема в промпте, а виноват пользователь
— Проблема в самой архитектуре LLM, виновата жизнь
— Проблема в дрессировке RLHF, а виноваты горе-учителя
— Проблема в окружении LLM, а виноваты все, кто это окружение разрабатывает / интегрирует

Читать далее

До встречи на танцполе: роботы теперь обучаются движениям на лету и открывают для себя новый класс задач

Время на прочтение9 мин
Охват и читатели6.3K

В IEEE Spectrum на днях показали ролик с гуманоидом Digit от Agility Robotics, который танцует неожиданно легко и уверенно. Компания объясняет это не постановкой каждого шага отдельно, как это делали раньше, а новым циклом обучения: движения собирают из данных захвата движений, анимации и телеуправления, после чего навык докручивают в симуляции и переносят на реального робота. А значит, теперь гуманоидов можно заметно быстрее обучать новым движениям.

Читать далее

AgentOps: следующий слой после Infrastructure as Code

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели6.2K

Infrastructure as Code научила нас важной дисциплине: инфраструктура не должна жить только в голове. Ресурсы, настройки и изменения надо описывать, хранить в Git, применять повторяемо и обсуждать как код.

Это все еще правильная мысль. Terraform хорошо описывает ресурсы. Ansible хорошо описывает действия. CI/CD хорошо описывает путь изменения от репозитория до рабочей среды. Мониторинг хорошо ловит симптомы.

Но когда в эксплуатацию входит ИИ-агент, появляется новый вопрос: что агент должен понимать перед действием?

Не какую команду выполнить. Не какой ресурс создать. Не какой playbook применить. А именно понимать: куда он попал, что здесь считается правдой, что уже проверено, что только предполагается, какие решения нельзя повторять, какие секреты нельзя читать, что обязательно записать после изменения.

Я называю этот слой AgentOps.

Это не замена всем старым практикам. Это слой над ними. Если инфраструктура теперь обслуживается агентом, ей нужна не только автоматизация, но и контекст, рассчитанный на агента.

Читать далее

63 бесплатных урока мая: от Go и Kubernetes до LLM, ClickHouse и AI-агентов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели7.7K

В IT профессиональный рост редко упирается только в мотивацию: чаще мешают разрозненные знания, нехватка времени на системное изучение темы и ощущение, что технологии меняются быстрее, чем получается в них разобраться. В этом дайджесте собрали демо-уроки мая по ключевым направлениям — от разработки, архитектуры и инфраструктуры до ML, аналитики, тестирования, ИБ и управления.

Это возможность посмотреть, как практикующие эксперты разбирают актуальные темы вроде Go, Kubernetes, LLM, ClickHouse, DevSecMLOps и AI-агентов, задать вопросы и понять, какие навыки стоит подтянуть дальше.

Выбрать урок

Реальные данные о размерах подписок и качестве разнообразных моделей. Опыт Амбассадора AI

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели5.9K

Доброго времени суток, я разработчик и амбассадор AI. Мой стаж работы в коммерческой разработке — 15 лет. Я работала в проектах с GLSL шейдерами, С/С++, Lua Jit, устав от компилятора, ушла в Front End (Back End как хобби), Digital Agency, Typescript, и сейчас продолжаю работать на Typescript.

Я использую каждый день GPT, Devstral, Minimax 2.7, Kimi 2.6, opus MT для переводов, Yolo World, и другие разнообразные нишевые модели. Речь в статье пойдет о моем субъективном опыте, о том, какие подписки стоят своих денег, а какие нет, какие модели для чего больше подходят. Без нейрослопа, только опыт реальных сложных задач, таких как сборка PyTorch под Adreno 530 (Android 9, телефон 2016 года), переход большой кодовой базы с PHP 7.4 → 8.0, и многое другое.

Читать далее

Я «нанял» AI-команду разработки и управлял ею через Kanban: опыт на реальном продукте

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели10K

Я руководитель проектов и у меня есть команда разработки продуктов. Аналитики исследуют и анализирует новые фичи, пишут спецификации. Есть разработчики и тестировщики. Есть DevOps, который чинит CI и выкатывает релизы. И даже есть технический писатель анализирует изменения и обновляет документацию.

Обычная продуктовая команда разработки.

Только людей в этой команде нет.

Все исполнители - AI-агенты…

Я формулирую проблему, описываю ожидаемый результат, задаю ограничения, выбираю приоритеты, принимаю или отклоняю результаты, разбираю спорные ситуации. А мои AI-агенты делают то, что обычно делают участники полноценной команды разработки.

Современные AI-агенты способны выполнять работу разных инженерных ролей, так почему бы не управлять ими как полноценной командой? А для управления использовать те же подходы, которыми мы давно управляем человеческими командами: Kanban, Scrum, Agile, Definition of Done, декомпозиция, pipeline, review, escalation.

Эта статья — про мой практический опыт такого подхода. Не про «AI заменит программистов». Не про «теперь можно не думать». И не про «вот магическая кнопка, которая делает продукт». Скорее наоборот: чем больше AI пишет кода, тем важнее становятся процесс, постановка задачи, спецификации, тесты, CI, документация и контроль состояния.

Сможет ли AI заменить команду разработки

Новый Grok 4.3: как использовать без подписки за 300$ и подключить выгодный API нейросети для бизнеса

Время на прочтение2 мин
Охват и читатели7.6K

Grok 4.3 от xAI вышел в апреле 2026 года и пока остаётся в стадии бета-версии — протестировать его могут только подписчики SuperGrok Heavy за 300 долларов в месяц.

В чём Grok 4.3 опережает ChatGPT-5.5 и Claude Opus 4.7? Как использовать Grok 4.3 без подписки? И как получить дешёвые токены по API из России, без VPN и сложных настроек? Разберёмся.

Узнать больше

Ближайшие события

7 метрик, которых не хватало моему AI-хуманизатору. Спасибо Хабровской модерации

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели6.7K

7 метрик, которых не хватало моему AI‑хуманизатору. Спасибо Хабровской модерации

Я делаю open-source хуманизатор для русского AI-текста. 27 апреля Хабр забанил мою же статью про этот хуманизатор как AI-генерацию.

Хронология. Я отправил материал про русские AI-паттерны на Хабр. Перед отправкой прогнал черновик через собственный скилл-хуманизатор, нашёл у себя слово «являются» в разделе про слово «являются», переписал, упомянул это в постскриптуме. Через несколько дней пришёл ответ от автомодератора:

К сожалению, данная публикация не сможет пройти модерацию, поскольку большая часть текста с высокой вероятностью создана с помощью генеративной модели ИИ.

Перечитал три раза. Статья про маркеры AI заблокирована как AI. Хуманизатор, через который я её только что прогнал, не сработал. Это не баг. Это его слепое пятно, о котором я узнал только в момент бана.

Возникает разумный вопрос, что вообще делает мой скилл, если не вытягивает текст, который сам про чистку от AI-маркеров. Полез разбираться. Из этого вылезло несколько вещей, которые до бана были мне самому непонятны, и я думаю, что они могут быть полезны любому, кто работает с русским контентом и думает про автоматическую детекцию.

Читать далее

Claude пишет — бот работает: полный цикл создания Telegram-бота

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели7.1K

Привет, Хабр!

В последние годы разработка ускорилась так, что старые подходы уже не успевают за новыми реалиями. Но дело не в новых языках или фреймворках. Появился другой рабочий сценарий — когда разработчик перекладывает часть рутины на нейросеть и ведёт её через обычный диалог. Это и называют вайбкодингом.

Звучит как модный термин, но по факту всё просто: вы меньше печатаете, больше управляете. Ставите задачу, задаёте границы, проверяете результат. И да, промптинг здесь — не магия, а обычная инструкция для модели.

Сегодня на практике посмотрим, как это работает. Создадим Telegram-бота-ассистента через вайбкодинг с Claude. Бот будет отвечать на вопросы, переформулировать текст и делать краткие саммари. А потом задеплоим его на сервер.

Читать далее

Шахматный гений, Сергей Брин и бананы: кто стоит за Gemini. Досье SpeShu.AI

Время на прочтение4 мин
Охват и читатели4.8K

Google купил DeepMind за $650 млн, не увидев ни одного коммерческого продукта, и не прогадал. Команда DeepMind создала отличную текстовую модель Gemini и фотогенератор Nano Banana Pro. Он считался лучшим в мире на протяжении полугода.

Как Демис Хассабис создал DeepMind и кто ему помог, давайте разбираться.

Это рубрика досье SpeShu.AI. Здесь мы составляем психологические портреты людей, которые ведут всех нас в будущее искусственного интеллекта и прямо сейчас меняют мир, как в своё время изменили Лейбниц, Эйнштейн и Курчатов.

Читать далее

Почему будущие ИТ-устройства должны работать без 0 и 1, если они хотят быть ИТ-устройствами будущего

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели8.5K

Пришла пора выбросить на помойку идею арифметико-логических устройств (в просторечии АЛУ), на которых работают ваши и наши компьютеры (ибо именно из-за них все эти технологии перестали быть достаточно круты, чтобы делать действительно клевые штуки не только в фильмах Ридли Скотта).

К черту нули и единицы

Эффект «галлюцинаций»: когда ИИ врет уверенным голосом

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели9.2K

ИИ может уверенно придумывать источники, путать факты и давать советы, которые выглядят убедительно до первой проверки. Для продуктовых команд, разработчиков и всех, кто внедряет LLM в рабочие процессы, это не абстрактная проблема, а риск в коде, поддержке, аналитике, юридических и образовательных сценариях.

В статье разбираем, откуда берутся галлюцинации языковых моделей, почему их нельзя просто «починить» дообучением и какие инженерные приемы помогают снизить вероятность ошибки до приемлемого уровня.

Читать далее

Per-user OAuth для MCP-серверов: Keycloak, n8n и Telegram-бот через один Auth Proxy

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели9K

MCP-серверы не умеют в авторизацию, n8n не умеет в per-user токены, а OAuth-клиенты говорят на разных диалектах. Рассказываем, как один Auth Proxy перед FastMCP Gateway закрыл все три проблемы — и почему в итоге бот переехал на LangGraph

Архитектура, грабли и код

Пять мыслей о возможностях и ограничениях LLM

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели10K

О фундаментальных ограничениях больших языковых моделей одни говорят, что трансформеры, обученные предсказывать следующий токен (NTP), - тупиковый путь для создания интеллектуальных машин: язык слишком беден, это лишь плоская проекция реального мира, машины ничего не понимают. Другие говорят , что та же задача, повторённая триллионы раз, может вызвать появление сложного поведения примерно как простой механизм эволюции породил всё многообразие жизни.

Ниже представлены наблюдения по этим вопросах.

Читать далее
1
23 ...