Обновить

AI и ML

Сначала показывать
Порог рейтинга
Уровень сложности

Iceberg без Spark для каждой мелочи: UPDATE, DELETE и MERGE INTO из одного SQL-движка в Apache Doris 4.1

Уровень сложностиСредний
Время на прочтение14 мин
Охват и читатели881

Apache Doris 4.1 добавляет UPDATE, DELETE и MERGE INTO на Iceberg-таблицы прямо из SQL-клиента — без отдельного Spark job. Iceberg V3 Deletion Vectors и Row Lineage делают этот DML архитектурно здоровым: нет линейной деградации от delete files, нет false positives в CDC после compaction. Перевод и адаптация статьи Mingyu Chen (CC BY 4.0) с бенчмарками, SQL-примерами и Quick Start.

Читать далее

Новости

Пример n8n workflow для задачи объективного выбора лучшего из двух вариантов

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели3.8K

Опишем базовую информацию по мини-фреймворку для работы со знаниями через LLM и рассмотрим пример n8n workflow для задачи объективного выбора лучшего из двух вариантов

Читать далее

SD Studio: свой Midjourney на своей видеокарте с LLM-помощником

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели4.2K

Сперва — откуда взялась идея?

Мы с женой делаем текстовую игру по её фэнтези-вселенной. Что-то вроде совместного хобби: ей интересно писать, мне нравится программировать. Но суть не в этом. Рисовать никто из нас не умеет, а картинки в тексте нужны.

Сейчас это не проблема — нейросетей куча, особенно для генерации изображений. Но есть минусы: на платных сервисах можно хорошо так разориться, особенно для пет-проекта. Есть решение — Stable Diffusion, генерировать на своей видеокарте.

Первые шаги с Stable Diffusion

Для работы с локальным SD есть несколько инструментов. Взял первый и, наверное, самый популярный — Automatic1111. Сгенерировал — получил полную фигню. Начал читать, что пишут. Оказывается, уже создано огромное количество предобученных моделей и LoRA для добавления тех функций, что модель не умеет. Результат стал сильно лучше.

Дальше — промпты, то есть текстовое описание того, что мы должны получить на итоговом изображении. Там тоже есть свои рекомендации. Модель не читает мысли пользователя, ей нужно более точно и в понятном ей виде предоставить описание. Дополнительно разбираемся с настройками генерации — samplers, steps и т.д. Всё осуществимо, но получаем другую проблему: для генерации одной картинки мы очень долго подбираем все эти значения и тексты.

Первая автоматизация

Чтобы упростить процесс, я сделал следующее. Для наполнения контента в игре есть админка — обычный CRUD на Symfony. Дополнительно в отдельной папке лежат файлы со всем лором книги/игры.

В итоге я создал два провайдера. Первый — для общения с локальной LLM, которая по нужному запросу берёт необходимый контент из папки с лором и составляет корректный промпт для SD. Второй — для SD, где заданы предварительные настройки: используемая модель, LoRA и вместе с промптом всё это отправляется в SD, и мы получаем итоговую картинку. Несколько попыток, потому что с первого раза вряд ли получим нужное. Получаем более-менее адекватный результат и идём в Photoshop — убрать лишнее, сжать и т.п.

Читать далее

Робот, способный создать себя сам. Режим «Инженера» в робототехнике

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели4.8K

Скажите роботу «настрой манипулятор» — и он напишет драйвер сам. Звучит как фантастика из тех самых фильмов 80-х и 90-х, но мы уже реализовали это в OpenGrall. Рассказываю, как работает режим Инженера и почему последнее слово всегда остаётся за человеком

Читать далее

Что не так с вакансиями LLM Engineer

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели11K

В 2026 году вакансий, связанных с ИИ, большими языковыми моделями и агентами, стало заметно больше и в России, и за ее пределами. Технологические компании, банки и даже обычный enterprise поняли, куда движется индустрия, и начали срочно внедрять ИИ в продукты и внутренние процессы.

Если открыть hh.ru, LinkedIn или Telegram-каналы с вакансиями, легко увидеть набор ролей, которые постоянно пересекаются по описанию и требованиям.

Читать далее

Сколько на самом деле стоит GenAI в продакшене

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели9.6K

Когда обсуждают стоимость внедрения генеративного ИИ, разговор часто сводится к цене за токен или цене за арендуемый GPU. Это удобно — одно число. Но в реальном продакшене такая оценка почти всегда обманчива.

Стоимость GenAI-системы — это не только сколько стоит вызвать модель. Это инфраструктура, эксплуатация, безопасность, наблюдаемость, разработка, интеграции, поддержка пользователей и постоянные изменения вокруг моделей. Именно поэтому «мы поднимем open-source модель сами, будет дешевле» часто оказывается правдой только на первом слайде презентации.

Читать далее

Вспомнить всё. Спектр весов нейросети

Время на прочтение13 мин
Охват и читатели11K

В данной публикации попробуем сформировать простейшую нейросеть. Будем использовать Colab. Данный выбор также хорош тем, что то, что позволено Юpyтеру не позволено быку. Иметь локальные вычислительные мощности. В принципе довольно неплохая инфраструктура для проверки базовых алгоритмов налету. Если есть что то подобное на других платформах или можно сделать с использованием иных агентов, пожалуйста, прокомментируйте.

Целью является демонстрация сохранения информации об обучении в спектре весов, при его фильтрации и постеризации происходит не полное стирание этих данных, что можно использовать для дообучения в качестве начальных условий. При этом, после постеризации, коэффициенты весов выраженные в спектральных составляющих занимают существенно меньшее место. Также этот эффект интересен с точки зрения проектирования ИНС.

Вместо кода будут md-саммари по разделам, их можно использовать для генерации в качестве промптов для ИИ-агента.

>>ЧТЕНИЕ>>

5 скиллов Claude Code из marketplace, которые я попробовал

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели13K

Anthropic тихо открыл marketplace штатных скиллов для Claude Code. На главной нигде не написано, в документации полстраницы. А там 32 плагина и около 20 скиллов, которые умеют считать твои расходы на API, проводить аудит проекта на возможные автоматизации, писать другие скиллы с тестами, делать HTML-конструкторы для не-программистов и встраивать UI прямо в чат. Прогнал 5 самых интересных на своих данных и проектах. Что зашло, что нет, и где есть подвох.

Читать далее

Карпатый объяснил, почему ваши навыки программирования скоро станут ненужными. Или нет

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели12K

Андрей Карпати дал 30-минутное интервью Sequoia Capital. 357K просмотров за два дня. Главный тезис: в декабре 2025 что-то щёлкнуло. Агентные инструменты перестали ошибаться. Не стали идеальными, а перешли порог, после которого перестаёшь помнить, когда последний раз исправлял код руками.

Software 3.0: промпт вместо кода. Модель сама разбирается с окружением, дебажит, адаптируется. Его собственное приложение MenuGen стало “лишним” после одной строки промпта в Gemini.

Мой вольный пересказ с комментариями из практики: почему vibe coding и agentic engineering это разные вещи, что такое “рваный интеллект”, и почему вкус важнее знания API.

Читать далее

Архитектура важнее размера: внедряем каузальные свертки в трансформер и получаем связный сторителлинг

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели8.5K

Дело было вечером, делать было нечего. Я сидел за ноутом и разбирал новую идею Deepseek Engram: Лян Ванфень собрал вместе хеш‑таблицы и почти‑линейный трансформер — получилось дешево и сердито.

Однако есть в Engram один недостаток — он требует много RAM (каламбурчик, хаха). А хотелось архитектуру, на инференс которой не придется скидываться всем поселком.

Читать далее

Классификация галлюцинаций LLM | «Врага нужно знать в лицо»

Уровень сложностиСредний
Время на прочтение22 мин
Охват и читатели9.1K

В этой статье я постарался выписать все то, что понял про «галлюцинации» LLM за время их изучения и практики борьбы с ними. Будучи архитектором по профессии и занудой по природе, я изначально их классифицировал и искал способы, как галлюцинации победить / укротить. В этой статье я хочу поделиться тем, что мне удалось накопать.

Сопоставимого по охвату практико-ориентированного материала на русском я не нашёл. На английском есть более полные академические обзоры, но они опубликованы на arXiv и написаны для ML-исследователей.

Без академичности, описано на живом языке, надеюсь, будет понятно всем, кто осилит объем. Кратко написать статью не вышло, все же нужно показать, чем одна категория отличается от другой, а также предложить «как с ними можно бороться».

Классификацию галлюцинаций я разбил на 5 групп, на фундаментальном уровне выделив «главных виноватых»:
— Проблема в весах, а виновато предобучение
— Проблема в промпте, а виноват пользователь
— Проблема в самой архитектуре LLM, виновата жизнь
— Проблема в дрессировке RLHF, а виноваты горе-учителя
— Проблема в окружении LLM, а виноваты все, кто это окружение разрабатывает / интегрирует

Читать далее

До встречи на танцполе: роботы теперь обучаются движениям на лету и открывают для себя новый класс задач

Время на прочтение9 мин
Охват и читатели7.1K

В IEEE Spectrum на днях показали ролик с гуманоидом Digit от Agility Robotics, который танцует неожиданно легко и уверенно. Компания объясняет это не постановкой каждого шага отдельно, как это делали раньше, а новым циклом обучения: движения собирают из данных захвата движений, анимации и телеуправления, после чего навык докручивают в симуляции и переносят на реального робота. А значит, теперь гуманоидов можно заметно быстрее обучать новым движениям.

Читать далее

AgentOps: следующий слой после Infrastructure as Code

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели7.2K

Infrastructure as Code научила нас важной дисциплине: инфраструктура не должна жить только в голове. Ресурсы, настройки и изменения надо описывать, хранить в Git, применять повторяемо и обсуждать как код.

Это все еще правильная мысль. Terraform хорошо описывает ресурсы. Ansible хорошо описывает действия. CI/CD хорошо описывает путь изменения от репозитория до рабочей среды. Мониторинг хорошо ловит симптомы.

Но когда в эксплуатацию входит ИИ-агент, появляется новый вопрос: что агент должен понимать перед действием?

Не какую команду выполнить. Не какой ресурс создать. Не какой playbook применить. А именно понимать: куда он попал, что здесь считается правдой, что уже проверено, что только предполагается, какие решения нельзя повторять, какие секреты нельзя читать, что обязательно записать после изменения.

Я называю этот слой AgentOps.

Это не замена всем старым практикам. Это слой над ними. Если инфраструктура теперь обслуживается агентом, ей нужна не только автоматизация, но и контекст, рассчитанный на агента.

Читать далее

Ближайшие события

63 бесплатных урока мая: от Go и Kubernetes до LLM, ClickHouse и AI-агентов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели8.8K

В IT профессиональный рост редко упирается только в мотивацию: чаще мешают разрозненные знания, нехватка времени на системное изучение темы и ощущение, что технологии меняются быстрее, чем получается в них разобраться. В этом дайджесте собрали демо-уроки мая по ключевым направлениям — от разработки, архитектуры и инфраструктуры до ML, аналитики, тестирования, ИБ и управления.

Это возможность посмотреть, как практикующие эксперты разбирают актуальные темы вроде Go, Kubernetes, LLM, ClickHouse, DevSecMLOps и AI-агентов, задать вопросы и понять, какие навыки стоит подтянуть дальше.

Выбрать урок

Реальные данные о размерах подписок и качестве разнообразных моделей. Опыт Амбассадора AI

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели6.6K

Доброго времени суток, я разработчик и амбассадор AI. Мой стаж работы в коммерческой разработке — 15 лет. Я работала в проектах с GLSL шейдерами, С/С++, Lua Jit, устав от компилятора, ушла в Front End (Back End как хобби), Digital Agency, Typescript, и сейчас продолжаю работать на Typescript.

Я использую каждый день GPT, Devstral, Minimax 2.7, Kimi 2.6, opus MT для переводов, Yolo World, и другие разнообразные нишевые модели. Речь в статье пойдет о моем субъективном опыте, о том, какие подписки стоят своих денег, а какие нет, какие модели для чего больше подходят. Без нейрослопа, только опыт реальных сложных задач, таких как сборка PyTorch под Adreno 530 (Android 9, телефон 2016 года), переход большой кодовой базы с PHP 7.4 → 8.0, и многое другое.

Читать далее

Я «нанял» AI-команду разработки и управлял ею через Kanban: опыт на реальном продукте

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели12K

Я руководитель проектов и у меня есть команда разработки продуктов. Аналитики исследуют и анализирует новые фичи, пишут спецификации. Есть разработчики и тестировщики. Есть DevOps, который чинит CI и выкатывает релизы. И даже есть технический писатель анализирует изменения и обновляет документацию.

Обычная продуктовая команда разработки.

Только людей в этой команде нет.

Все исполнители - AI-агенты…

Я формулирую проблему, описываю ожидаемый результат, задаю ограничения, выбираю приоритеты, принимаю или отклоняю результаты, разбираю спорные ситуации. А мои AI-агенты делают то, что обычно делают участники полноценной команды разработки.

Современные AI-агенты способны выполнять работу разных инженерных ролей, так почему бы не управлять ими как полноценной командой? А для управления использовать те же подходы, которыми мы давно управляем человеческими командами: Kanban, Scrum, Agile, Definition of Done, декомпозиция, pipeline, review, escalation.

Эта статья — про мой практический опыт такого подхода. Не про «AI заменит программистов». Не про «теперь можно не думать». И не про «вот магическая кнопка, которая делает продукт». Скорее наоборот: чем больше AI пишет кода, тем важнее становятся процесс, постановка задачи, спецификации, тесты, CI, документация и контроль состояния.

Сможет ли AI заменить команду разработки

Новый Grok 4.3: как использовать без подписки за 300$ и подключить выгодный API нейросети для бизнеса

Время на прочтение2 мин
Охват и читатели9.1K

Grok 4.3 от xAI вышел в апреле 2026 года и пока остаётся в стадии бета-версии — протестировать его могут только подписчики SuperGrok Heavy за 300 долларов в месяц.

В чём Grok 4.3 опережает ChatGPT-5.5 и Claude Opus 4.7? Как использовать Grok 4.3 без подписки? И как получить дешёвые токены по API из России, без VPN и сложных настроек? Разберёмся.

Узнать больше

7 метрик, которых не хватало моему AI-хуманизатору. Спасибо Хабровской модерации

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели7.2K

7 метрик, которых не хватало моему AI‑хуманизатору. Спасибо Хабровской модерации

Я делаю open-source хуманизатор для русского AI-текста. 27 апреля Хабр забанил мою же статью про этот хуманизатор как AI-генерацию.

Хронология. Я отправил материал про русские AI-паттерны на Хабр. Перед отправкой прогнал черновик через собственный скилл-хуманизатор, нашёл у себя слово «являются» в разделе про слово «являются», переписал, упомянул это в постскриптуме. Через несколько дней пришёл ответ от автомодератора:

К сожалению, данная публикация не сможет пройти модерацию, поскольку большая часть текста с высокой вероятностью создана с помощью генеративной модели ИИ.

Перечитал три раза. Статья про маркеры AI заблокирована как AI. Хуманизатор, через который я её только что прогнал, не сработал. Это не баг. Это его слепое пятно, о котором я узнал только в момент бана.

Возникает разумный вопрос, что вообще делает мой скилл, если не вытягивает текст, который сам про чистку от AI-маркеров. Полез разбираться. Из этого вылезло несколько вещей, которые до бана были мне самому непонятны, и я думаю, что они могут быть полезны любому, кто работает с русским контентом и думает про автоматическую детекцию.

Читать далее

Claude пишет — бот работает: полный цикл создания Telegram-бота

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели8.1K

Привет, Хабр!

В последние годы разработка ускорилась так, что старые подходы уже не успевают за новыми реалиями. Но дело не в новых языках или фреймворках. Появился другой рабочий сценарий — когда разработчик перекладывает часть рутины на нейросеть и ведёт её через обычный диалог. Это и называют вайбкодингом.

Звучит как модный термин, но по факту всё просто: вы меньше печатаете, больше управляете. Ставите задачу, задаёте границы, проверяете результат. И да, промптинг здесь — не магия, а обычная инструкция для модели.

Сегодня на практике посмотрим, как это работает. Создадим Telegram-бота-ассистента через вайбкодинг с Claude. Бот будет отвечать на вопросы, переформулировать текст и делать краткие саммари. А потом задеплоим его на сервер.

Читать далее

Шахматный гений, Сергей Брин и бананы: кто стоит за Gemini. Досье SpeShu.AI

Время на прочтение4 мин
Охват и читатели5.2K

Google купил DeepMind за $650 млн, не увидев ни одного коммерческого продукта, и не прогадал. Команда DeepMind создала отличную текстовую модель Gemini и фотогенератор Nano Banana Pro. Он считался лучшим в мире на протяжении полугода.

Как Демис Хассабис создал DeepMind и кто ему помог, давайте разбираться.

Это рубрика досье SpeShu.AI. Здесь мы составляем психологические портреты людей, которые ведут всех нас в будущее искусственного интеллекта и прямо сейчас меняют мир, как в своё время изменили Лейбниц, Эйнштейн и Курчатов.

Читать далее
1
23 ...