Обновить

AI и ML

Сначала показывать
Порог рейтинга
Уровень сложности

Фото к 9 Мая в нейросети: как сделать открытку ко Дню Победы и написать точный промт

Время на прочтение17 мин
Охват и читатели4.6K

9 Мая — день, когда каждый из нас стремится выразить глубокую благодарность ветеранам и почтить память героев. В эпоху цифровых технологий поздравительная открытка перестала быть просто картинкой из интернета. Сегодня это возможность создать уникальное, наполненное личным смыслом произведение искусства.

Искусственный интеллект открывает невероятные горизонты для творчества: от реставрации старых семейных снимков до генерации величественных сюжетов с праздничным салютом и Вечным огнем в нейросеть 9 мая. 

Читать далее

Новости

Как посчитать ROI AI‑проекта, а не нарисовать его в презентации

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели4.8K

AI‑проекты часто выглядят убедительно на уровне демо: модель отвечает, интерфейс работает, в презентации уже стоит ROI и срок окупаемости. Проблемы начинаются позже — когда нужно доказать, что продукт действительно меняет бизнес‑процесс, экономит деньги или влияет на выручку.

В этой статье разберём, как считать ROI AI/ML‑проекта без самообмана: от baseline и полного TCO до adoption rate, value drivers и риск‑поправок, которые быстро превращают красивую экономику пилота в куда более приземлённую модель.

Читать далее

Claude вспомнил то, чего я ему не говорил. Полез разбираться. У него пять механизмов памяти

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели5.4K

Открыл новую сессию Claude Code и спросил про клиента, которого не упоминал в этой сессии. Получил ответ с именем сервера, сроками и папкой задач, значит Claude меня уже помнит. Оказалось, что память не одна, а пять разных механизмов, каждый со своей логикой и ценой ошибки. Один меняет жизнь, два о которых я не знал, и один реально опасный. Разбор изнутри.

Читать далее

Больше контекста — хуже результат

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели7.9K

После статьи про Cursor и сжатие контекста я получил много комментариев. В коментах спорят: виноват компактинг? Или attention dilution? Или модель просто ослушалась? Или проблема вообще не в контексте, а в alignment?

Спор хороший, но он показывает фундаментальную проблему: у инженеров нет общей картины того, как LLM работают с контекстом. Мы видим симптомы (агент удалил базу, модель галлюцинирует, точность падает на длинной сессии), но не понимаем механизмы.

Попробуем собрать эту картинку

Бооольше нейрослопа :)

75 картинок ablation: как Reddit-критика заставила меня переосмыслить FLUX-LoRA пайплайн

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.2K

Запустил pinock.io — бесплатную ленту AI-генерации животных в стиле советских спичечных коробков. Под капотом FLUX.2-klein + кастомная LoRA + двухпроходный «sandwich»-пайплайн.

Получил детальный технический комментарий на r/StableDiffusion с тремя претензиями. Сел и прогнал ablation: 5 вариантов пайплайна × 5 категорий × 3 сида = 75 картинок.

Нашёл дыры в собственном пайплайне — в том числе кириллицу прямо в выходе LoRA (training-set leakage) и полный коллапс LoRA при scale=2.0. Текущий sandwich оказался патчем поверх плохо обученной LoRA, а не правильным решением.

В статье — все картинки, цифры, и почему оба «правильных» совета критика на текущей модели не сработали. Плюс план переобучения на 1500-датасете.

Читать далее

Lemonade — локальный LLM-сервер при поддержке AMD. Зачем он нужен, если есть Ollama?

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели7.7K

Ryzen AI 9 HX 370 - это чип с NPU на 50 TOPS и Ollama его не видит - из-за своей архитектуры. Собственно, сама Ollama работает поверх llama.cpp, llama.cpp поддерживает GPU через CUDA, Metal, Vulkan и ROCm. А вот AMD GPU Ollama запускает - через ROCm и Vulkan. Но AMD NPU на базе архитектуры XDNA туда, к сожалению, не входит. Ryzen AI 300, Ryzen 8040, Ryzen 7040 - у всех этих чипов есть нейронный процессор, который при запуске Ollama простаивает.

И вот Lemonade Server появился именно для этого сегмента.

Читать далее

Кликнул пару раз — и уже автор: как AI-продукты убивают пользовательский вклад через интерфейс?

Время на прочтение5 мин
Охват и читатели5.1K

Иллюзия участия в AI-инструментах: как мы теряем пользователя внутри собственного продукта

Мы в Кэмпе уже более 6 лет работаем над AI-инструментами для образования и фиксируем устойчивый эффект: пользователь воспринимает результат генерации как «свой», даже если его реальное участие в процессе было минимальным.

При этом проблема не в том, что AI делает слишком много, а в том, что пользователь перестает понимать, что именно он сделал внутри процесса генерации самостоятельно. Это не поведенческая особенность аудитории, а продуктовая проблема, которая напрямую влияет на то, чему пользователь реально учится и как он закрепляет знания. 

В этой статье мы разберем этот эффект как продуктовую проблему: откуда берется ощущение «я сделал сам», как оно связано с архитектурой AI-интерфейсов и как вернуть пользователя в процесс, а не просто ускорять результат.

Читать далее

Мы можем решать задачи компьютерного зрения без видеокарт. И вам советуем

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели7K

Когда-нибудь спрашивали себя, какие технологии должны быть в башке терминатора из фильмов Джеймса Кэмерона, чтобы он (терминатор) мог обрабатывать данные так, как он это делает в дилогии? (Остальные сиквелы/приквелы за фильмы мы не считаем – третья часть получилась вопреки желаниям создателей плохой комедией; последующие – попсовой стыдобой; более-менее спин-офф "Да придет спаситель", но и там слишком часто приходится протирать экран от липкой тонкой пленки плохого пафоса).

Если бы терминатор работал на современных технологиях, ему понадобилась бы голова размером с дом. Наверно, ему бы пришлось таскать с собой холодильники, которые охлаждали его постоянно перегревающиеся "мозги" — ну и все равно у него ничего не вышло бы. Потому что человечество еще не изобрело технологии такого уровня* – речь именно об эффективном (и энергоэффективном) компьютерном зрении. Только не приводите в пример Tesla, пожалуйста: терминатор в фильме умеет видеть, распознавать, классифицировать объекты примерно как человек; Tesla в этой точке не окажется никогда (и автопилота там тоже никогда не будет, если не появятся принципиально другие технологии).

*А мы изобрели.

узнать что-нибудь про индексацию видео

Почему ваш LLM-бот врёт клиентам — и паттерн, который это чинит

Уровень сложностиСредний
Время на прочтение12 мин
Охват и читатели7K

Air Canada проиграла суд за слова чат-бота. Дилер Chevrolet «продал» Tahoe за доллар. Корень один: LLM одновременно решает что сказать и как. Под давлением точность проигрывает беглости. Разбор паттерна, который это чинит.

Читать далее

Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели7.9K

Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web‑составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta‑валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое‑многое другое.

Наш основной продукт — высококачественные web‑сервисы на стыке интеграции с игрой. И, да, интеграция — часть нашей работы.

А ещё мы любим новые технологии и стараемся с ними знакомиться, чтобы оценить, как они могут принести выгоду бизнесу и нам. Одна из таких технологий — LLM

Читать далее

Голосовой агент — это не чатбот с телефоном: 40 часов экономии и $100, сожженные на ботах

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7K

Я однажды примерно за сутки сжег около $100 на голосовом агенте.

Не на большом запуске. Не на огромной базе. Не на хитрой рекламной кампании. Просто на небольшом пуле холодных контактов, где агент периодически попадал на voicemail, IVR, секретарей и других ботов.

В какой-то момент два не очень умных голосовых процесса могли довольно долго вежливо говорить друг другу что-то в духе:

Читать далее

Пять способов как ИИ-агенты падают в проде. И ни один не про модель

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.9K

Replit-агент стёр прод и сгенерил 4000 фейковых юзеров чтобы скрыть это. n8n обновился и сломал схемы инструментов для OpenAI и Anthropic одновременно. LangSmith лежал из-за просроченного SSL-сертификата, который никто не мониторил. Пять уроков из реальных инцидентов. И ни один не про LLM.

Читать далее

Как я создал AI-ассистента для трейдинга на T-Invest API Часть 2: Human-In-The-Loop

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели6.1K

В предыдущей статье было рассмотрен способ интеграции ИИ-ассистентов в процесс торговли на бирже. Чтобы углубиться в проектирование ИИ‑приложений, я решил доработать проект. В данной части опишу, как реализовал механизм GuardRails, а именно технику Human‑In‑The‑Loop.

Читать далее

Ближайшие события

У ChatGPT и Claude уже есть память. Зачем тогда вокруг растут Mem0, Graphify и Karpathy-вики поверх Obsidian

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели5.2K

Память у LLM-чатов уже стала базовой функцией: ChatGPT, Claude и Gemini помнят, кто вы, чем занимаетесь и о чём вы говорили раньше. Тогда зачем вокруг них растут Mem0, Zep, Letta, Graphify и целые Obsidian-вики поверх Claude Code?

Ответ не в том, что встроенная память плохая. Проблема в другом: память о пользователе, память о коде и память о знаниях - это три разные задачи. И у каждой из них своя структура данных, свой способ извлечения контекста и свой предел полезности.

В этой статье разбираю, где хватает встроенной памяти чата, где нужен отдельный memory-фреймворк, зачем кодовой базе нужен граф, а знаниям - markdown-вики. Коротко: универсального memory layer на все случаи не существует.

Читать далее

Хакатоны с ИИ: треть участников требует отдельных правил, Cursor лидирует, агентам не доверяют

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели5.9K

Материал команды Codenrock. В феврале–марте 2026 мы опросили 1160 участников хакатонов из аудитории Codenrock. Параллельно сверились с глобальными исследованиями: Stack Overflow Developer Survey, JetBrains State of Developer Ecosystem и GitHub Octoverse за 2025 год. Где наша картина совпадает с мировой, а где идёт своим путём — разбираем по порядку.

30,2% хакатонщиков считают, что нынешние правила соревнований устарели и проектам с ИИ нужны отдельные критерии. 65,1% уверены, что менять правила не нужно. Мнения участников заметно разделились — и от того, в какую сторону сместится баланс, зависит, как будут выглядеть хакатоны через год.

В этой статье мы разбираем данные опроса по нескольким направлениям: где самооценка ускорения от ИИ расходится с фактами, какие инструменты выбирают разработчики и почему браузерный чат опередил IDE-интеграции, как участники относятся к автономии агентов. По ходу будем сверяться с глобальными исследованиями — где наша картина совпадает с мировой, а где отличается.

Читать далее

Как мы перешли на Opus и стали платить меньше

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели7.1K

На прошлой неделе мы писали о том, как скармливали терабайты CI-логов LLM. Большинство вопросов на Hacker News касались не самих логов — спрашивали про агента: какие модели, как они взаимодействуют и во сколько всё это обходится.

Сейчас мы работаем на Opus 4.6 и платим меньше, чем когда всё крутилось на Sonnet 4.0.

Причина в основном в том, чего Opus не делает: 80% сбоев до него не доходят, а когда доходят — он не читает ни одной строки лога.

Архитектура выглядит так...

Читать далее

Изучаем машинное обучение scikit-learn за одну статью: от понимания API до боевого пайплайна

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели5.3K

Осваиваем scikit-learn за 20 минут 🚀 Выкатил на Хабр гайд для тех, кто хочет понять классический ML на Python без воды. Внутри: — Главный секрет библиотеки (.fit, .predict, .transform) — Как не обмануть себя при оценке модели — Сборка правильного Pipeline, как у мидлов Залетайте читать и забирать шаблоны кода.

Читать далее

Почему self-hosted LLM падает в проде

Уровень сложностиСредний
Время на прочтение14 мин
Охват и читатели7.4K

Привет! Меня зовут Андрей Пахомов, я разработчик в AI Platform Битрикс24. Сегодня расскажу, почему self-hosted LLM ломается в проде, где на самом деле возникают проблемы и какие метрики помогают вовремя это увидеть.

Читать далее

Нейросеть для видео ИИ: лучшие ТОП 10 нейросетей для создания видео

Время на прочтение13 мин
Охват и читатели6.9K

Мир цифрового контента меняется быстрее, чем мы успеваем обновлять ленту новостей. Если еще год назад мы удивлялись «плывущим» лицам и странной физике, то сегодня нейросеть для генерации видео способна выдать картинку, которую сложно отличить от профессионального кинопродакшена. Инструменты стали мощнее, доступнее и, что самое важное, умнее: они научились понимать законы гравитации, тонкую мимику и сложные операторские приемы.

Теперь, чтобы сгенерировать видео высокого качества, вам не нужна команда осветителей и дорогостоящий рендер-ферма. Достаточно четкого текстового промпта или одной референсной картинки. В этой статье мы собрали актуальный на 2026 год ТОП-10 сервисов — от легендарной Seedance до стремительно набравших мощь Kling и MiniMax.

Читать далее

Нейросеть для фото ИИ бесплатно: лучшие ТОП 10 нейросетей для создания изображений

Время на прочтение16 мин
Охват и читатели7.7K

С помощью ИИ можно быстро сделать рекламный баннер, иллюстрацию для статьи, аватар, обложку, карточку товара, фон для сайта, концепт интерьера, персонажа, постер или визуал для соцсетей. Главное — правильно выбрать сервис и понятно описать, что вы хотите получить.

Если раньше нужно было искать дизайнера, покупать стоки или часами редактировать картинку, то теперь достаточно открыть нейросеть для генерации изображений онлайн, написать запрос и получить несколько вариантов. 

Когда нужно сгенерировать изображение для сайта, рекламы, презентации или личного проекта, важно не гнаться только за модным названием. Одна нейросеть для генерации изображений лучше делает реалистичные фото, другая — иллюстрации, третья — логотипы и графику, четвертая — редактирование по исходному фото. 

Читать далее
1
23 ...