Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 181,24
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Я сделал приложение за вечер без навыков программирования. Зачем теперь разработчики?

Время на прочтение2 мин
Охват и читатели4.4K

Я работаю проджект-менеджером в крупной IT-компании. Я за вечер сделал то, на что раньше ушло бы несколько месяцев работы целой команды. И этот опыт полностью поменял мое отношение к роли разработчика.

Читать далее

Новости

Как посчитать ROI AI‑проекта, а не нарисовать его в презентации

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели3.4K

AI‑проекты часто выглядят убедительно на уровне демо: модель отвечает, интерфейс работает, в презентации уже стоит ROI и срок окупаемости. Проблемы начинаются позже — когда нужно доказать, что продукт действительно меняет бизнес‑процесс, экономит деньги или влияет на выручку.

В этой статье разберём, как считать ROI AI/ML‑проекта без самообмана: от baseline и полного TCO до adoption rate, value drivers и риск‑поправок, которые быстро превращают красивую экономику пилота в куда более приземлённую модель.

Читать далее

Claude вспомнил то, чего я ему не говорил. Полез разбираться. У него пять механизмов памяти

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели4.5K

Открыл новую сессию Claude Code и спросил про клиента, которого не упоминал в этой сессии. Получил ответ с именем сервера, сроками и папкой задач, значит Claude меня уже помнит. Оказалось, что память не одна, а пять разных механизмов, каждый со своей логикой и ценой ошибки. Один меняет жизнь, два о которых я не знал, и один реально опасный. Разбор изнутри.

Читать далее

LLM-пентест в 2026: что изменилось за год

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели4.9K

Привет, Хабр! Согласно отчёту Trend Micro TrendAI за прошлый год число CVE во всей AI-экосистеме почти удвоилось: с 419 до 756. Цифры стартовые, но мысль простая. Тестировать нейросетевые сервисы как обычные веб-приложения в 2026-м уже недостаточно. И вот почему.

В этой статье разберу:

- что появилось нового в OWASP LLM Top 10 (версия 2025);

- какие атаки реально работают в проде, а какие так и остались в arXiv;

- чем тестируют LLM сейчас (open-source стек плюс российские игроки);

- плюс короткий практический playbook на четыре уровня.

Читать далее

Шпионим за конкурентами легально: анализ рынка с нейросетями за один день вместо недели

Время на прочтение6 мин
Охват и читатели6.5K

Что внутри:

Метапромптинг: как заставить ИИ самому написать промпт для анализа конкурентов

Метод Франкенштейна: прогон через три нейросети (Claude, ChatGPT, Gemini) и синтез лучшего

Финальная сборка: все данные в одном месте → готовая презентация для клиента

Реальный кейс: анализ конкурентов для сайта по аутсорсингу бухгалтерии. С промптами, скриншотами и ссылками на итоговые материалы.

Читать далее

ИИ становится умнее, а мы – глупее; можно ли это остановить?

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5.7K

Кто умнее — человек или машина?

На протяжении 30 лет, которые я проработала в сфере искусственного интеллекта, именно этот вопрос был в центре дискуссий.

Нам также внушали следующую историю об ИИ: он будет заниматься утомительной рутинной работой — исследованиями, составлением первых черновиков, обработкой цифр — в то время как мы сосредоточимся на интересных аспектах: творчестве, суждениях, человеческом факторе.

Мои исследования показывают, что мы задавали неверный вопрос и делали неверные выводы.

Несколько месяцев назад я набрала группу взрослых из района залива Сан-Франциско для проведения эксперимента. Я дала каждой группе час на то, чтобы сделать прогнозы о реальных событиях, используя сценарии, взятые с платформы прогнозного рынка Polymarket. Это дало нам строгий, объективный способ проверить результаты на фоне коллективной мудрости тысяч прогнозистов, мотивированных финансовой выгодой. Помимо ИИ, делающего прогнозы самостоятельно, некоторые команды людей работали отдельно, а другие — в гибридном составе «человек + ИИ».

Читать далее

AI-агенты в продакшене: почему demo не равно реальность

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели4.9K

Посмотрел демку, где AI-агент ревьюит PR за 40 секунд — и решил внедрить у себя. LangGraph, GitHub API, неделя на прототип. Прототип заработал красиво. А потом начался продакшен: галлюцинации, 60% мусорных комментариев, разработчики игнорируют бота. Рассказываю, как чинил это три месяца и к каким цифрам пришёл.

Читать далее

Больше контекста — хуже результат

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели7K

После статьи про Cursor и сжатие контекста я получил много комментариев. В коментах спорят: виноват компактинг? Или attention dilution? Или модель просто ослушалась? Или проблема вообще не в контексте, а в alignment?

Спор хороший, но он показывает фундаментальную проблему: у инженеров нет общей картины того, как LLM работают с контекстом. Мы видим симптомы (агент удалил базу, модель галлюцинирует, точность падает на длинной сессии), но не понимаем механизмы.

Попробуем собрать эту картинку

Бооольше нейрослопа :)

75 картинок ablation: как Reddit-критика заставила меня переосмыслить FLUX-LoRA пайплайн

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели5.7K

Запустил pinock.io — бесплатную ленту AI-генерации животных в стиле советских спичечных коробков. Под капотом FLUX.2-klein + кастомная LoRA + двухпроходный «sandwich»-пайплайн.

Получил детальный технический комментарий на r/StableDiffusion с тремя претензиями. Сел и прогнал ablation: 5 вариантов пайплайна × 5 категорий × 3 сида = 75 картинок.

Нашёл дыры в собственном пайплайне — в том числе кириллицу прямо в выходе LoRA (training-set leakage) и полный коллапс LoRA при scale=2.0. Текущий sandwich оказался патчем поверх плохо обученной LoRA, а не правильным решением.

В статье — все картинки, цифры, и почему оба «правильных» совета критика на текущей модели не сработали. Плюс план переобучения на 1500-датасете.

Читать далее

Странные ИИ‑существа из 00-х, которые научились размножаться сами

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели5.9K

Искусственный интеллект пришел в мир почти 70 лет назад. А наши жизни он захлестнул поистине атилловским вторжением совсем недавно.

Но когда еще сотовые телефоны едва помещались в карман, мониторы были пузатыми, а ПК стоили как целая машина, ИИ был уже рядом, делая первые робкие шаги. Сегодня мы расскажем об игре на основе AI‑модели, которая наделала много шуму в 90-х и начале нулевых. А все потому что ее персонажи были пугающе умными.

Читать далее

Lemonade — локальный LLM-сервер при поддержке AMD. Зачем он нужен, если есть Ollama?

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели6.6K

Ryzen AI 9 HX 370 - это чип с NPU на 50 TOPS и Ollama его не видит - из-за своей архитектуры. Собственно, сама Ollama работает поверх llama.cpp, llama.cpp поддерживает GPU через CUDA, Metal, Vulkan и ROCm. А вот AMD GPU Ollama запускает - через ROCm и Vulkan. Но AMD NPU на базе архитектуры XDNA туда, к сожалению, не входит. Ryzen AI 300, Ryzen 8040, Ryzen 7040 - у всех этих чипов есть нейронный процессор, который при запуске Ollama простаивает.

И вот Lemonade Server появился именно для этого сегмента.

Читать далее

Русская рулетка с поиском: почему каждый десятый ответ в AI-выдаче — ложь

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели5K

ИИ все активнее в повседневных задачах, например стал частью поиска. Google и другие системы генерируют сверху LLM-сводку. Не надо тратить время на выбор ссылок и анализ информации — получаешь всё на блюдечке, даже с понятной версткой. 

Но все мы знаем, что ИИ выдает несуществующие факты, путает источники и делает некорректные выводы. Насколько часты эти ошибки? И критичны ли?

Рассмотрю, откуда они в поиске, на примере Google — только потому, что под руку попалось исследование его точности. Так-то поисковые ИИ-агенты чудят примерно одинаково.

Читать далее

Мы можем решать задачи компьютерного зрения без видеокарт. И вам советуем

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.7K

Когда-нибудь спрашивали себя, какие технологии должны быть в башке терминатора из фильмов Джеймса Кэмерона, чтобы он (терминатор) мог обрабатывать данные так, как он это делает в дилогии? (Остальные сиквелы/приквелы за фильмы мы не считаем – третья часть получилась вопреки желаниям создателей плохой комедией; последующие – попсовой стыдобой; более-менее спин-офф "Да придет спаситель", но и там слишком часто приходится протирать экран от липкой тонкой пленки плохого пафоса).

Если бы терминатор работал на современных технологиях, ему понадобилась бы голова размером с дом. Наверно, ему бы пришлось таскать с собой холодильники, которые охлаждали его постоянно перегревающиеся "мозги" — ну и все равно у него ничего не вышло бы. Потому что человечество еще не изобрело технологии такого уровня* – речь именно об эффективном (и энергоэффективном) компьютерном зрении. Только не приводите в пример Tesla, пожалуйста: терминатор в фильме умеет видеть, распознавать, классифицировать объекты примерно как человек; Tesla в этой точке не окажется никогда (и автопилота там тоже никогда не будет, если не появятся принципиально другие технологии).

*А мы изобрели.

узнать что-нибудь про индексацию видео

Ближайшие события

WebMCP. Что скрывается за черновиком стандарта

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели7.7K

Действия ИИ-агента в браузере через скриншоты и клики — минута и десятки центов. Через WebMCP — секунды и доли цента. Два порядка разницы.

Так что же под этим черновиком стандарта WebMCP и куда он нас ведёт?

Читать далее

Почему ваш LLM-бот врёт клиентам — и паттерн, который это чинит

Уровень сложностиСредний
Время на прочтение12 мин
Охват и читатели6.8K

Air Canada проиграла суд за слова чат-бота. Дилер Chevrolet «продал» Tahoe за доллар. Корень один: LLM одновременно решает что сказать и как. Под давлением точность проигрывает беглости. Разбор паттерна, который это чинит.

Читать далее

Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели7.5K

Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web‑составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta‑валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое‑многое другое.

Наш основной продукт — высококачественные web‑сервисы на стыке интеграции с игрой. И, да, интеграция — часть нашей работы.

А ещё мы любим новые технологии и стараемся с ними знакомиться, чтобы оценить, как они могут принести выгоду бизнесу и нам. Одна из таких технологий — LLM

Читать далее

Голосовой агент — это не чатбот с телефоном: 40 часов экономии и $100, сожженные на ботах

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели6.7K

Я однажды примерно за сутки сжег около $100 на голосовом агенте.

Не на большом запуске. Не на огромной базе. Не на хитрой рекламной кампании. Просто на небольшом пуле холодных контактов, где агент периодически попадал на voicemail, IVR, секретарей и других ботов.

В какой-то момент два не очень умных голосовых процесса могли довольно долго вежливо говорить друг другу что-то в духе:

Читать далее

Как я Zabbix с LLM дружил в свободное время. Архитектурный обзор взаимодействия с нейросетью. Часть 1 «При чем тут ТЗ»

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7K

Это первая статья из цикла о том, как я пытался сделать алерты Zabbix в домашней лаборатории чуть умнее, прикрутив к ним локальную LLM и не получить на выходе архитектурного монстра Франкенштейна.

В теории хотелось простого: система принимает события мониторинга, понимает их контекст, не дергает лишний раз по пустякам и подсказывает, куда смотреть в первую очередь. Но на практике необходимо начинать не с модели, не с кода и даже не с Docker Compose, а с нормального ТЗ.

В процессе написания материал разросся до неимоверных размеров, поэтому пришлось поделить его аж на четыре части. Ссылки буду добавлять по мере выпуска (примерно раз в одну-две недели).

Часть 1: Вводная и формирование ТЗ -> вы здесь
Часть 2: Выбор локальной LLM
Часть 3: Формирование HLD и немного LLD
Часть 4: Что из этого вышло

Читать далее

Пять способов как ИИ-агенты падают в проде. И ни один не про модель

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.6K

Replit-агент стёр прод и сгенерил 4000 фейковых юзеров чтобы скрыть это. n8n обновился и сломал схемы инструментов для OpenAI и Anthropic одновременно. LangSmith лежал из-за просроченного SSL-сертификата, который никто не мониторил. Пять уроков из реальных инцидентов. И ни один не про LLM.

Читать далее

Второй мозг строят все. Но большинство — не для себя

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели8.6K

В моём инфо-пузыре последний месяц все строят второй мозг в Obsidian по методу Карпатого и рассказывают, как это повышает эффективность агентов. Гист прочитан, vault переформатирован, Claude подключён.

Но никто особо не останавливается на вопросе: а для кого именно строится эта система — для агента или для себя? И есть ли вообще разница.

Читать далее
1
23 ...