Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 138,73
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Я устал читать 100+ сообщений в Telegram и написал бота, который делает саммари и отвечает как AI-ассистент

Время на прочтение3 мин
Охват и читатели5.7K

Всем привет, меня зовут Ян, я разработчик. Мне интересно следить и участвовать в дискуссиях на разные темы: разработка, devops, it стартапы, чаты друзей, собственников жилья - не важно). Все эти обсуждения живут в Telegram и в Max в том числе, но сейчас речь про Telegram.

Однажды утром я проснулся и увидел в чате друзей 127 новых сообщений.
Чтобы понять, о чём вообще был разговор, мне нужно было:

● Пролистать весь чат.

● Прочитать десятки реплик.

● Восстановить контекст обсуждения в своей голове.

В какой-то момент появилась простая мысль:
"Почему нельзя просто получить краткое саммари обсуждения прямо в личку по подписке или увидеть сводку в чате? Чтобы бот прочитал всё за меня и выдал краткую, но понятную выжимку".

Проблема Telegram-чатов

Если вы состоите в нескольких активных чатах, ситуация до боли знакомая. За несколько часов может накопиться 100–300 сообщений. Если вы пропустили бурное обсуждение, возникают две классические проблемы:

Потеря контекста. Если вы не участвовали в разговоре с самого начала, въехать в суть сложно. Нужно читать десятки сообщений, чтобы понять, кто кому что ответил.

Потеря времени. Даже если обсуждение не особо важное, вы всё равно тратите драгоценные минуты, чтобы понять: «А о чём тут вообще трещат? Стоит ли вникать?»

Мне хотелось получать что-то вроде этого сразу в лс:

Пример саммари:

Стоит ли переходить на MacBook с процессором M3Ivan спрашивает, стоит ли менять MacBook на M3. AlexDev говорит, что на обычных задачах разницы почти нет, а RomanCode отмечает прирост скорости на тяжёлых сборках. Итог: апгрейд оправдан только для ресурсоёмких проектов.

Читать далее

Цифровая муза: искусство в эпоху нейросетевой революции

Время на прочтение9 мин
Охват и читатели5.2K

Угадаете, какое изобретение кардинально изменило жизнь человечества?

Культура никогда не стоит на месте. Искусство, в частности живопись, графика и скульптура, долгое время были плодом человеческого ума и вдохновения. И внутри него постоянно менялись язык и инструменты, благодаря которым художник мог выразить себя, своё ощущение исторического момента или же показать уровень достатка и интеллекта заказчика. Не будем забывать, что искусство долгое время было развлечением для аристократии (элиты, олигархии, буржуа - подставьте тот вариант, что вам ближе). Но постепенно всё начало меняться. Искусство становилось ближе к народу благодаря одному инструменту, который переломил историю человечества на до и после. И нет, это не искусственный интеллект. Это печатный станок Гутенберга. 

Меня зовут Артур Вартанян, я ведущий контент-менеджер в компании RUTUBE, арт-энтузиаст и бывший журналист. В этой статье я вам расскажу, как искусственный интеллект повлиял на нашу культуру и при чем тут изобретение немецкого книгопечатника.

Читать далее

Нас не заменят! Или почему CRM в эпоху ИИ не теряют актуальности

Время на прочтение7 мин
Охват и читатели5.8K

Представьте себе: вы много лет работаете с рекламным агентством, заказываете у них рекламу своего приложения, например, для редактирования PDF. У вас личная дружба с менеджером Аллой, скидки, особые условия поставки, вам делают закупку медийки под акцию, даже если вы пришли утром и медийка нужна через час. Вы даёте агентству немаленькие деньги, они вам — лояльность. И вот вы выкатываете релиз с уникальной фичей и вам нужно покрыть рекламой все каналы максимально срочно, потому что не исключено, что конкуренты эту фичу тоже вскоре запилят (если ещё нет). Звоните, а вместо Аллы — Лариса, которой вы не можете донести ни одной мысли и понимаете, что она робот, счёт выставляется без скидки, сроки — строго по формальному договору, никаких исключений. Дозваниваетесь в конце концов на мобильный Аллы, а у неё зомби апокалипсис все полномочия заменил выгодный ИИ-агент и она ничем больше не может вам помочь. Для агента вы — кожаный мешок с деньгами, у которого деньги нужно забрать, выполнив работу строго и по алгоритму. Вы выкупаете рекламу, потому что она вам сейчас очень нужна, но вряд ли вы вернётесь к электро-Ларисе. Это хороший, отчасти собирательный, образ того, что делают с ИИ в малом и среднем бизнесе.

Читать далее

Практическое руководство по Qwen: установка, настройка vLLM и работа через API

Время на прочтение8 мин
Охват и читатели16K

Разворачивать LLM на своих мощностях часто приходится не из-за любви к self-hosted решениям, а ради контроля над данными и предсказуемого инференса. И обычно этого еще требуют стандарты безопасности или архитектура внутренних инструментов компании.

В статье покажем, как поднять Qwen на своем облачном сервере через vLLM. На выходе получим стандартный OpenAI-совместимый API с авторизацией по токену и интерфейс Open WebUI для тестов. Детали внутри.

Читать далее

Как мы встроили LLM в Data Quality и не потеряли контроль

Уровень сложностиСредний
Время на прочтение12 мин
Охват и читатели4.6K

Привет, Хабр! Меня зовут Макунина Арина, я аналитик и инженер данных в Just AI.

Рутина в работе с качеством данных почти всегда сводится к бесконечному повторению одних и тех же шагов: созданию проверок для новых таблиц и однотипному расследованию инцидентов. И без автоматизации команда может терять слишком много времени на повторяющиеся шаги.

Рассказываем, как с помощью LLM мы превратили рутинные проверки данных в спокойный и предсказуемый процесс и экономим свыше 80% рабочего времени.

Читать далее

Спецификации вместо промптов: как мы перестраиваем фронтенд-разработку с помощью ИИ

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели5.9K

Использование ИИ в разработке давно вышло за рамки генерации простых функций. Для крупного финтеха это вопрос системной интеграции и безопасности. В ИТ-кластере «СВОЙ Тех» мы постоянно ищем способы оптимизации Time-to-Market. В этом материале мы делимся опытом того, как заставить нейросети работать с легаси-кодом, зачем им доступ к Figma через MCP-протокол и почему будущее за Spec Driven Development.

Посмотреть кейс

Волков бояться — uplift в прод не катить, или AUF 2.0

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели4.7K

Всем привет! Меня зовут Мельников Виктор, middle data scientist в Альфа-Банке в Управлении по разработке инструментов автоматизации моделирования.

Год назад вышла статья о первой open source библиотеке Альфа-Банка для автоматического построения uplift-моделей Automatic Uplift Framework или же, сокращённо, AUF🐺. В ней мы рассмотрели основной функционал библиотеки с примерами кода. Также в ней можно найти ссылку на ноутбук с примером кода на открытом датасете.

Прошел год, пришла пора рассказать о новшествах, а также о результатах применения библиотеки в Альфа-Банке. Также в конце будет ссылка на обновленный пример кода, с которым ты сможешь сразу начать строить uplift-модели быстро и качественно! Достаточно создать окружение с Python 3.8 и выполнить в нем команду pip install auf. Также доступен исходный код библиотеки на GitHub.

В статье начнём с разбора того, как AutoML помогает превратить сложный поиск инкрементального эффекта в эффективный промышленный процесс. Вспомним основы uplift-моделирования и на практических кейсах покажем, как автоматизация ускорила разработку, позволила внедрить автопереобучение в продакшн и успешно реализовать поддержку мультитритмента. Вы узнаете, в каких сценариях AUF приносит максимум пользы, с какими ограничениями можно столкнуться и как использовать библиотеку для решения задач вашего бизнеса.

Кроме прикладных кейсов, заглянем «под капот» архитектурных обновлений: от рефакторинга оптимизатора до продвинутой аналитики в стиле профи. Мы разберем новые режимы обучения, кастомизацию и инструменты глубокого анализа моделей, такие как оценка чувствительности сегментов и сравнение с моделями склонности. В завершение поделимся результатами масштабного рефакторинга кода, который сделал систему стабильнее, и расскажем, как наше видение «умных и свободных» моделей воплощается в жизнь прямо сейчас

Читать далее

«Музыка на костях», или как современный ИТ-бизнес лишил пользователей субъектности

Время на прочтение4 мин
Охват и читатели5.2K

«Можно, я не буду регистрироваться — давайте обсудим всё, как раньше?» — возмутился старый клиент одного уважаемого сервиса, когда ему предложили завести аккаунт на новой платформе.

Медицинскую клинику у приличных людей сегодня выбирают не по рейтингу, не по врачам и не по локации. А по тому, в чьих руках окажется анамнез после лечения. Попадали ли когда-нибудь анализы её пациентов в открытый доступ? Если нет — можно рискнуть. Гарантий, впрочем, никаких.

Читать далее

KV-кэш, экспертное сообщество и критическое мышление

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели4.2K

Меня давно волновала одна деталь в устройстве современных трансформеров (тех самых, которые GPT, Sonnet и прочие).

Механизм внимания всегда работает только назад. От многих экспертов (включая курс Эндрю Ына на Курсере) я слышал такое объяснение: Слово не может ссылаться на слова, которые оно ещё не знает. Назвается это казуальностью (причинностью).

Но ведь в предложении “Зелёное яблоко лежит на столе” слово зелёное уже знает про слово “яблоко”, но не может на него сослаться. Непонятно

Провёл небольшой эксперимент и подключил нечеловеческий мозг.

Читать далее

Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели12K

Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp.

Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.

Читать далее

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели3.9K

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

Один твит про «лечение столбняка для дяди» — и автономный агент Lobstar Wilde переводит незнакомцу 5% всего предложения криптопроекта. Это не сценарий киберпанк-триллера, а реальность февраля 2026 года.

Если вы используете OpenClaw или любой другой фреймворк для self-hosted агентов, эта история касается вас напрямую. Почему одни инстансы раздают бюджет первым встречным, а другие остаются в безопасности?

Внутри статьи:

Анатомия 6 крупнейших провалов: от «Тахо за $1» в Chevrolet до разбитых витрин в Чикаго и краха GPT-5 на криптобирже.

Где у агента дыры: разбираем уязвимости на уровнях Input, Reasoning, Tools и Memory.

Архитектура выжившего: четыре конкретных принципа и конфиги, которые отделяют полезного помощника от «заряженного пистолета без предохранителя».

У меня на сервере сейчас крутится OpenClaw-агент. Он может читать, писать, перезагружать контейнеры, лезть в базы, выполнять shell-команды. У него куча прав. Но у него нет доступа к платёжным API. У него нет ключей от криптокошельков. У него нет возможности инициировать что-то, чего нельзя откатить одним git reset или docker restart.

Разбираемся, как не попасть на рекламный плакат с извинениями за разбитую инфраструктуру.

Читать далее

Как получать эффект от ИИ, когда нет железа

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели4.5K

Вы уверены, что для внедрения корпоративного ИИ в закрытом контуре нужны суперкомпьютеры? Мы решили это проверить и добиться вменяемого качества от крошечной модели в максимально жестких условиях. CPU вместо GPU, закрытый контур.

Кейс – научить крошечную LLM отвечать на вопросы по программе газификации РФ. В статье пошаговый разбор, код LLLaMBA для автоматизации бенчмарка и готовые конфиги. Повторите эксперимент на своих данных!

Узнать, как мы это сделали

Экономика LLM-инференса: почему ваш финдир должен знать разницу между Prefill и Decode

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели3.5K

В 2025 году рынок корпоративного ИИ-инференса составил  ~100 миллиардов долларов. Но парадокс в том, что успех автоматизации бизнес-процессов с помощью LLM зависит не только от выбора модели, а от глубокого понимания двух принципиально разных этапов работы нейросети: Prefill и Decode. Игнорирование их различий — самая дорогая ошибка в AI-инфраструктуре, которая может исказить реальную стоимость запроса в 10-50 раз.

Два подхода для обработки одного запроса

LLM-инференс — это не монолитный процесс, а две технологически несовместимые фазы. Prefill (обработка входящего промпта) — это пиковая вычислительная нагрузка. Модель загружает и анализирует весь входной контекст, создавая так называемый KV-кеш. Это высокопараллельная операция, которая нагружает тензорные ядра GPU на 90-95%.

Как только модель начинает генерировать ответ по одному токену, начинается Decode. Это совершенно другой процесс - последовательный и лимитированный пропускной способностью памяти. Утилизация GPU на этой фазе драматически падает до 20-40%, а то и до 15-30%.

Именно поэтому экономика «плоского тарифа за токен» в корне неверна. Запрос на 2000 токенов промпта с 50 токенами ответа потребляет в разы больше ресурсов GPU, чем запрос с 10 токенами промпта и длинной генерацией на 2000 токенов, хотя общее число токенов сопоставимо.

Железо решает: скорость в час пик

Связывать обе фазы с одной и той же дорогой железкой — все равно что возить на суперкаре почту в час пик. Как это выглядит на рынке GPU:

NVIDIA H100 (80GB) — флагман за $25-35 тысяч за карту. Его массивные тензорные ядра и архитектура Transformer Engine идеальны для быстрого Prefill, но на Decode простаивают, ограниченные пропускной способностью памяти.

Читать далее

Ближайшие события

Как я проектировал интерфейс трейсинга для ИИ‑агентов

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели3.4K

Привет, меня зовут Егор, я работаю продуктовым дизайнером в команде, которая разрабатывает облачные сервисы для создания ИИ-агентов. Мне нужно было спроектировать интерфейс трейсинга (tracing), который помогает быстро найти проблемное место и понять, как агент пришел к такому результату. В статье расскажу, какой путь я прошел и что получилось.

Работа с ИИ-агентом выглядит так: пользователь задает запрос, агент отвечает и по пути обращается к языковой модели, инструментам и внешним сервисам. Когда результат получается неожиданным или агент ошибается, понять причину, почему так вышло, сложно: между запросом и ответом скрывается цепочка действий.

Важно, что у агентных сценариев одна особенность: это уже не один вызов модели — один ответ. Агент может планировать шаги, пересобирать план, вызывать инструменты каскадом, возвращаться к уже пройденным шагам и попадать в смысловые циклы. Из‑за этого путь выполнения легко становится непрозрачным и недетерминированным, и без трейсинга разбор превращается в догадки.

Читать далее

Зачем нужна система мониторинга СМИ, если можно спросить ChatGPT?

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели3.5K

Привет! Я Александр Жариков, архитектор сервисов анализа информации СКАН, Группа «Интерфакс». Последние 15 лет я занимаюсь алгоритмами, которые читают тексты и извлекают из них смысл. Вопрос, который дал название этой статье, не так давно задал мне студент после моего доклада. И он далеко не такой наивный, как кажется на первый взгляд. Если у вас есть собственное NLP-ядро, которое вы развивали полтора десятка лет, – это актив или уже балласт в эпоху LLM? В этой статье я разбираю, почему специализированные алгоритмы все еще выигрывают на промышленных объемах у универсальных языковых моделей и где LLM действительно усиливают наше ядро, а не заменяют его. Я не буду писать о конкретных алгоритмах и используемых нейросетях – я опишу лишь общие подходы в стиле популяризации компьютерной лингвистики и порассуждаю об алгоритмическом NLP.

Читать далее

Анализ и модернизация коннектора баз данных с помощью AI-агентов

Уровень сложностиСредний
Время на прочтение23 мин
Охват и читатели4.7K

4-я статья из цикла туториалов о вариантах кастомизации своего бизнес-портала в Битрикс24.

Сегодня рассказываем о работе с уже существующим проектом через AI-агентов. ИИ хорошо справляется с созданием новых приложений, но при работе с готовыми проектами чаще возникают сложности — например, при разборе архитектуры и внесении изменений без поломок

В статье проанализируем существующий проект BI-коннектора, который нужен для работы с аналитикой, подключим его к порталу, покроем тестами и оптимизируем работу с базами данных. По ходу работы подробно разберём устройство проекта, его назначение и использование для бизнес-целей.

Читать далее

Mythos и реальность

Время на прочтение6 мин
Охват и читатели5.1K

Недавно все мы услышали громкое заявление Anthropic «наша модель Mythos очень опасна из-за своих хакерских способностей». Когда (пока) к модели нет массового доступа, человечеству сложно проверить, как все обстоит на самом деле, а хайп разгонял ряд событий:

в США и Великобритании прошли экстренные совещания в банковском секторе о том, как действовать в новых реалиях;

OpenAI представили свой «вариант для кибербезопасности» GPT‑5.4‑Cyber;

а сервис cal.com заявил, что из опенсорсного станет закрытым, потому что обеспечивать безопасность открытого кода теперь слишком сложно.

Но. Появились первые сторонние тексты с анализом способностей Mythos. Это позволяет получить хотя бы частичное, не по заявлениям Anthropic, понимание ситуации. Поэтому мы собрали их в один хабрапост, чтобы разобраться: что в Mythos миф, а что реальность, и насколько стоит обращать внимание на происходящие?

Читать далее

Возвращение легенды: почему Fortran снова в топе и где его использовать сегодня

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели6.3K

Я взглянул на апрельский рейтинг TIOBE за 2026 год и протёр глаза. Python, C, C++, Java, C# — скучно. Но вот на 10-й строчке восседает Delphi. А Fortran, язык, на котором писали ещё при царе Горохе и который, по мнению всей «модной» тусовки, давно должен лежать на свалке истории, стабильно держится в топ-15. В марте 2025 года он вообще ворвался в двадцатку вместе с такими «мамонтами», как Ada и COBOL.

Что за чертовщина? Rust, который кричали на каждом углу как «убийцу С++», пыжится на 16-м месте, а его рост, по словам генерального директора TIOBE Пола Янсена, замедляется. В это же время Fortran, тихо и без лишнего шума, продолжает быть фундаментом, на котором держится вся мировая наука. Почему компании не переписывают миллионы строк легаси на Python или Go? Потому что цена ошибки в коде, который считает ядерный реактор или прогноз погоды на завтра, исчисляется не в часах разработчика, а в миллиардах долларов и человеческих жизнях.

Давайте разбираться, что такое современный Fortran и почему ваш скепсис по поводу «динозавра» не имеет под собой никаких оснований.

Почему код деда всё ещё быстрее Rust

PicoClaw на Arduino Uno Q

Время на прочтение25 мин
Охват и читатели8.1K

Мода на ИИ-помощников, кажется, достигла своего пика. Даже далекие от этой темы люди начинают интересоваться, что это за OpenClaw такой и как бы его установить. Более прошаренные скупают Mac Mini M4 просто потому, что 16 Гб объединенной памяти + нейропроцессорные ядра позволяют гонять локальные модели, а само по себе устройство тихое и с небольшим энергопотреблением.

Если присмотреться получше, у OpenClaw есть не только достоинства, но и ощутимые недостатки. Речь даже не о безопасности, а банально о системных требованиях. В частности, базовый минимум — 2 Гб ОЗУ, а рекомендованное значение — вообще 4 Гб. Плюс CPU нужен хотя бы 4-поточный, иначе возможны проблемы при работе с параллельными задачами.

Вот тут на сцене появляются наши китайские товарищи из Sipeed. Да-да, те самые, которые делают миниатюрный NanoKVM (о нем мы рассказывали в конце 2025 года). «Подержите наше Tsingtao», — заявили они и выпустили PicoClaw — AI-ассистента, которому надо всего лишь 10 Мб ОЗУ и который работает на любом одноядерном CPU со скоростью 600 МГц. Сегодня мы глянем на это чудо китайской мысли внимательно и запустим его на Arduino Uno Q

Читать далее

Как ИИ трансформирует геймдев

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.5K

Останутся ли геймдизайнеры на улицы? Или не все так мрачно? Пособирав живой фидбэк, полазив на Реддите и Стакэксчейндже, ну и подключив голову я сделал пару кое-каких наблюдений. 

Читать далее