Все потоки
Поиск
Написать публикацию
Обновить
858.85

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Тернистый путь GPT-5, память для Claude, олимпиадные войны моделей и их создателей: главные события августа в ИИ

Время на прочтение28 мин
Количество просмотров2.5K

В июле автор отдыхал, чтобы морально подготовиться к августовскому потоку релизов. Но в ИИ-сфере трудно быть к чему-то готовым — особенно когда в пределах месяца все вдруг разом решают выкатить свои новинки. OpenAI релизнули сразу две опенсорсные модели и наконец представили (долгожданную и спорную) GPT-5, Google запустили Gemini 2.5 Deep Think с параллельным ризонингом, а Anthropic и Deepseek обновили свои флагманы.  

И это только первые строчки списка. Еще были корпоративные войны, переманивание сотрудников, торговые санкции, победы на олимпиадах, интереснейшие исследования и многое другое. Так что давайте разбираться в этом нейросетевом переполохе вместе!

Читать далее

Эволюция автоматчинга в e-commerce: опыт команды Купер.тех

Время на прочтение9 мин
Количество просмотров1.8K

Привет, Хабр! Меня зовут Николай, и я ML-инженер в команде контента в Купере,
где уже год занимаюсь задачами автоматчинга. Этот материал — адаптация моего недавнего выступления, на котором я рассказывал, как мы стараемся сэкономить бизнесу время и деньги. 

Речь далее пойдет о матчинге товаров в ритейле: от ручного ввода до ML-пайплайнов с эмбеддингами и ранкерами. Если что-то покажется неясным или возникнет желание подискутировать о деталях, велком в комменты.

Читать далее

60 бесплатных уроков сентября: от Golang и FastAPI до ML и Kubernetes

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров6.6K

Хотите прокачать навыки в Golang, понять, как работает FastAPI, освоить практики MLOps или разобраться с Terraform? В сентябре вас ждут 60 бесплатных уроков по разным ИТ-направлениям: программирование, архитектура, инфраструктура, безопасность, тестирование, ML, аналитика и управление.

Каждое занятие — это разбор реальных задач, практические советы от экспертов и возможность понять, куда развиваться дальше. Выбирайте интересную тему и присоединяйтесь.

Читать далее

AudioStory: ИИ в роли звукорежиссера

Время на прочтение4 мин
Количество просмотров571

Сделать так, чтобы генерация звуковых историй с помощью ИИ была не просто приемлемой, а по-настоящему убедительной и атмосферной — долгое время казалось задачей на грани фантастики. Нейросети легко создают короткие аудиофрагменты, но стоит попросить их рассказать целую историю — получается нечто из лоскутков: перебивы, потерянная логика, путаные эмоции и швы между эпизодами. Весь тот вау-эффект, который обычно вкладывает звуковой режиссёр, будто бы ускользает.

Но вот появляется AudioStory. Теперь сюжет строится шаг за шагом, сцена за сценой, а ИИ постепенно учится не просто воспроизводить инструкции, а создавать цельные, логичные и реалистичные звуковые истории, где события тянутся друг за другом так же плавно, как и в настоящих фильмах или аудиокнигах. Как им это удалось и что внутри такого ИИ-звукорежиссёра?

Читать далее

Как приручить LLM: подбор инфраструктуры для инференса. Часть 1

Время на прочтение10 мин
Количество просмотров8.3K

Привет, Хабр! Меня зовут Антон, и сейчас я активно занимаюсь вопросами инфраструктуры для ML и AI. Когда клиент приходит с запросом в духе «Разверните мне Qwen», невольно задаешься вопросом: «А какая инфраструктура нужна для такой задачи?» Но если запрос становится более конкретным, например, «Разверните Qwen так, чтобы держать 10 RPS с задержкой до пяти секунд», то можно и вовсе растеряться. Как подобрать конфигурацию под такие требования?

В серии статей разберемся, как отвечать на такие вопросы. Рассмотрим, какие инструменты помогают быстро подобрать оптимальную инфраструктуру, как тестировать производительность инференса и автоматизировать процесс. Посмотрим, как пройти путь от ручных запусков примеров моделей до автоматизированного анализа работы фреймворков на GPU с подбором оптимальной конфигурации.

А еще в последнее время мне нравится тематика викингов и драконов (особенно та часть, которая связана с медовухой). Вместе мы напишем книгу по приручению самых разнообразных драконов или, как в простонародье, open source LLM. В ней рассмотрим разные типы драконов, какие «GPU-седла» подходят под каждого и какие инструменты использовать для приручения. Садитесь поудобнее, заваривайте что-нибудь крепкое и айда в уникальное путешествие на дракаре в волшебную долину драконов!

Читать далее

Комбинаторная теория переобучения повысила информативность трассерных исследований в нефтегазовых месторождениях

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров1.1K

Коллектив российских ученых исследовал применение методов машинного обучения для проектирования трассерных исследований. Целью было повышение достоверности результатов по выявлению гидродинамической связи в пласте между нагнетательными и добывающими скважинами в низкопроницаемых коллекторах с самопроизвольным развитием трещин гидроразрыва пласта (автоГРП) в нагнетательных скважинах. Работа была опубликована в российском журнале «Искусственный интеллект и принятие решений» и была выполнена совместно учеными и исследователями из МФТИ (г. Москва), ООО «РН-БашНИПИнефть» (г. Уфа) и ООО «РН-Юганскнефтегаз» (г. Нефтеюганск).

Читать далее

На дворе LLM, а книгу о перцептроне так никто и не открыл!?

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров7.8K

Сложно следить за околонаучными темами, и понимать, что ветка эволюции научного направления пошла не туда. Сейчас случился некий бум псевдонаучного взлета LLM, и я приведу в качестве современной статьи на хабре лишь одну, но это по прежнему массовое явление. Например, в статье компании Friflex за 2024 год История LLM-агентов: 10 ярких моментов по прежнему утверждается "На смену однослойному перцептрону Розэнблатта пришел многослойный. В статье Learning representations by back-propagating errors («Обучение представлений с помощью обратного распространения ошибки») Румельхарт и Хинтон показали, что многослойный перцептрон справляется с задачами, которые были не под силу его однослойному предшественнику. Например, с XOR. ". Совершенно излишне говорить, что это полное вранье, а авторы статьи даже не потрудились открыть эту статью, чтобы её прочитать. Это стало массовым явлением, и я его наблюдаю как минимум 20 лет, я когда то написал тут на хабре цикл статей объясняющих детали, лучше всего посмотреть эту Какова роль первого «случайного» слоя в перцептроне Розенблатта. Поэтому к этому возвращаться не будем. Я не знаю почему, может это массовая культура так влияет на людей, а порог вхождения в тематику ИИ слишком сложный? Не знаю, но не важно. Чтобы продемонстрировать скорость обучения перцептрона я написал несколько реализаций перцептрона Розенблатта и выложил их на гитхабе. А затем мы коснемся LLM.

Читать далее

Как Avengers‑Pro превращает зоопарк LLM в супер-роутер за счёт одного ползунка

Время на прочтение4 мин
Количество просмотров1.1K

Один ползунок — и все ваши языковые модели вдруг начинают работать как слаженная команда. Банально выбирать между «дорого, но точно» и «дёшево, но кое-как» больше не обязательно: Avengers‑Pro предлагает куда более хитрую стратегию. Он невыразимо просто сочетает разные LLM — от топовых GPT‑5 до резвых Qwen — и учится менять баланс между качеством и затратами одним движением. Всё прозрачно, гибко и легко регулируется, а результат — система, способная удивить даже опытных инженеров. Как удалось приручить весь этот зоопарк моделей и что это даёт на практике?

Читать далее

RAG и векторные БД: НЕ Сизифов LLM на Java и Spring Ai

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров10K

Привет! Меня зовут Бромбин Андрей, и сегодня я разберу на практике, что такое RAG-системы и как они помогают улучшать поиск. Покажу, как использовать Spring AI, векторные базы данных и LLM. Ты получишь теорию и пример реализации на Java и Spring Boot – от идеи до работающего сервиса. Без сложных формул – только чёткие объяснения и код.

Обновить резюме

Нейро-дайджест: ключевые события мира AI за 4 неделю августа 2025

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров2.4K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась интересной: апдейт DeepSeek v3.1, xAI выложили веса Grok 2, а PewDiePie собрал собственный сервер для LLM. Alibaba презентовала кодинг-агента Qoder, Apple делает домашних ИИ-роботов, а нейросети теперь читают ваши мысли и предсказывают будущее.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

Как служба поддержки ЮMoney научилась общаться с пользователями из разных стран, не зная их языка

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров1.1K

Привет, Хабр. Мы – Даша (инженер машинного обучения) и Наташа (ведущий аналитик в ЮMoney). В этой статье расскажем о системе машинного перевода, разработанной как end-to-end-решение для многоязычной поддержки в финтех-компании. Рассмотрим архитектуру, технические детали реализации и практические результаты внедрения системы. А ещё покажем, как общались с пользователем из Казахстана.

План статьи:

>> Проанализируем потребность в системе перевода — рассмотрим, почему языковые барьеры критичны для техподдержки и масштабирования бизнеса.

>> Обсудим выбор архитектурного подхода — почему остановились на специализированном агенте вместо универсальных LLM-решений.

>> Детально разберём техническую реализацию — как работают FastText для определения языка и NLLB для перевода и почему потребовалось 12 отдельных LoRA адаптеров.

>> Покажем систему в действии — полный цикл обработки обращения от клиента из Казахстана.

>> Завершим анализом результатов и метрик качества работы системы.

Читать далее

Кофе — мой type, музыка — мой out: строим NERвный-пайплайн на продуктовых запросах

Время на прочтение11 мин
Количество просмотров881

Привет, Хабр! На связи команда Ad-Hoc аналитики X5 Tech. В этой статье расскажем, как мы научили поиск извлекать важные сущности из запросов пользователей. Полный разбор реализации NER (Named Entity Recognition) для продуктового ритейла, шаг за шагом: как мы размечали данные, считали метрики на уровне токенов и сущностей — и почему для коротких и длинных запросов потребовались разные архитектурные решения.

Читать далее

Как строить умных AI-агентов: уроки Context Engineering от Manus

Время на прочтение9 мин
Количество просмотров6.3K

В самом начале проекта Manus перед нашей командой встал ключевой вопрос: обучать ли end-to-end агентную модель, используя open-source foundation-модели, или же строить агента поверх возможностей in-context learning у frontier models?

В моё первое десятилетие в NLP у нас и выбора-то такого не было. В далёкие времена BERT (да, прошло уже семь лет) модели приходилось fine-tune'ить и тестировать, прежде чем они могли переноситься на новую задачу. Этот процесс часто занимал недели на одну итерацию, даже при том, что тогдашние модели были крошечными по сравнению с сегодняшними LLM. Для быстроразвивающихся приложений, особенно на этапе до PMF, такие медленные циклы обратной связи — смертный приговор. Это был горький урок из моего прошлого стартапа, где я обучал модели с нуля для open information extraction и семантического поиска. А потом появились GPT-3 и Flan-T5, и мои внутренние модели стали не актуальны буквально за ночь. Ирония в том, что именно эти модели положили начало in-context learning — и открыли совершенно новый путь развития.

Из этого болезненного опыта выбор был очевиден: Manus делает ставку на context engineering. Это позволяет выпускать улучшения за часы, а не за недели, и держит наш продукт ортогональным по отношению к базовым моделям: если прогресс моделей — это прилив, то мы хотим, чтобы Manus был лодкой, а не сваей, вбитой в морское дно.

Тем не менее context engineering оказался далеко не тривиальным делом. Это экспериментальная наука — и мы перестраивали наш агентный фреймворк четыре раза, каждый раз находя более удачный способ формировать контекст. Мы с любовью называем этот ручной процесс перебора архитектур, подбора промптов и эмпирических догадок «Stochastic Graduate Descent». Это не изящно, но работает.

В этом посте я делюсь локальными оптимумами, к которым мы пришли через собственный «SGD». Если вы создаете своего AI-агента, надеюсь, эти принципы помогут вам сойтись к решению быстрее.

Читать далее

Ближайшие события

Как и зачем мы в YADRO сделали свою MLOps-платформу

Уровень сложностиСредний
Время на прочтение13 мин
Количество просмотров5.1K

В нашей компании есть много проектов, связанных с AI. Всем им нужны ресурсы для работы с моделями на GPU. «Хотим, чтобы только мы имели доступ к оборудованию», — это лишь одно из требований инженеров из AI-дивизиона, а еще нужно оптимизировать использование GPU-ресурсов, вести их учет и быстро подготавливать оборудование к передаче другой команде.

Привет, Хабр! Меня зовут Вадим Извеков, я руководитель группы сопровождения платформы машинного обучения в YADRO. Сегодня расскажу, почему мы решили создать свою MLOps-платформу, как она устроена и для чего используется. 

Читать далее

Строим корпоративную GenAI-платформу: от концепции до ROI. Часть 5. Внедрение GenAI и измерение эффекта

Время на прочтение8 мин
Количество просмотров3.6K

Это пятая и финальная статья специалиста по архитектуре ИТ-систем и трансформации ИТ-ландшафта Дениса Прилепского из серии «Строим корпоративную GenAI-платформу: от концепции до ROI». Переход от пилота к масштабируемому GenAI-решению требует не только технической зрелости, но и четкого понимания бизнес-целей. В статье рассматриваются метрики, подходы к масштабированию, обучение пользователей и типовые ошибки, с которыми сталкиваются компании на пути к измеримой ценности от GenAI.

Читать далее

Как OpenAI передаёт ИИ «голос общества»: итоги коллективного эксперимента

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров1.1K

OpenAI представила результаты масштабного исследования, в котором более тысячи человек со всего мира оценивали поведение языковых моделей в этически сложных ситуациях. Это часть программы по так называемой «коллективной настройке» (collective alignment), цель которой — приблизить ответы ИИ к общественным ожиданиям.

Читать далее

Записки с медицинской ИИ-фабрики

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров1.2K

Мы обучаем медицине большую языковую модель GigaChat и создаём агентов для здравоохранения на её основе. Наша модель уже сдала множество экзаменов и даже устроилась на работу. Как и в других сферах ИИ, в медицине мы делаем то, что раньше было фантастикой, а теперь быстро входит в практику. Давайте я вам об этом расскажу.

Читать далее

LLM против хаоса: как я автоматизировал ревизию прав доступа в админке Авито

Время на прочтение7 мин
Количество просмотров7.3K

Привет! Я Андрей и сегодня расскажу, как сделал мультиагентную систему, которая автоматизировала ревизию доступов в бэкофисе Авито, копившихся годами. Вы узнаете, как собрать LLM-систему с четырьмя агентами и супервизором, которая не только сгенерировала описания прав доступа, но и с точностью 77% нашла их владельцев без передачи кода и документации внешним моделям. Вперед к прочтению!

Читать далее

Тест-драйв Nano Banana (Gemini 2.5 Flash Image): новый фотошоп и революция в редактировании изображений от Google

Время на прочтение4 мин
Количество просмотров10K

Вчера вышла модель Gemini 2.5 Flash Image (промо название Nano Banana), которая, возможно, изменит мир работы с изображениями так, как это сделал своим появлением фотошоп. На превью — краткий пример возможностей, в посте — полная версия гифки и много классных экспериментов на все виды редактирования картинок, посмотрим с чем моделька справляется хорошо, а с чем не очень.

В заголовке написано «революция», «новый фотошоп» — это, возможно, все же преувеличение. Или нет. Штука очень крутая, залипал с ней до самого утра.

Давайте смотреть.

Читать далее

ElizaOS v2: из мемного AI-фонда в полноценную систему для агентов

Уровень сложностиСредний
Время на прочтение11 мин
Количество просмотров835

Помните ai16z, тот самый “хедж-фонд на ИИ” с отсылкой к Andreessen Horowitz? Так вот, из шутки он вырос в ElizaOS v2 — open-source фреймворк, который реально позволяет собирать автономных агентов.

Сегодня это уже не набор скриптов, а полноценная операционная система для цифровых компаньонов: с собственной памятью, мозгом (LLM) и возможностью работать напрямую с Web3 и внешними сервисами. Короче, из бот-игрушки он превратился в инструмент для серьёзных автономных агентов в Web3. В этой статье я разберу архитектуру ElizaOS v2, покажу ключевые компоненты и объясню, зачем она нужна нам, разработчикам.

Читать далее

Вклад авторов