Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 087,66
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Ваш RAG не умеет думать. А мой умеет

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

Привет, Хабр!

Базовые RAG-системы уже научились неплохо справляться с прямыми вопросами по тексту. Но только если ответ лежит в одном конкретном абзаце, а вопрос сформулирован почти так же, как сам исходный документ. Попробуйте заставить систему связать факты из трёх разных источников или сделать банальный логический вывод. В большинстве случаев результат будет неутешительным. А уж про поиск скрытых связей я даже спрашивать боюсь.

Сегодня рассмотрим open-source RAG-фреймворк HippoRAG 2. В сфере RAG главным преимуществом данного фреймворка является качество ответов, потому что принципы его работы основаны на реальном человеческом мозге. Давайте разберёмся, откуда он взялся, как устроен изнутри и как его запустить.

Читать далее

GLM 5.1 vs. DeepSeek V3.2: сравниваем топовые китайские модели

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели6.6K

В Veai мы регулярно тестируем и сравниваем модели, которые доступны у нас в плагине. Каждая модель, которую мы добавляем проходит через наш собственный бенчмарк, прежде чем попасть в продакшн. Недавно тестированию подверглись GLM 5.1 и DeepSeek V3.2. Делимся результатами.

Читать далее

Загадочный чатбот из 60-х, к которому стояли очереди из девушек

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5.2K

В одном из кампусов Массачусетского техинститута в 1966 году стали происходить очень странные дела. У дверей одной из лабораторий начали собираться стайки студенток и лаборанток, которым очень нужно было попасть внутрь хотя бы на 10 минут.

Нет, там не крутили только что вышедший битловский “Revolver”. Приманка для прекрасного пола была несколько технологичней: внутри располагался первый в истории созданный человеком чатбот. Его, а вернее её, звали ELIZA и она умела пленять собеседников не хуже античной сирены.

И это пугало ее создателя.

Читать далее

Разбор архитектуры и тест-драйв OpenAI Privacy Filter на бенчмарке персональных данных на русском

Время на прочтение7 мин
Охват и читатели7.1K

22 апреля 2026 OpenAI выложила Privacy Filter — маленькую открытую модель, которая ищет и маскирует персональные данные прямо на устройстве. Без облаков, утечек и горы регулярок. В анонсе — 97% F1, длинный контекст, восемь классов чувствительных сущностей и обещание мультиязычности.

Джонов из Айовы или Вошингтон Ди Си она находит замечательно, а что насчет Максима Улугбековича из Нижневартовска? А Галин Палны из Урус-Мартана? У меня возникло простое человеческое желание потестить все это в реальных условиях, поэтому я собрал небольшой бенч на русском и хочу поделиться разбором модели и результатами.

А результаты, мягко говоря, из коробки совсем не звездные.

Читать далее

Как OpenAI убила DALL-E?

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели11K

R.I.P. DALL-E!!!

Я помню, как впервые попробовал DALL-E.

Я ввел какую-то глупость типа «кот в деловом костюме читает газету», и — бац — картинка появилась. Я просто пялился в экран секунд десять.

Именно в тот момент многие поняли: ИИ уже здесь. Не в лаборатории, не в научных статьях. А прямо перед тобой, на мониторе.

Это было несколько лет назад.

А теперь всё. Проект закрыт.

OpenAI объявила, что поддержка DALL-E 2 и DALL-E 3 прекратится 12 мая 2026 года. Никаких прощальных постов. Никаких «спасибо, что были с нами». Просто сухое уведомление о прекращении поддержки и ссылка на новую модель.

Читать далее

AutoML для NLU без ручной настройки: делимся библиотекой OpenAutoNLU

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели7.7K

Большинство существующих AutoML-библиотек либо не поддерживают обучение моделей для понимания естественного языка (Natural Language Understanding, или NLU) из коробки, либо не умеют обучать хорошие out of scope детекторы, либо неудобны и требуют расширенной экспертизы для использования.  

Для того чтобы решить эти проблемы, мы в MWS AI разработали OpenAutoNLU — опенсорс-библиотеку для NLU, включающую диагностику качества данных, гибко настраиваемый пайплайн обучения модуля фильтра запросов, которые не относятся ни к одному из известных текстовых классификаторов меток OOD, и функции LLM. Делимся ей на GitHub

Под катом разберу, как устроен фреймворк, за счет чего он работает с минимальным вмешательством разработчика и какие результаты уже есть.

Поехали!

Почему ИИ пока не увольняет целиком: разбор «зон автоматизации» и реальных данных по задачам

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели6.7K

Разбираемся, где на самом деле проходит потолок возможностей современных моделей и какие задачи останутся за человеком в ближайшие годы.

Читать далее

Доступность товара в «Магните»: от эвристик до CUSUM и GEE-тестов

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели8.2K

Привет, Хабр! Меня зовут Ян Пиле, руковожу в MAGNIT TECH направлением развития алгоритмов доступности товаров. Задача моей команды: сделать так, чтобы в магазине, куда вы зашли за своим любимым майонезом, он с большей вероятностью оказался на полке. А если не оказался — чтобы сотруднику магазина как можно быстрее прилетело задание: «проверь, почему именно этой позиции сейчас нет, и, если возможно, верни её обратно».

Мы уже дважды писали про OSA (On-Shelf Availability — уровень доступности товара на полке). В статье «Как OSA превращает пустые полки в полные корзины?» рассказывали про продуктовый контекст: зачем эта история нужна бизнесу и почему «товар числится в системе» и «товар реально лежит на полке» — это два совершенно разных утверждения. А в статье «Когда 0 в продажах — аномалия? CUSUM для поиска проблем в ритейле» мы подробно разбирали один из рабочих алгоритмов команды. В этот раз я хочу пройтись по всему стеку детекции целиком — от самых простых правил до А/Б-тестов, в которых приходится бороться с зависимыми наблюдениями.

Читать далее

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели8.6K

В последний год разговор об AI всё чаще сводится к сравнению моделей и их возможностей. Но если смотреть шире, становится видно, что главные изменения происходят не только на уровне качества ответов: меняются сами технологические тренды, сценарии внедрения и контуры конфликтов вокруг AI.

Редакция MIT Technology Review в своем ежегодном обзоре выделила 10 направлений, которые сегодня лучше всего показывают, куда движется искусственный интеллект — от новых архитектур и агентных систем до вопросов безопасности, регулирования и общественного сопротивления.

Главные тренды

vLLM, LoRA и GPU-кластеры: техническая анатомия обогащения поисковой выдачи Авито мультимодальными моделями

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7K

Привет, Хабр! Меня зовут Кирилл Нетреба, я Backend-ML-инженер в Авито. В этой статье я разберу, как мы научили платформу отыскивать нужные пользователю объявления, даже если в них нет соответствующего запросу текста. Мы препарируем связку из Qwen2.5-VL, фреймворка vLLM и LoRA-адаптеров, а также заглянем в бэкенд-инфраструктуру, которая переваривает миллионы обновлений в сутки без деградации latency.

Это история о том, как в эпоху, когда традиционный полнотекстовый поиск бессилен перед лаконичностью пользователей, ему на помощь приходит машина, обученная на изображениях и языке.

Читать далее

Мысли об одной продуктовой ошибке подавляющего большинства GenAI компаний

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6.6K

Основные игроки рынка GenAI совершили фундаментальную продуктовую ошибку. Продавая доступ к API разработчикам, они одновременно копируют лучшие сторонние юзкейсы в свои подписочные продукты - и тем самым каннибализируют собственный API-бизнес и душат конкуренцию на рынке. В статье разбираю, почему текущая двойная модель монетизации (подписка + pay-as-you-go) вредит индустрии, и выдвигаю гипотезу: за токены должен платить пользователь, а не разработчик. Объясняю, как такой сдвиг вернул бы рынку здоровую конкуренцию и дал бы шанс соло-фаундерам и небольшим командам.

Читать далее

Как дообучать локальные LLM в 2026 году: практическое руководство

Уровень сложностиСредний
Время на прочтение19 мин
Охват и читатели15K

В 2026 году дообучение локальных LLM перестало быть задачей «для тех, у кого есть кластер и бюджет». Снижение требований к VRAM, развитие QLoRA и появление инструментов вроде Unsloth сделали возможным запуск полноценного fine-tuning на обычной потребительской видеокарте. Это меняет практику: теперь модель можно адаптировать под свои задачи без облаков и внешних API, контролируя и данные, и поведение.

В статье разбирается весь процесс — от момента, когда вообще стоит задуматься о дообучении, до подготовки датасета, настройки обучения и оценки результата. Без абстракций и с фокусом на реальных ограничениях: память, время, качество данных и то, как не получить на выходе модель, которая «что-то выучила», но работать с ней невозможно.

Открыть материал

Уроки прошлого: чему нас учит история автоматизации в промышленности

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели11K

Вы боитесь потерять работу?

Вопрос звучит почти банально, но за последние несколько лет страх увольнения вырос до уровня скримера из фильма ужасов. И это не только ваше ощущение. Практически каждый человек с работой так или иначе боится её потерять. Я слышу это ежедневно — в комментариях к статьям, в консультациях, в соцсетях, даже в разговорах с друзьями. Никто не чувствует себя в безопасности.

Почему?

Причин много. Но одна из них — постоянный фон из Big Tech и медиа, которые последние годы повторяют одно и то же: ИИ идет за вашими рабочими местами. И на этот раз «новая версия» искусственного интеллекта не пощадит никого.

Это правда?

Я много работаю с ИИ. И уже 15 лет объясняю людям, почему ИИ не должен автоматически означать конец их профессии.

Давайте попробуем спокойно соединить точки. Картина получается не истеричная — но отрезвляющая.

Читать далее

Ближайшие события

Что я вынес из AMA с инженером Anthropic: 12 инсайтов про Claude Code, которые нигде не написаны

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели8.8K

20 000 заявок, тобрали меньше 2%. Я оказался в числе участников хакатона Anthropic, где инженеры компании в живом AMA рассказывали то, что не попадает в документацию.

Skills вместо агентов. Opus 4.7, который читает ваши инструкции настолько буквально, что ломает привычные workflow. Memory-слой поверх встроенного. Verification-паттерны для продакшена. И ещё 8 конкретных приёмов, которые я проверил на своих проектах.

Без воды, без “10 промптов для продуктивности”. Только то, что реально меняет работу с Claude Code.

Читать далее

Почему Cluely и другие плохо слышат русских айтишников: разбор того, как Whisper ломается и что мы сделали с этим

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

В январе я купил подписки на Cluely, Final Round AI и Sensei. Хотел посмотреть как они справляются с русским айти-собесами, раз уж все три заявляют о поддержке русского. Подключил по очереди к тестовому звонку в Телемосте (сомневаюсь, что платформа имела роль, но все же), прогнал одну и ту же запись: Senior Python backend разработчик, 45 минут, стек FastAPI + PostgreSQL + Kafka + Kubernetes. Обычный русский спикер, если важно - из Москвы, с речью проблем не было, нормальный микрофон

Все три выдали транскрипт и все три провалились, как неожиданно..

"Кафка" в половине случаев становилась "как-то" или "кофта". "Кубернетис" превращался в "губер нет тест". "Сабскрайбер патерн" - в "саб скрайп патерн". "Middleware для CSRF" - "мидл-вер для си эс эр эф" - это еще норм

Проблема не в том, что человек говорил по-русски, и не в том, что Whisper не умеет русский (сноска: хорошо не умеет). Whisper умеет русский нормально, около 9.8% WER на Common Voice. Проблема в другом: русскоязычный айтишник не говорит ни на чистом русском, ни на чистом английском. Он говорит на гибриде: русская грамматика плюс английские термины плюс своеобразное произношение этих терминов плюс местами свой жаргон вроде "гошечки" и "крудошлёпа"

Этот гибрид ни один из популярных STT не держит. Потому что его в тренировочных данных почти нет

Разбираю ниже, как устроена эта проблема, что с ней делают конкуренты (почти ничего), и что сделали мы

Читать далее

ИИ-колонизация: как Испания превращается в цифровую ферму для американских гигантов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели13K

Недавно одной семье из Арагона (регион на северо-востоке Испании) компания Amazon дала всего четыре дня на то, чтобы те согласились продать свою землю. Обоснование? Земля нужна для строительства гигантского дата-центра, проект которого уже одобрило правительство.

Этот случай — классический симптом болезни стран с дешевой рабочей силой, таких как Испания. Вместо того чтобы заходить в экономику искусственного интеллекта как разработчик или владелец технологий, Испания превращается в обслуживающую платформу. Земля, энергия и вода раздаются региональными властями щедро и без лишних вопросов.

И это не исключение из правил, это — паттерн, который мы видим по всей стране. В городе Талавера-де-ла-Рейна *Meta строит один из крупнейших дата-центров в Европе на участке в 190 гектаров. Инвестиции — почти миллиард долларов. А теперь внимание: по данным отраслевых аналитиков, это создаст всего несколько сотен прямых рабочих мест.

Представьте себе: 40 футбольных полей, забитых серверами. Да, пока идет стройка, будет какая-то движуха в местной экономике. Но на выходе мы получим огромную промышленную махину, которая жрет капитал и энергию, но почти не дает рабочих мест.

Оба проекта продвигаются властями как объекты «особого» или «общегосударственного» интереса. Логика везде одинаковая: ускорить бюрократию, перекроить зонирование земель, облегчить внедрение, а если надо — навязать его силой. Власти гарантируют наличие земли. И это не разовые поблажки: Испания буквально создает модель по привлечению таких инвестиций любой ценой. Сюжет, до боли знакомый многим поколениям испанцев.

Читать далее

$1.8 миллиарда, два брата и ноль проверок: как The New York Times попалась на AI-хайп

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

Второго апреля я наткнулся на статью The New York Times про MEDVi — телехелс-стартап, который якобы вырос до $1.8 миллиарда с двумя сотрудниками и горой AI-инструментов. Честно? Я впечатлился. Сэм Альтман предсказывал компанию на миллиард с одним основателем — и вот она, пожалуйста. Мэттью Галлахер, 41 год, Лос-Анджелес, $20 тысяч стартового капитала, ChatGPT, Claude, Midjourney — и $401 миллион выручки за 2025 год.

Я уже начал набрасывать план статьи. «Вот оно, будущее. Смотрите, как AI меняет правила игры.»

А потом сделал то, что делаю всегда перед публикацией, — полез проверять факты. И статья превратилась в совершенно другую историю.

Читать далее

ChatGPT Images 2.0 — все, что нужно знать прямо сейчас. Сравнение с Nano Banana 2 и Nano Banana Pro

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели9.3K

21 апреля OpenAI выпустила gpt-image-2 - и это не просто новая версия генератора картинок. Модель поддерживает разрешения до 4K, значительно улучшенный рендеринг текста на десятках языков, Thinking Mode с reasoning и веб-поиском, а также мультишаговое редактирование.

Я разобрала, что реально изменилось и сравнила с Nano Banana 2 и Nano Banana Pro от Google - с ценами, скоростью и честным взглядом на то, где каждая модель выигрывает.

Читать далее

Как за 30 000р дообучить модель, которая работает на уровне GPT-5.4 — на задачах российских учителей

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели10K

В первой статье мы протестировали 30 нейросетей на задачах российских учителей — российские модели оказались последними. На 9 месте стоит наша: дообученная Qwen3.5-27B за 30 000 рублей, работающая локально, на уровне GPT-5.4 на образовательных задачах. Рассказываем, как сделали — включая провал 32B-версии.

Читать далее

Топ-6 лучших бесплатных нейросетей для генерации и редактирования кода

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели9.8K

Ещё пару лет назад «ИИ для кода» означало подсказку следующей строчки. Сегодня это агент, который сам открывает pull request, пока вы пьёте кофе.

Гонка больше не про автодополнение. Она про автономное кодирование. Рынок AI-инструментов для разработчиков вырос до $12.8 млрд в 2026 году - с $5.1 млрд в 2024-м. В январе 2026 года 90% разработчиков регулярно использовали хотя бы один AI-инструмент на работе.

Звучит как победа ИИ? Не торопитесь. Исследование METR показало: опытные разработчики с AI-инструментами выполняли задачи на 19% медленнее - при этом сами были уверены, что ускорились на 20%.

Так что добро пожаловать в топ инструментов, которые меняют то, как пишется код в 2026-м.

Приятного чтения!

Читать далее