Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 131,36
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Оффлайн агент IDE Continue за 15 минут

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.6K

Я расскажу, как реализовать локального LLM "Agent".

«Что вы получите:
— LLM, который индексирует ваш код и отвечает по контексту
— Генерацию и автоматическую вставку кода / тестов
— Полную работу без интернета и утечек данных
Показываю на примере IntelliJ IDEA, Ollama и Continue.»

Читать далее

GPT-5.5 против DeepSeek-V4: почему OpenAI удваивает цены, пока Китай демпингует

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели10K

За 2 дня рынок получил сразу два флагманских релиза: GPT-5.5 от OpenAI и DeepSeek V4.

На первый взгляд это очередная гонка бенчмарков. На деле - столкновение двух стратегий: дорогая агентная модель для реальной работы против открытых весов, дешевого API и контекста на миллион токенов.

Я внимательно изучила официальные бенчмарки, прайс-листы и первые отзывы разработчиков. Давайте разбираться, что из этого реально применимо в работе.

Читать далее

Ваш RAG не умеет думать. А мой умеет

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели14K

Привет, Хабр!

Базовые RAG-системы уже научились неплохо справляться с прямыми вопросами по тексту. Но только если ответ лежит в одном конкретном абзаце, а вопрос сформулирован почти так же, как сам исходный документ. Попробуйте заставить систему связать факты из трёх разных источников или сделать банальный логический вывод. В большинстве случаев результат будет неутешительным. А уж про поиск скрытых связей я даже спрашивать боюсь.

Сегодня рассмотрим open-source RAG-фреймворк HippoRAG 2. В сфере RAG главным преимуществом данного фреймворка является качество ответов, потому что принципы его работы основаны на реальном человеческом мозге. Давайте разберёмся, откуда он взялся, как устроен изнутри и как его запустить.

Читать далее

GLM 5.1 vs. DeepSeek V3.2: сравниваем топовые китайские модели

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели6.8K

В Veai мы регулярно тестируем и сравниваем модели, которые доступны у нас в плагине. Каждая модель, которую мы добавляем проходит через наш собственный бенчмарк, прежде чем попасть в продакшн. Недавно тестированию подверглись GLM 5.1 и DeepSeek V3.2. Делимся результатами.

Читать далее

Загадочный чатбот из 60-х, к которому стояли очереди из девушек

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5.4K

В одном из кампусов Массачусетского техинститута в 1966 году стали происходить очень странные дела. У дверей одной из лабораторий начали собираться стайки студенток и лаборанток, которым очень нужно было попасть внутрь хотя бы на 10 минут.

Нет, там не крутили только что вышедший битловский “Revolver”. Приманка для прекрасного пола была несколько технологичней: внутри располагался первый в истории созданный человеком чатбот. Его, а вернее её, звали ELIZA и она умела пленять собеседников не хуже античной сирены.

И это пугало ее создателя.

Читать далее

Разбор архитектуры и тест-драйв OpenAI Privacy Filter на бенчмарке персональных данных на русском

Время на прочтение7 мин
Охват и читатели7.1K

22 апреля 2026 OpenAI выложила Privacy Filter — маленькую открытую модель, которая ищет и маскирует персональные данные прямо на устройстве. Без облаков, утечек и горы регулярок. В анонсе — 97% F1, длинный контекст, восемь классов чувствительных сущностей и обещание мультиязычности.

Джонов из Айовы или Вошингтон Ди Си она находит замечательно, а что насчет Максима Улугбековича из Нижневартовска? А Галин Палны из Урус-Мартана? У меня возникло простое человеческое желание потестить все это в реальных условиях, поэтому я собрал небольшой бенч на русском и хочу поделиться разбором модели и результатами.

А результаты, мягко говоря, из коробки совсем не звездные.

Читать далее

Как OpenAI убила DALL-E?

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели12K

R.I.P. DALL-E!!!

Я помню, как впервые попробовал DALL-E.

Я ввел какую-то глупость типа «кот в деловом костюме читает газету», и — бац — картинка появилась. Я просто пялился в экран секунд десять.

Именно в тот момент многие поняли: ИИ уже здесь. Не в лаборатории, не в научных статьях. А прямо перед тобой, на мониторе.

Это было несколько лет назад.

А теперь всё. Проект закрыт.

OpenAI объявила, что поддержка DALL-E 2 и DALL-E 3 прекратится 12 мая 2026 года. Никаких прощальных постов. Никаких «спасибо, что были с нами». Просто сухое уведомление о прекращении поддержки и ссылка на новую модель.

Читать далее

AutoML для NLU без ручной настройки: делимся библиотекой OpenAutoNLU

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели7.8K

Большинство существующих AutoML-библиотек либо не поддерживают обучение моделей для понимания естественного языка (Natural Language Understanding, или NLU) из коробки, либо не умеют обучать хорошие out of scope детекторы, либо неудобны и требуют расширенной экспертизы для использования.  

Для того чтобы решить эти проблемы, мы в MWS AI разработали OpenAutoNLU — опенсорс-библиотеку для NLU, включающую диагностику качества данных, гибко настраиваемый пайплайн обучения модуля фильтра запросов, которые не относятся ни к одному из известных текстовых классификаторов меток OOD, и функции LLM. Делимся ей на GitHub

Под катом разберу, как устроен фреймворк, за счет чего он работает с минимальным вмешательством разработчика и какие результаты уже есть.

Поехали!

Почему ИИ пока не увольняет целиком: разбор «зон автоматизации» и реальных данных по задачам

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели6.8K

Разбираемся, где на самом деле проходит потолок возможностей современных моделей и какие задачи останутся за человеком в ближайшие годы.

Читать далее

Доступность товара в «Магните»: от эвристик до CUSUM и GEE-тестов

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели8.3K

Привет, Хабр! Меня зовут Ян Пиле, руковожу в MAGNIT TECH направлением развития алгоритмов доступности товаров. Задача моей команды: сделать так, чтобы в магазине, куда вы зашли за своим любимым майонезом, он с большей вероятностью оказался на полке. А если не оказался — чтобы сотруднику магазина как можно быстрее прилетело задание: «проверь, почему именно этой позиции сейчас нет, и, если возможно, верни её обратно».

Мы уже дважды писали про OSA (On-Shelf Availability — уровень доступности товара на полке). В статье «Как OSA превращает пустые полки в полные корзины?» рассказывали про продуктовый контекст: зачем эта история нужна бизнесу и почему «товар числится в системе» и «товар реально лежит на полке» — это два совершенно разных утверждения. А в статье «Когда 0 в продажах — аномалия? CUSUM для поиска проблем в ритейле» мы подробно разбирали один из рабочих алгоритмов команды. В этот раз я хочу пройтись по всему стеку детекции целиком — от самых простых правил до А/Б-тестов, в которых приходится бороться с зависимыми наблюдениями.

Читать далее

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели8.7K

В последний год разговор об AI всё чаще сводится к сравнению моделей и их возможностей. Но если смотреть шире, становится видно, что главные изменения происходят не только на уровне качества ответов: меняются сами технологические тренды, сценарии внедрения и контуры конфликтов вокруг AI.

Редакция MIT Technology Review в своем ежегодном обзоре выделила 10 направлений, которые сегодня лучше всего показывают, куда движется искусственный интеллект — от новых архитектур и агентных систем до вопросов безопасности, регулирования и общественного сопротивления.

Главные тренды

vLLM, LoRA и GPU-кластеры: техническая анатомия обогащения поисковой выдачи Авито мультимодальными моделями

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7.1K

Привет, Хабр! Меня зовут Кирилл Нетреба, я Backend-ML-инженер в Авито. В этой статье я разберу, как мы научили платформу отыскивать нужные пользователю объявления, даже если в них нет соответствующего запросу текста. Мы препарируем связку из Qwen2.5-VL, фреймворка vLLM и LoRA-адаптеров, а также заглянем в бэкенд-инфраструктуру, которая переваривает миллионы обновлений в сутки без деградации latency.

Это история о том, как в эпоху, когда традиционный полнотекстовый поиск бессилен перед лаконичностью пользователей, ему на помощь приходит машина, обученная на изображениях и языке.

Читать далее

Мысли об одной продуктовой ошибке подавляющего большинства GenAI компаний

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6.6K

Основные игроки рынка GenAI совершили фундаментальную продуктовую ошибку. Продавая доступ к API разработчикам, они одновременно копируют лучшие сторонние юзкейсы в свои подписочные продукты - и тем самым каннибализируют собственный API-бизнес и душат конкуренцию на рынке. В статье разбираю, почему текущая двойная модель монетизации (подписка + pay-as-you-go) вредит индустрии, и выдвигаю гипотезу: за токены должен платить пользователь, а не разработчик. Объясняю, как такой сдвиг вернул бы рынку здоровую конкуренцию и дал бы шанс соло-фаундерам и небольшим командам.

Читать далее

Ближайшие события

Как дообучать локальные LLM в 2026 году: практическое руководство

Уровень сложностиСредний
Время на прочтение19 мин
Охват и читатели16K

В 2026 году дообучение локальных LLM перестало быть задачей «для тех, у кого есть кластер и бюджет». Снижение требований к VRAM, развитие QLoRA и появление инструментов вроде Unsloth сделали возможным запуск полноценного fine-tuning на обычной потребительской видеокарте. Это меняет практику: теперь модель можно адаптировать под свои задачи без облаков и внешних API, контролируя и данные, и поведение.

В статье разбирается весь процесс — от момента, когда вообще стоит задуматься о дообучении, до подготовки датасета, настройки обучения и оценки результата. Без абстракций и с фокусом на реальных ограничениях: память, время, качество данных и то, как не получить на выходе модель, которая «что-то выучила», но работать с ней невозможно.

Открыть материал

Уроки прошлого: чему нас учит история автоматизации в промышленности

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели12K

Вы боитесь потерять работу?

Вопрос звучит почти банально, но за последние несколько лет страх увольнения вырос до уровня скримера из фильма ужасов. И это не только ваше ощущение. Практически каждый человек с работой так или иначе боится её потерять. Я слышу это ежедневно — в комментариях к статьям, в консультациях, в соцсетях, даже в разговорах с друзьями. Никто не чувствует себя в безопасности.

Почему?

Причин много. Но одна из них — постоянный фон из Big Tech и медиа, которые последние годы повторяют одно и то же: ИИ идет за вашими рабочими местами. И на этот раз «новая версия» искусственного интеллекта не пощадит никого.

Это правда?

Я много работаю с ИИ. И уже 15 лет объясняю людям, почему ИИ не должен автоматически означать конец их профессии.

Давайте попробуем спокойно соединить точки. Картина получается не истеричная — но отрезвляющая.

Читать далее

Что я вынес из AMA с инженером Anthropic: 12 инсайтов про Claude Code, которые нигде не написаны

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели9.1K

20 000 заявок, тобрали меньше 2%. Я оказался в числе участников хакатона Anthropic, где инженеры компании в живом AMA рассказывали то, что не попадает в документацию.

Skills вместо агентов. Opus 4.7, который читает ваши инструкции настолько буквально, что ломает привычные workflow. Memory-слой поверх встроенного. Verification-паттерны для продакшена. И ещё 8 конкретных приёмов, которые я проверил на своих проектах.

Без воды, без “10 промптов для продуктивности”. Только то, что реально меняет работу с Claude Code.

Читать далее

Почему Cluely и другие плохо слышат русских айтишников: разбор того, как Whisper ломается и что мы сделали с этим

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

В январе я купил подписки на Cluely, Final Round AI и Sensei. Хотел посмотреть как они справляются с русским айти-собесами, раз уж все три заявляют о поддержке русского. Подключил по очереди к тестовому звонку в Телемосте (сомневаюсь, что платформа имела роль, но все же), прогнал одну и ту же запись: Senior Python backend разработчик, 45 минут, стек FastAPI + PostgreSQL + Kafka + Kubernetes. Обычный русский спикер, если важно - из Москвы, с речью проблем не было, нормальный микрофон

Все три выдали транскрипт и все три провалились, как неожиданно..

"Кафка" в половине случаев становилась "как-то" или "кофта". "Кубернетис" превращался в "губер нет тест". "Сабскрайбер патерн" - в "саб скрайп патерн". "Middleware для CSRF" - "мидл-вер для си эс эр эф" - это еще норм

Проблема не в том, что человек говорил по-русски, и не в том, что Whisper не умеет русский (сноска: хорошо не умеет). Whisper умеет русский нормально, около 9.8% WER на Common Voice. Проблема в другом: русскоязычный айтишник не говорит ни на чистом русском, ни на чистом английском. Он говорит на гибриде: русская грамматика плюс английские термины плюс своеобразное произношение этих терминов плюс местами свой жаргон вроде "гошечки" и "крудошлёпа"

Этот гибрид ни один из популярных STT не держит. Потому что его в тренировочных данных почти нет

Разбираю ниже, как устроена эта проблема, что с ней делают конкуренты (почти ничего), и что сделали мы

Читать далее

ИИ-колонизация: как Испания превращается в цифровую ферму для американских гигантов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели13K

Недавно одной семье из Арагона (регион на северо-востоке Испании) компания Amazon дала всего четыре дня на то, чтобы те согласились продать свою землю. Обоснование? Земля нужна для строительства гигантского дата-центра, проект которого уже одобрило правительство.

Этот случай — классический симптом болезни стран с дешевой рабочей силой, таких как Испания. Вместо того чтобы заходить в экономику искусственного интеллекта как разработчик или владелец технологий, Испания превращается в обслуживающую платформу. Земля, энергия и вода раздаются региональными властями щедро и без лишних вопросов.

И это не исключение из правил, это — паттерн, который мы видим по всей стране. В городе Талавера-де-ла-Рейна *Meta строит один из крупнейших дата-центров в Европе на участке в 190 гектаров. Инвестиции — почти миллиард долларов. А теперь внимание: по данным отраслевых аналитиков, это создаст всего несколько сотен прямых рабочих мест.

Представьте себе: 40 футбольных полей, забитых серверами. Да, пока идет стройка, будет какая-то движуха в местной экономике. Но на выходе мы получим огромную промышленную махину, которая жрет капитал и энергию, но почти не дает рабочих мест.

Оба проекта продвигаются властями как объекты «особого» или «общегосударственного» интереса. Логика везде одинаковая: ускорить бюрократию, перекроить зонирование земель, облегчить внедрение, а если надо — навязать его силой. Власти гарантируют наличие земли. И это не разовые поблажки: Испания буквально создает модель по привлечению таких инвестиций любой ценой. Сюжет, до боли знакомый многим поколениям испанцев.

Читать далее

$1.8 миллиарда, два брата и ноль проверок: как The New York Times попалась на AI-хайп

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

Второго апреля я наткнулся на статью The New York Times про MEDVi — телехелс-стартап, который якобы вырос до $1.8 миллиарда с двумя сотрудниками и горой AI-инструментов. Честно? Я впечатлился. Сэм Альтман предсказывал компанию на миллиард с одним основателем — и вот она, пожалуйста. Мэттью Галлахер, 41 год, Лос-Анджелес, $20 тысяч стартового капитала, ChatGPT, Claude, Midjourney — и $401 миллион выручки за 2025 год.

Я уже начал набрасывать план статьи. «Вот оно, будущее. Смотрите, как AI меняет правила игры.»

А потом сделал то, что делаю всегда перед публикацией, — полез проверять факты. И статья превратилась в совершенно другую историю.

Читать далее

ChatGPT Images 2.0 — все, что нужно знать прямо сейчас. Сравнение с Nano Banana 2 и Nano Banana Pro

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели9.5K

21 апреля OpenAI выпустила gpt-image-2 - и это не просто новая версия генератора картинок. Модель поддерживает разрешения до 4K, значительно улучшенный рендеринг текста на десятках языков, Thinking Mode с reasoning и веб-поиском, а также мультишаговое редактирование.

Я разобрала, что реально изменилось и сравнила с Nano Banana 2 и Nano Banana Pro от Google - с ценами, скоростью и честным взглядом на то, где каждая модель выигрывает.

Читать далее