Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 134,57
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Model Context Protocol (MCP): как ИИ-агенты «разговаривают» с внешним миром

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели4.8K

Если вы читали или смотрели видео про MCP, то наверняка сталкивались с таким комментарием:

«Спасибо, ещё одна статья, из которой я ничего не понял».

Аналогии и пояснения вроде «MCP — это как USB Type-C» или «MCP — это Tools, Resources и Prompts» лично мне не добавляли понимания. Поэтому я решил подробно изучить данную технологию и написать статью, где будет понятно, достоверно и применимо. Без магии. Попутно я прошёл обучение у Anthropic (ссылки дам, сертификаты выдают, курсы бесплатные, cправда на английском).

Я ставил себе цель ответить на вопросы:

Что такое MCP и как он связан с ИИ?

Как чат GPT (большая языковая модель, LLM) может вызвать какой-то инструмент (tool)?

Модель же языковая, т.е. она умеет говорить, рассуждать, отвечать, но никак не делать. Как LLM может читать файлы, вызывать программы, открывать интернет сайты, вызывать внешние API?

Для программистов, кто в теме и уже использовал MCP-сервера, т.е. знает серверные примитивы: tools, resources и prompts, возможно будут интересны клиентские примитивы: sampling, roots, elicitation. Они звучат загадочно и трудно переводимы. И чтобы вас заинтриговать: MCP-сервер благодаря sampling может «сжигать» ваши LLM-токены для выполнения своих серверных задач. А благодаря roots получать доступ к файлам на вашем компьютере.

Итак, поехали.

Оффлайн агент IDE Continue за 15 минут

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.6K

Я расскажу, как реализовать локального LLM "Agent".

«Что вы получите:
— LLM, который индексирует ваш код и отвечает по контексту
— Генерацию и автоматическую вставку кода / тестов
— Полную работу без интернета и утечек данных
Показываю на примере IntelliJ IDEA, Ollama и Continue.»

Читать далее

GPT-5.5 против DeepSeek-V4: почему OpenAI удваивает цены, пока Китай демпингует

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели10K

За 2 дня рынок получил сразу два флагманских релиза: GPT-5.5 от OpenAI и DeepSeek V4.

На первый взгляд это очередная гонка бенчмарков. На деле - столкновение двух стратегий: дорогая агентная модель для реальной работы против открытых весов, дешевого API и контекста на миллион токенов.

Я внимательно изучила официальные бенчмарки, прайс-листы и первые отзывы разработчиков. Давайте разбираться, что из этого реально применимо в работе.

Читать далее

Ваш RAG не умеет думать. А мой умеет

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели14K

Привет, Хабр!

Базовые RAG-системы уже научились неплохо справляться с прямыми вопросами по тексту. Но только если ответ лежит в одном конкретном абзаце, а вопрос сформулирован почти так же, как сам исходный документ. Попробуйте заставить систему связать факты из трёх разных источников или сделать банальный логический вывод. В большинстве случаев результат будет неутешительным. А уж про поиск скрытых связей я даже спрашивать боюсь.

Сегодня рассмотрим open-source RAG-фреймворк HippoRAG 2. В сфере RAG главным преимуществом данного фреймворка является качество ответов, потому что принципы его работы основаны на реальном человеческом мозге. Давайте разберёмся, откуда он взялся, как устроен изнутри и как его запустить.

Читать далее

GLM 5.1 vs. DeepSeek V3.2: сравниваем топовые китайские модели

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели6.8K

В Veai мы регулярно тестируем и сравниваем модели, которые доступны у нас в плагине. Каждая модель, которую мы добавляем проходит через наш собственный бенчмарк, прежде чем попасть в продакшн. Недавно тестированию подверглись GLM 5.1 и DeepSeek V3.2. Делимся результатами.

Читать далее

Загадочный чатбот из 60-х, к которому стояли очереди из девушек

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5.4K

В одном из кампусов Массачусетского техинститута в 1966 году стали происходить очень странные дела. У дверей одной из лабораторий начали собираться стайки студенток и лаборанток, которым очень нужно было попасть внутрь хотя бы на 10 минут.

Нет, там не крутили только что вышедший битловский “Revolver”. Приманка для прекрасного пола была несколько технологичней: внутри располагался первый в истории созданный человеком чатбот. Его, а вернее её, звали ELIZA и она умела пленять собеседников не хуже античной сирены.

И это пугало ее создателя.

Читать далее

Разбор архитектуры и тест-драйв OpenAI Privacy Filter на бенчмарке персональных данных на русском

Время на прочтение7 мин
Охват и читатели7.1K

22 апреля 2026 OpenAI выложила Privacy Filter — маленькую открытую модель, которая ищет и маскирует персональные данные прямо на устройстве. Без облаков, утечек и горы регулярок. В анонсе — 97% F1, длинный контекст, восемь классов чувствительных сущностей и обещание мультиязычности.

Джонов из Айовы или Вошингтон Ди Си она находит замечательно, а что насчет Максима Улугбековича из Нижневартовска? А Галин Палны из Урус-Мартана? У меня возникло простое человеческое желание потестить все это в реальных условиях, поэтому я собрал небольшой бенч на русском и хочу поделиться разбором модели и результатами.

А результаты, мягко говоря, из коробки совсем не звездные.

Читать далее

Как OpenAI убила DALL-E?

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели12K

R.I.P. DALL-E!!!

Я помню, как впервые попробовал DALL-E.

Я ввел какую-то глупость типа «кот в деловом костюме читает газету», и — бац — картинка появилась. Я просто пялился в экран секунд десять.

Именно в тот момент многие поняли: ИИ уже здесь. Не в лаборатории, не в научных статьях. А прямо перед тобой, на мониторе.

Это было несколько лет назад.

А теперь всё. Проект закрыт.

OpenAI объявила, что поддержка DALL-E 2 и DALL-E 3 прекратится 12 мая 2026 года. Никаких прощальных постов. Никаких «спасибо, что были с нами». Просто сухое уведомление о прекращении поддержки и ссылка на новую модель.

Читать далее

AutoML для NLU без ручной настройки: делимся библиотекой OpenAutoNLU

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели7.8K

Большинство существующих AutoML-библиотек либо не поддерживают обучение моделей для понимания естественного языка (Natural Language Understanding, или NLU) из коробки, либо не умеют обучать хорошие out of scope детекторы, либо неудобны и требуют расширенной экспертизы для использования.  

Для того чтобы решить эти проблемы, мы в MWS AI разработали OpenAutoNLU — опенсорс-библиотеку для NLU, включающую диагностику качества данных, гибко настраиваемый пайплайн обучения модуля фильтра запросов, которые не относятся ни к одному из известных текстовых классификаторов меток OOD, и функции LLM. Делимся ей на GitHub

Под катом разберу, как устроен фреймворк, за счет чего он работает с минимальным вмешательством разработчика и какие результаты уже есть.

Поехали!

Почему ИИ пока не увольняет целиком: разбор «зон автоматизации» и реальных данных по задачам

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели6.8K

Разбираемся, где на самом деле проходит потолок возможностей современных моделей и какие задачи останутся за человеком в ближайшие годы.

Читать далее

Доступность товара в «Магните»: от эвристик до CUSUM и GEE-тестов

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели8.3K

Привет, Хабр! Меня зовут Ян Пиле, руковожу в MAGNIT TECH направлением развития алгоритмов доступности товаров. Задача моей команды: сделать так, чтобы в магазине, куда вы зашли за своим любимым майонезом, он с большей вероятностью оказался на полке. А если не оказался — чтобы сотруднику магазина как можно быстрее прилетело задание: «проверь, почему именно этой позиции сейчас нет, и, если возможно, верни её обратно».

Мы уже дважды писали про OSA (On-Shelf Availability — уровень доступности товара на полке). В статье «Как OSA превращает пустые полки в полные корзины?» рассказывали про продуктовый контекст: зачем эта история нужна бизнесу и почему «товар числится в системе» и «товар реально лежит на полке» — это два совершенно разных утверждения. А в статье «Когда 0 в продажах — аномалия? CUSUM для поиска проблем в ритейле» мы подробно разбирали один из рабочих алгоритмов команды. В этот раз я хочу пройтись по всему стеку детекции целиком — от самых простых правил до А/Б-тестов, в которых приходится бороться с зависимыми наблюдениями.

Читать далее

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели8.7K

В последний год разговор об AI всё чаще сводится к сравнению моделей и их возможностей. Но если смотреть шире, становится видно, что главные изменения происходят не только на уровне качества ответов: меняются сами технологические тренды, сценарии внедрения и контуры конфликтов вокруг AI.

Редакция MIT Technology Review в своем ежегодном обзоре выделила 10 направлений, которые сегодня лучше всего показывают, куда движется искусственный интеллект — от новых архитектур и агентных систем до вопросов безопасности, регулирования и общественного сопротивления.

Главные тренды

vLLM, LoRA и GPU-кластеры: техническая анатомия обогащения поисковой выдачи Авито мультимодальными моделями

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели7.1K

Привет, Хабр! Меня зовут Кирилл Нетреба, я Backend-ML-инженер в Авито. В этой статье я разберу, как мы научили платформу отыскивать нужные пользователю объявления, даже если в них нет соответствующего запросу текста. Мы препарируем связку из Qwen2.5-VL, фреймворка vLLM и LoRA-адаптеров, а также заглянем в бэкенд-инфраструктуру, которая переваривает миллионы обновлений в сутки без деградации latency.

Это история о том, как в эпоху, когда традиционный полнотекстовый поиск бессилен перед лаконичностью пользователей, ему на помощь приходит машина, обученная на изображениях и языке.

Читать далее

Ближайшие события

Мысли об одной продуктовой ошибке подавляющего большинства GenAI компаний

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6.6K

Основные игроки рынка GenAI совершили фундаментальную продуктовую ошибку. Продавая доступ к API разработчикам, они одновременно копируют лучшие сторонние юзкейсы в свои подписочные продукты - и тем самым каннибализируют собственный API-бизнес и душат конкуренцию на рынке. В статье разбираю, почему текущая двойная модель монетизации (подписка + pay-as-you-go) вредит индустрии, и выдвигаю гипотезу: за токены должен платить пользователь, а не разработчик. Объясняю, как такой сдвиг вернул бы рынку здоровую конкуренцию и дал бы шанс соло-фаундерам и небольшим командам.

Читать далее

Как дообучать локальные LLM в 2026 году: практическое руководство

Уровень сложностиСредний
Время на прочтение19 мин
Охват и читатели16K

В 2026 году дообучение локальных LLM перестало быть задачей «для тех, у кого есть кластер и бюджет». Снижение требований к VRAM, развитие QLoRA и появление инструментов вроде Unsloth сделали возможным запуск полноценного fine-tuning на обычной потребительской видеокарте. Это меняет практику: теперь модель можно адаптировать под свои задачи без облаков и внешних API, контролируя и данные, и поведение.

В статье разбирается весь процесс — от момента, когда вообще стоит задуматься о дообучении, до подготовки датасета, настройки обучения и оценки результата. Без абстракций и с фокусом на реальных ограничениях: память, время, качество данных и то, как не получить на выходе модель, которая «что-то выучила», но работать с ней невозможно.

Открыть материал

Уроки прошлого: чему нас учит история автоматизации в промышленности

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели12K

Вы боитесь потерять работу?

Вопрос звучит почти банально, но за последние несколько лет страх увольнения вырос до уровня скримера из фильма ужасов. И это не только ваше ощущение. Практически каждый человек с работой так или иначе боится её потерять. Я слышу это ежедневно — в комментариях к статьям, в консультациях, в соцсетях, даже в разговорах с друзьями. Никто не чувствует себя в безопасности.

Почему?

Причин много. Но одна из них — постоянный фон из Big Tech и медиа, которые последние годы повторяют одно и то же: ИИ идет за вашими рабочими местами. И на этот раз «новая версия» искусственного интеллекта не пощадит никого.

Это правда?

Я много работаю с ИИ. И уже 15 лет объясняю людям, почему ИИ не должен автоматически означать конец их профессии.

Давайте попробуем спокойно соединить точки. Картина получается не истеричная — но отрезвляющая.

Читать далее

Что я вынес из AMA с инженером Anthropic: 12 инсайтов про Claude Code, которые нигде не написаны

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели9.2K

20 000 заявок, тобрали меньше 2%. Я оказался в числе участников хакатона Anthropic, где инженеры компании в живом AMA рассказывали то, что не попадает в документацию.

Skills вместо агентов. Opus 4.7, который читает ваши инструкции настолько буквально, что ломает привычные workflow. Memory-слой поверх встроенного. Verification-паттерны для продакшена. И ещё 8 конкретных приёмов, которые я проверил на своих проектах.

Без воды, без “10 промптов для продуктивности”. Только то, что реально меняет работу с Claude Code.

Читать далее

Почему Cluely и другие плохо слышат русских айтишников: разбор того, как Whisper ломается и что мы сделали с этим

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

В январе я купил подписки на Cluely, Final Round AI и Sensei. Хотел посмотреть как они справляются с русским айти-собесами, раз уж все три заявляют о поддержке русского. Подключил по очереди к тестовому звонку в Телемосте (сомневаюсь, что платформа имела роль, но все же), прогнал одну и ту же запись: Senior Python backend разработчик, 45 минут, стек FastAPI + PostgreSQL + Kafka + Kubernetes. Обычный русский спикер, если важно - из Москвы, с речью проблем не было, нормальный микрофон

Все три выдали транскрипт и все три провалились, как неожиданно..

"Кафка" в половине случаев становилась "как-то" или "кофта". "Кубернетис" превращался в "губер нет тест". "Сабскрайбер патерн" - в "саб скрайп патерн". "Middleware для CSRF" - "мидл-вер для си эс эр эф" - это еще норм

Проблема не в том, что человек говорил по-русски, и не в том, что Whisper не умеет русский (сноска: хорошо не умеет). Whisper умеет русский нормально, около 9.8% WER на Common Voice. Проблема в другом: русскоязычный айтишник не говорит ни на чистом русском, ни на чистом английском. Он говорит на гибриде: русская грамматика плюс английские термины плюс своеобразное произношение этих терминов плюс местами свой жаргон вроде "гошечки" и "крудошлёпа"

Этот гибрид ни один из популярных STT не держит. Потому что его в тренировочных данных почти нет

Разбираю ниже, как устроена эта проблема, что с ней делают конкуренты (почти ничего), и что сделали мы

Читать далее

ИИ-колонизация: как Испания превращается в цифровую ферму для американских гигантов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели14K

Недавно одной семье из Арагона (регион на северо-востоке Испании) компания Amazon дала всего четыре дня на то, чтобы те согласились продать свою землю. Обоснование? Земля нужна для строительства гигантского дата-центра, проект которого уже одобрило правительство.

Этот случай — классический симптом болезни стран с дешевой рабочей силой, таких как Испания. Вместо того чтобы заходить в экономику искусственного интеллекта как разработчик или владелец технологий, Испания превращается в обслуживающую платформу. Земля, энергия и вода раздаются региональными властями щедро и без лишних вопросов.

И это не исключение из правил, это — паттерн, который мы видим по всей стране. В городе Талавера-де-ла-Рейна *Meta строит один из крупнейших дата-центров в Европе на участке в 190 гектаров. Инвестиции — почти миллиард долларов. А теперь внимание: по данным отраслевых аналитиков, это создаст всего несколько сотен прямых рабочих мест.

Представьте себе: 40 футбольных полей, забитых серверами. Да, пока идет стройка, будет какая-то движуха в местной экономике. Но на выходе мы получим огромную промышленную махину, которая жрет капитал и энергию, но почти не дает рабочих мест.

Оба проекта продвигаются властями как объекты «особого» или «общегосударственного» интереса. Логика везде одинаковая: ускорить бюрократию, перекроить зонирование земель, облегчить внедрение, а если надо — навязать его силой. Власти гарантируют наличие земли. И это не разовые поблажки: Испания буквально создает модель по привлечению таких инвестиций любой ценой. Сюжет, до боли знакомый многим поколениям испанцев.

Читать далее

$1.8 миллиарда, два брата и ноль проверок: как The New York Times попалась на AI-хайп

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

Второго апреля я наткнулся на статью The New York Times про MEDVi — телехелс-стартап, который якобы вырос до $1.8 миллиарда с двумя сотрудниками и горой AI-инструментов. Честно? Я впечатлился. Сэм Альтман предсказывал компанию на миллиард с одним основателем — и вот она, пожалуйста. Мэттью Галлахер, 41 год, Лос-Анджелес, $20 тысяч стартового капитала, ChatGPT, Claude, Midjourney — и $401 миллион выручки за 2025 год.

Я уже начал набрасывать план статьи. «Вот оно, будущее. Смотрите, как AI меняет правила игры.»

А потом сделал то, что делаю всегда перед публикацией, — полез проверять факты. И статья превратилась в совершенно другую историю.

Читать далее