Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 232,74
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Google окончательно убил OpenAI? Как Gemma 4 меняет правила игры

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели3.6K

Буду честен. Я перестал следить за Gemma после второй версии. Не потому что она была плохой — просто она никогда не воспринималась как серьёзный конкурент китайским гигантам открытого ИИ: DeepSeek, Qwen — моделям, которые разработчики действительно разворачивали в продакшене. Gemma была моделью, которую ты один раз пробовал на Kaggle, а потом забывал. Сегодня Google всё изменил. Полностью.

Gemma 4 вышла 2 апреля 2026 года. И технический директор Hugging Face Жюльен Шомон написал об этом с буквальными эмодзи-огоньками, назвав это «ЭКСТРЕННОЙ НОВОСТЬЮ». Когда CTO платформы, которая хостит все открытые модели на планете, говорит, что Google вернулся в игру, — стоит обратить внимание.

Читать далее

Новости

Три гвоздя в крышку гроба Claude Code, которые они забили сами

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели4.4K

Казалось, что Anthropic делает продукты для инженеров от инженеров. Именно поэтому наблюдать за тем, что происходит с их флагманом Claude Code сейчас, так мучительно.

Читать далее

Собираем ML-платформу на базе Kubernetes: Yandex Cloud, JupyterHub, Dask и S3

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели3.9K

Привет! Я Алиса, DevOps-инженер в KTS.

В этой статье я расскажу об одном из наших недавних проектов, на котором мы строили инфраструктуру для команды дата-инженеров и аналитиков. Сразу оговорюсь, что это была не платформа для инференса Production-моделей, а именно полигон для исследований.

В общем, делюсь практическим опытом построения масштабируемой инфраструктуры с автоскейлингом. Если тема вам актуальна — приглашаю к прочтению.

Читать далее

Как гибрид IDP и VLM экономит миллионы на верификации данных

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели3.3K

Последние 2 года мы в Content AI активно тестируем Vision Language Models (VLM) для обработки документов. Модели вроде Qwen2.5-VL или Gemini 2.5 отлично работают с простыми формами — чеками, типовыми договорами. Но на документах со сложными фонами, многоуровневыми таблицами или нестандартной версткой VLM часто галлюцинирует, теряет строки и путается в реквизитах.

В одной из предыдущих статей мы пришли к выводу, что будущее за комбинированным подходом, когда VLM усиливает IDP-решения.

В этот раз мы проверили гипотезу: пусть VLM не распознает документ с нуля, а проверяет черновик из IDP-системы и исправляет ошибки, опираясь на исходное изображение. Базовым OCR движком выступила наша платформа ContentCapture.

Практическая цель эксперимента — автоматизировать верификацию документов. Сейчас в крупных компаниях сотни операторов вручную сверяют распознанные данные с оригиналами. 

Читать далее

Началось: меня забанили в Claude Code на аккаунте за $200

Время на прочтение5 мин
Охват и читатели6.5K

Вчера мне заблокировали аккаунт в Claude Code.

Это был не расходник и не тестовый акк, это был нормальный основной аккаунт с полуторагодовалой платной историей. Максимально платный аккаунт, который уже “начал меня хорошо понимать”, и вокруг которого уже была построена софтверная фабрика и фабрика экспериментов, был без предупреждения безвозвратно отключен.

И это отличная история, чтобы глубоко порефлексировать на всю эту тему. Поговорим про хрупкость, свой харнесс, заменяемость, и немного про людей.

Читать далее

KV-Cache в LLM: разбираем инференс через 9 ключевых вопросов

Уровень сложностиСложный
Время на прочтение18 мин
Охват и читатели3.5K

Почему Cache Read и Cache Write стоят денег и как работает Prompt Caching? Разбираем KV-Cache через 9 ключевых вопросов.

Разобраться

Топ 15 нейросетей для учебы в 2026 году: ИИ для студентов/школьников

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели3.3K

В последнее время я увлекся подборками инструментов, которые используют нейросети для разных задач. Уже рассмотрены сервисы для программирования, генерации текста, рерайта, создания презентаций и сжатия информации. В какой-то момент мне пришло в голову: а что если взять более широкую сферу, которая объединяет сразу несколько узких?

Для меня ИИ – в первую очередь полезный инструмент, но не для того, чтобы делать все за человека. Нейросети могут как облегчить жизнь, так и усложнить ее, если полностью забить на учебу и переложить все на алгоритмы.

Сегодня я покажу подборку нейросетей для студентов и школьников. Некоторые сервисы помогут быстро выполнить фрагмент работы, но настоятельно рекомендую не забывать: они могут ошибаться. Поэтому все лучше перепроверять. А в таких сферах, как программирование, стоит разобрать предложенный код, доработать его или создать на его основе что-то свое.

Принимайте стратегически удобное положение, ну а я начинаю.

Читать далее

Второй день конференции Data Fusion и общие впечатления от мероприятия 2026 в кластере Ломоносов

Время на прочтение7 мин
Охват и читатели2.9K

На второй день конференции больше упора мы сделали на секцию, где рассматривалось железо. Говорили о проблемах в импортозамещении, о вопросах замены Cuda-единиц для вычислений на китайские аналоги.

Точнее говоря, о замене речи не идет, так как лидером по результатам внедрения в ВТБ все-равно остается Nvidia. Но вопрос пошел о кратном росте мощностей за счет гибридной структуры серверов, где наравне с железом американского производителя используются китайские GPU фирм Metax, Biren Technology, Moore Threads, LLuvatar CoreX. Это может также гарантировать в некотором понимании независимость от геополитических ограничений.

Так, если во время использования облачных серверов с GPU компании не задумываются, откуда брать железо, то сами владельцы таких серверов в это самое время, ну известный факт, беспокоятся даже о том, что Америка ввела ограничения на количество поставок видеокарт в различные страны, в том числе в Россию. Факторов влияния на рынок много: ужесточение политики импортозамещения оборудования в гос. закупках, санкции и экспортный контроль, совершенствование и устаревания технологий в GPU, нюансы конвертации валют и общения с зарубежными коллегами в ходе поставок в Россию, дефицит квалифицированных кадров в отрасли.

Тем не менее, объем российского рынка облачных сервисов с GPU значительно вырос за последние 2 года практически по закону Мура: с 12,3% в 2024 году до 27,4 в 2026 году, а прогноз к 2030 году согласно исследованиям от компании t1 составляет 85,5%.

Стало интересно и о достижениях Ростелекома по оптимизации модели ViT-B. Один из докладчиков вообще показал, что Россия в чем-то опережает зарубежных коллег, например - в аппаратном ускорении в Vulcan при рассмотрении таких аппаратных ускорений, как Vulcan, Cuda и OpenCL. Предложено решение Kernel_slicer.

Читать далее

Простая нейронная сеть на чистом C++

Время на прочтение5 мин
Охват и читатели5.6K

Ни Python, ни PyTorch, ни NumPy, … всего 260 строк кода на чистом C++ достаточно, чтобы обучить, оценить и протестировать простой двоичный классификатор, различающий рукописные цифры 0 и 1.

Читать далее

Какую LLM ставить в production для контента на русском? Протестировали 18 моделей — одна в 130× дешевле при 91% качества

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели5.8K

GPT-5.4 пишет лучше всех — 97 баллов из 100. Но $0.10 за вызов. При 10 000 генераций в месяц — $1000. А мы нашли модель, которая справляется на 91% и стоит $0.0008. Те же 10 000 генераций — $8. Разница — $992 каждый месяц.

Мы строим продукт, где LLM генерирует образовательный контент для клиентов. Публичные бенчмарки (MMLU, HumanEval, LMSYS) не помогают — они не тестируют генерацию длинных текстов на русском и не учитывают стоимость. Поэтому мы за свои $95 построили собственный battle test и прогнали через него 18 моделей.

Что обнаружили: 7 из 18 моделей вставляют китайские иероглифы в русский текст. Одна копирует инструкции из промпта прямо в заголовки. А LLM-судья поставил сам себе 127 баллов из 100.

В статье: полная методология, таблицы с результатами, формула value score (цена/качество), и открытый лидерборд.

Читать далее

Как мы построили платформу агентов для Алисы AI — и почему пришлось написать сервер поверх Temporal

Время на прочтение9 мин
Охват и читатели4.7K

Агент «Исследовать» в Алисе AI может работать до 20 минут. За это время он успевает обойти десятки сайтов, запустить модели, вызвать инструменты — и сделать всё это параллельно на нескольких хостах. И если в середине цепочки что-то упадёт (а практика показывает, что если может упасть — когда-нибудь упадёт: релизы, сети, «луна не в той фазе»), агент должен уметь продолжить работу с того же места, а не начать всё заново, сжигая часы и LLM-токены. Ещё год назад никакой инфраструктуры для этого у нас не было.

Меня зовут Алексей Логинов, я ведущий разработчик в команде, которая отвечает за инфраструктуру нашего ассистента. В этой статье я покажу, какой путь мы прошли от наивного SDK до полноценной платформы Agent Transport System (ATS) — и как при этом упирались в различные ограничения и преодолевали их.

Читать далее

Движки для дронов, конопля в Бразилии и прочая ИИ-стартапщина на «Битве Единорогов»

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели4.7K

Вчера меня занесло на мероприятие под названием "Битва Единорогов" в офисе Инновационного Хаба Шелкового Пути, через дорогу от Стенфорда. Офис состоит из двух комнат, но согласно его вебсайту, они уже ускорили 320 стартапов.

Первым потенциальным единорогом была бухгалтерша из Бразилии, которая сообщила присутствующим, что на ее родине недавно разрешили коноплю. И что она готова срочно создать стартап по управлению финансовыми потоками вокруг конопляного бизнеса, пока это святое место не занял никто другой:

Читать далее

18 месяцев до банкротства OpenAI? Прогноз NYT звучит всё правдоподобнее

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6.8K

31 марта OpenAI объявила о раунде финансирования с оценкой $852 миллиарда. На следующий день, 1 апреля, Bloomberg вышел с заголовком: «OpenAI теряет популярность среди вторичных покупателей». Что произошло за сутки?

Читать далее

Ближайшие события

Я просканировал 30 публичных MCP-серверов: почти половина не дошла даже до скоринга

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели11K

Мы привыкли винить LLM‑агентов в галлюцинациях, бесконечных циклах и слитых бюджетах на API. Но что, если проблема в инфраструктуре, которую мы им скармливаем? Я написал детерминированный CI‑сканер для оценки качества MCP‑серверов и прогнал через него 30 публичных пакетов. Результат оказался интересным: почти половина серверов убивает агента ещё до старта, а официальные инструменты дают ИИ гранату в руки. Под катом - хардкорный разбор костылей экосистемы, графики и Open Source инструмент, который защитит ваш продакшен.

Читать далее

Почему Claude Cowork — это то, чем ChatGPT должен был стать, но не стал

Время на прочтение4 мин
Охват и читатели10K

Claude Cowork превращает часы работы в минуты. ChatGPT так не умеет.

Я работаю с Claude Cowork с первого дня его появления.

Это потрясающий инструмент для автоматизации рутинных компьютерных задач.

Вот чем Claude Cowork принципиально отличается от ChatGPT:

У него есть прямой доступ к вашим локальным файлам — а значит, он может мгновенно браться за любую задачу (при правильной настройке)

Он берёт на себя многошаговые задачи и выполняет их автономно

Он создаёт профессиональные документы — Excel, PowerPoint, Word

К нему можно подключать плагины для специализированной работы: продажи, юридическая сфера, финансы, продуктивность

Работа с ChatGPT — это как сидеть в пузыре чата. Бесконечные уточнения туда-сюда, потому что он понятия не имеет, что вы на самом деле пытаетесь сделать.

Claude Cowork устроен иначе.

Его контекст — это папка и файлы, к которым вы даёте ему доступ.

Вы указываете на папку, формулируете задачу → Cowork составляет план и выполняет сам.

К концу этой статьи вы узнаете:

Как пользоваться Claude Cowork

Как экономить часы работы с Cowork (то, чего ChatGPT не умеет)

Как сделать Cowork ещё мощнее с помощью плагинов и коннекторов

Читать далее

TAPe‑дневник, день 8: сегментация по границам, 77% классификации и первые бенчмарки против YOLO

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели7.6K

В этом посте продолжаем дневник TAPe‑детекции на COCO: добавляем сегментацию по контрастным патчам на границе объектов, дорабатываем классификацию, избавляемся от learning rate и смотрим, как ведёт себя YOLO на нашем маленьком датасете.

А уже завтра покажем базовые и COCO‑бенчмарки, сравнения с YOLO и RF‑DETR по точности (mAP50/mAP50‑95), скорости, числу параметров и требованиям к данным, а заодно чуть подробнее поговорим про аннотацию и то, почему нам хватает десятков изображений на класс там, где другим нужны сотни тысяч.

Вникнуть

Создаем комикс с помощью нейросетей: пошаговый разбор

Уровень сложностиПростой
Время на прочтение17 мин
Охват и читатели7.1K

Вы когда-нибудь хотели нарисовать комикс, но упирались в то, что не умеете рисовать? Руки помнят только школьные каракули на полях тетради, а персонажи в голове так и остаются в голове.

Сейчас это перестало быть проблемой. Нейросети для генерации изображений стали полноценным рабочим инструментом. Они не заменят художника полностью, но помогут сделать законченный комикс за вечер вместо месяца. Да, с кривыми пальцами иногда, с ошибками в перспективе, но живой и ваш.

В этой статье я покажу пошагово:
- как выбрать нейросеть для комикса;
- как сделать так, чтобы персонаж не менял лицо в каждом кадре;
- как добавить облака с текстом и не сойти с ума;
- и, конечно, на какие кнопки нажимать.

Работать я буду в BotHub - это агрегатор нейросетей. Если вам надоело прыгать по сайтам, постоянно включать и выключать VPN, регистрироваться и разбираться, где какая кнопка, BotHub собирает Midjourney, DALL-E 3, Kandinsky и другие популярные модели в одном интерфейсе. Оплата по факту использования - сколько нагенерировал, столько и заплатил. К тому же сервис дарит 300 000 капсов всем новым пользователям по ссылке, можно затестить прямо сейчас!

Одна просьба перед стартом: не ждите от нейросети идеала с первой попытки. Это не голливудский ИИ.

Поехали, приятного прочтения!

Читать далее

Как бы я рассказал про линейную регрессию (если б меня кто-то спросил)

Уровень сложностиПростой
Время на прочтение79 мин
Охват и читатели10K

Привет, Хабр! Если вам когда‑либо хотелось разобраться в том как работает линейная регрессия, или хочется освежить в памяти основные моменты без необходимости продираться через разрозненные источники, то прошу под кат. Это не статья «от начинающего для начинающих. Экстра лонгрид — писал больше года. Статья концептуальная, а концептов пять: 1) ключевой повествовательный компонент — визуализации (их около сотни), текст — вспомогательный; 2) анимации везде где только можно (их всего 34); 3) простота — достаточно знаний со школьного курса математики чтобы начать читать; 4) воспроизводимость — подавляющее большинство медиаматериалов сгенерированы при помощи Python а исходный код выложен в open‑source и, самый главный, 5) фокус на практике, — например, если упоминается векторная запись метода наименьших квадратов, значит она в нарративе решает возникшую боль читателя.»

Читать далее

Как я строил Smart Search для анализа вакансий: семантика, 152-ФЗ и борьба за экономию токенов

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели5.7K

Привет, Хабр! Меня зовут Денис, я продолжаю рассказывать о своём проекте. Эта статья — не очередной обзор фич. Это инженерный пост‑мортем: как я спроектировал умный поиск вакансий, где упёрся в 152-ФЗ, как считал экономику каждого прогона и какие ошибки успел наделать в продакшене.

Если вы делаете LLM/ML‑фичи для B2C/B2B‑продукта в РФ, многие решения покажутся знакомыми, а некоторые — спорными. Буду рад обсуждению в комментариях.

Читать далее

AI КОМП-АС — разбор фреймворка. О: Откуда мы выходим?

Уровень сложностиСложный
Время на прочтение6 мин
Охват и читатели6.6K

Продолжаем разбирать по буквам AI КОМП‑АС, навигационный фреймворк внедрения технологий искусственного интеллекта в бизнес — в данной статье ответим на очевидные, но при этом часто игнорируемые вопросы: О: Откуда мы выходим? Зачем организации понимать, где она сейчас, чтобы прийти туда, куда она хочет? Как это сделать?

Полное описание фрейморка можно найти здесь.

Читать далее
1
23 ...