Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 217,9
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Началось: меня забанили в Claude Code на аккаунте за $200

Время на прочтение5 мин
Охват и читатели1.3K

Вчера мне заблокировали аккаунт в Claude Code.

Это был не расходник и не тестовый акк, это был нормальный основной аккаунт с полуторагодовалой платной историей. Максимально платный аккаунт, который уже “начал меня хорошо понимать”, и вокруг которого уже была построена софтверная фабрика и фабрика экспериментов, был без предупреждения безвозвратно отключен.

И это отличная история, чтобы глубоко порефлексировать на всю эту тему. Поговорим про хрупкость, свой харнесс, заменяемость, и немного про людей.

Читать далее

Новости

KV-Cache в LLM: разбираем инференс через 9 ключевых вопросов

Уровень сложностиСложный
Время на прочтение18 мин
Охват и читатели2.5K

Почему Cache Read и Cache Write стоят денег и как работает Prompt Caching? Разбираем KV-Cache через 9 ключевых вопросов.

Разобраться

Топ 15 нейросетей для учебы в 2026 году: ИИ для студентов/школьников

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели2.2K

В последнее время я увлекся подборками инструментов, которые используют нейросети для разных задач. Уже рассмотрены сервисы для программирования, генерации текста, рерайта, создания презентаций и сжатия информации. В какой-то момент мне пришло в голову: а что если взять более широкую сферу, которая объединяет сразу несколько узких?

Для меня ИИ – в первую очередь полезный инструмент, но не для того, чтобы делать все за человека. Нейросети могут как облегчить жизнь, так и усложнить ее, если полностью забить на учебу и переложить все на алгоритмы.

Сегодня я покажу подборку нейросетей для студентов и школьников. Некоторые сервисы помогут быстро выполнить фрагмент работы, но настоятельно рекомендую не забывать: они могут ошибаться. Поэтому все лучше перепроверять. А в таких сферах, как программирование, стоит разобрать предложенный код, доработать его или создать на его основе что-то свое.

Принимайте стратегически удобное положение, ну а я начинаю.

Читать далее

Второй день конференции Data Fusion и общие впечатления от мероприятия 2026 в кластере Ломоносов

Время на прочтение7 мин
Охват и читатели2.5K

На второй день конференции больше упора мы сделали на секцию, где рассматривалось железо. Говорили о проблемах в импортозамещении, о вопросах замены Cuda-единиц для вычислений на китайские аналоги.

Точнее говоря, о замене речи не идет, так как лидером по результатам внедрения в ВТБ все-равно остается Nvidia. Но вопрос пошел о кратном росте мощностей за счет гибридной структуры серверов, где наравне с железом американского производителя используются китайские GPU фирм Metax, Biren Technology, Moore Threads, LLuvatar CoreX. Это может также гарантировать в некотором понимании независимость от геополитических ограничений.

Так, если во время использования облачных серверов с GPU компании не задумываются, откуда брать железо, то сами владельцы таких серверов в это самое время, ну известный факт, беспокоятся даже о том, что Америка ввела ограничения на количество поставок видеокарт в различные страны, в том числе в Россию. Факторов влияния на рынок много: ужесточение политики импортозамещения оборудования в гос. закупках, санкции и экспортный контроль, совершенствование и устаревания технологий в GPU, нюансы конвертации валют и общения с зарубежными коллегами в ходе поставок в Россию, дефицит квалифицированных кадров в отрасли.

Тем не менее, объем российского рынка облачных сервисов с GPU значительно вырос за последние 2 года практически по закону Мура: с 12,3% в 2024 году до 27,4 в 2026 году, а прогноз к 2030 году согласно исследованиям от компании t1 составляет 85,5%.

Стало интересно и о достижениях Ростелекома по оптимизации модели ViT-B. Один из докладчиков вообще показал, что Россия в чем-то опережает зарубежных коллег, например - в аппаратном ускорении в Vulcan при рассмотрении таких аппаратных ускорений, как Vulcan, Cuda и OpenCL. Предложено решение Kernel_slicer.

Читать далее

Простая нейронная сеть на чистом C++

Время на прочтение5 мин
Охват и читатели3.8K

Ни Python, ни PyTorch, ни NumPy, … всего 260 строк кода на чистом C++ достаточно, чтобы обучить, оценить и протестировать простой двоичный классификатор, различающий рукописные цифры 0 и 1.

Читать далее

Какую LLM ставить в production для контента на русском? Протестировали 18 моделей — одна в 130× дешевле при 91% качества

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели4.4K

GPT-5.4 пишет лучше всех — 97 баллов из 100. Но $0.10 за вызов. При 10 000 генераций в месяц — $1000. А мы нашли модель, которая справляется на 91% и стоит $0.0008. Те же 10 000 генераций — $8. Разница — $992 каждый месяц.

Мы строим продукт, где LLM генерирует образовательный контент для клиентов. Публичные бенчмарки (MMLU, HumanEval, LMSYS) не помогают — они не тестируют генерацию длинных текстов на русском и не учитывают стоимость. Поэтому мы за свои $95 построили собственный battle test и прогнали через него 18 моделей.

Что обнаружили: 7 из 18 моделей вставляют китайские иероглифы в русский текст. Одна копирует инструкции из промпта прямо в заголовки. А LLM-судья поставил сам себе 127 баллов из 100.

В статье: полная методология, таблицы с результатами, формула value score (цена/качество), и открытый лидерборд.

Читать далее

Как мы построили платформу агентов для Алисы AI — и почему пришлось написать сервер поверх Temporal

Время на прочтение9 мин
Охват и читатели3.4K

Агент «Исследовать» в Алисе AI может работать до 20 минут. За это время он успевает обойти десятки сайтов, запустить модели, вызвать инструменты — и сделать всё это параллельно на нескольких хостах. И если в середине цепочки что-то упадёт (а практика показывает, что если может упасть — когда-нибудь упадёт: релизы, сети, «луна не в той фазе»), агент должен уметь продолжить работу с того же места, а не начать всё заново, сжигая часы и LLM-токены. Ещё год назад никакой инфраструктуры для этого у нас не было.

Меня зовут Алексей Логинов, я ведущий разработчик в команде, которая отвечает за инфраструктуру нашего ассистента. В этой статье я покажу, какой путь мы прошли от наивного SDK до полноценной платформы Agent Transport System (ATS) — и как при этом упирались в различные ограничения и преодолевали их.

Читать далее

Движки для дронов, конопля в Бразилии и прочая ИИ-стартапщина на «Битве Единорогов»

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели4.1K

Вчера меня занесло на мероприятие под названием "Битва Единорогов" в офисе Инновационного Хаба Шелкового Пути, через дорогу от Стенфорда. Офис состоит из двух комнат, но согласно его вебсайту, они уже ускорили 320 стартапов.

Первым потенциальным единорогом была бухгалтерша из Бразилии, которая сообщила присутствующим, что на ее родине недавно разрешили коноплю. И что она готова срочно создать стартап по управлению финансовыми потоками вокруг конопляного бизнеса, пока это святое место не занял никто другой:

Читать далее

18 месяцев до банкротства OpenAI? Прогноз NYT звучит всё правдоподобнее

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6K

31 марта OpenAI объявила о раунде финансирования с оценкой $852 миллиарда. На следующий день, 1 апреля, Bloomberg вышел с заголовком: «OpenAI теряет популярность среди вторичных покупателей». Что произошло за сутки?

Читать далее

Я просканировал 30 публичных MCP-серверов: почти половина не дошла даже до скоринга

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели11K

Мы привыкли винить LLM‑агентов в галлюцинациях, бесконечных циклах и слитых бюджетах на API. Но что, если проблема в инфраструктуре, которую мы им скармливаем? Я написал детерминированный CI‑сканер для оценки качества MCP‑серверов и прогнал через него 30 публичных пакетов. Результат оказался интересным: почти половина серверов убивает агента ещё до старта, а официальные инструменты дают ИИ гранату в руки. Под катом - хардкорный разбор костылей экосистемы, графики и Open Source инструмент, который защитит ваш продакшен.

Читать далее

Почему Claude Cowork — это то, чем ChatGPT должен был стать, но не стал

Время на прочтение4 мин
Охват и читатели9K

Claude Cowork превращает часы работы в минуты. ChatGPT так не умеет.

Я работаю с Claude Cowork с первого дня его появления.

Это потрясающий инструмент для автоматизации рутинных компьютерных задач.

Вот чем Claude Cowork принципиально отличается от ChatGPT:

У него есть прямой доступ к вашим локальным файлам — а значит, он может мгновенно браться за любую задачу (при правильной настройке)

Он берёт на себя многошаговые задачи и выполняет их автономно

Он создаёт профессиональные документы — Excel, PowerPoint, Word

К нему можно подключать плагины для специализированной работы: продажи, юридическая сфера, финансы, продуктивность

Работа с ChatGPT — это как сидеть в пузыре чата. Бесконечные уточнения туда-сюда, потому что он понятия не имеет, что вы на самом деле пытаетесь сделать.

Claude Cowork устроен иначе.

Его контекст — это папка и файлы, к которым вы даёте ему доступ.

Вы указываете на папку, формулируете задачу → Cowork составляет план и выполняет сам.

К концу этой статьи вы узнаете:

Как пользоваться Claude Cowork

Как экономить часы работы с Cowork (то, чего ChatGPT не умеет)

Как сделать Cowork ещё мощнее с помощью плагинов и коннекторов

Читать далее

TAPe‑дневник, день 8: сегментация по границам, 77% классификации и первые бенчмарки против YOLO

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели7.5K

В этом посте продолжаем дневник TAPe‑детекции на COCO: добавляем сегментацию по контрастным патчам на границе объектов, дорабатываем классификацию, избавляемся от learning rate и смотрим, как ведёт себя YOLO на нашем маленьком датасете.

А уже завтра покажем базовые и COCO‑бенчмарки, сравнения с YOLO и RF‑DETR по точности (mAP50/mAP50‑95), скорости, числу параметров и требованиям к данным, а заодно чуть подробнее поговорим про аннотацию и то, почему нам хватает десятков изображений на класс там, где другим нужны сотни тысяч.

Вникнуть

Создаем комикс с помощью нейросетей: пошаговый разбор

Уровень сложностиПростой
Время на прочтение17 мин
Охват и читатели6.8K

Вы когда-нибудь хотели нарисовать комикс, но упирались в то, что не умеете рисовать? Руки помнят только школьные каракули на полях тетради, а персонажи в голове так и остаются в голове.

Сейчас это перестало быть проблемой. Нейросети для генерации изображений стали полноценным рабочим инструментом. Они не заменят художника полностью, но помогут сделать законченный комикс за вечер вместо месяца. Да, с кривыми пальцами иногда, с ошибками в перспективе, но живой и ваш.

В этой статье я покажу пошагово:
- как выбрать нейросеть для комикса;
- как сделать так, чтобы персонаж не менял лицо в каждом кадре;
- как добавить облака с текстом и не сойти с ума;
- и, конечно, на какие кнопки нажимать.

Работать я буду в BotHub - это агрегатор нейросетей. Если вам надоело прыгать по сайтам, постоянно включать и выключать VPN, регистрироваться и разбираться, где какая кнопка, BotHub собирает Midjourney, DALL-E 3, Kandinsky и другие популярные модели в одном интерфейсе. Оплата по факту использования - сколько нагенерировал, столько и заплатил. К тому же сервис дарит 300 000 капсов всем новым пользователям по ссылке, можно затестить прямо сейчас!

Одна просьба перед стартом: не ждите от нейросети идеала с первой попытки. Это не голливудский ИИ.

Поехали, приятного прочтения!

Читать далее

Ближайшие события

Как бы я рассказал про линейную регрессию (если б меня кто-то спросил)

Уровень сложностиПростой
Время на прочтение79 мин
Охват и читатели9.4K

Привет, Хабр! Если вам когда‑либо хотелось разобраться в том как работает линейная регрессия, или хочется освежить в памяти основные моменты без необходимости продираться через разрозненные источники, то прошу под кат. Это не статья «от начинающего для начинающих. Экстра лонгрид — писал больше года. Статья концептуальная, а концептов пять: 1) ключевой повествовательный компонент — визуализации (их около сотни), текст — вспомогательный; 2) анимации везде где только можно (их всего 34); 3) простота — достаточно знаний со школьного курса математики чтобы начать читать; 4) воспроизводимость — подавляющее большинство медиаматериалов сгенерированы при помощи Python а исходный код выложен в open‑source и, самый главный, 5) фокус на практике, — например, если упоминается векторная запись метода наименьших квадратов, значит она в нарративе решает возникшую боль читателя.»

Читать далее

Как я строил Smart Search для анализа вакансий: семантика, 152-ФЗ и борьба за экономию токенов

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели5.6K

Привет, Хабр! Меня зовут Денис, я продолжаю рассказывать о своём проекте. Эта статья — не очередной обзор фич. Это инженерный пост‑мортем: как я спроектировал умный поиск вакансий, где упёрся в 152-ФЗ, как считал экономику каждого прогона и какие ошибки успел наделать в продакшене.

Если вы делаете LLM/ML‑фичи для B2C/B2B‑продукта в РФ, многие решения покажутся знакомыми, а некоторые — спорными. Буду рад обсуждению в комментариях.

Читать далее

AI КОМП-АС — разбор фреймворка. О: Откуда мы выходим?

Уровень сложностиСложный
Время на прочтение6 мин
Охват и читатели6.5K

Продолжаем разбирать по буквам AI КОМП‑АС, навигационный фреймворк внедрения технологий искусственного интеллекта в бизнес — в данной статье ответим на очевидные, но при этом часто игнорируемые вопросы: О: Откуда мы выходим? Зачем организации понимать, где она сейчас, чтобы прийти туда, куда она хочет? Как это сделать?

Полное описание фрейморка можно найти здесь.

Читать далее

Не надо нам ваших моделей. Мы каждые три месяца сливаем 300 тонн растворителя, и нормально

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели11K

Меня зовут Илья Чебарев, я химик-технолог с большой примесью экономиста. В СИБУРе я руководил проектом по внедрению мультивариантного анализа. Это математический метод, который помог нам разобраться, что на самом деле влияет на обрастание реакторов. Расскажу, как мы собрали команду, нашли инструмент и прошли путь от перебора 70 параметров до конкретных рекомендаций как реже останавливать реактор и сэкономить много миллионов.

Читать далее

EVGeoQA: Оценка LLM в динамическом, многоцелевом геопространственном поиске

Уровень сложностиСредний
Время на прочтение19 мин
Охват и читатели4.3K

Хотя большие языковые модели (LLM) демонстрируют выдающиеся способности к рассуждению, их потенциал для целенаправленного поиска в динамичных геопространственных средах остается малоизученным. Существующие бенчмарки для геопространственных вопросно-ответных систем (GSQA) в основном сосредоточены на статическом поиске информации, упуская из виду сложность реального планирования, которое включает динамическое местоположение пользователя и составные ограничения. Чтобы восполнить этот пробел, мы представляем EVGeoQA — новый бенчмарк, построенный на сценариях зарядки электромобилей (EV), который отличается уникальной привязкой к местоположению и наличием двух целевых условий. В частности, каждый запрос в EVGeoQA явно привязан к координатам пользователя в реальном времени и объединяет две цели: саму потребность в зарядке и предпочтения по совмещенной активности (рядом со станцией). Для систематической оценки моделей в таких сложных условиях мы также предлагаем GeoRover — общую систему

Читать далее

Квантовые данные для ML-инженера: без формул, но с реальными примерами

Уровень сложностиСложный
Время на прочтение20 мин
Охват и читатели4.8K

Доброго времени суток, уважаемые хаброжители! Сегодня поговорим о данных — о той самой основе, без которой в классическом машинном обучении да и в deeplearning, по большому счёту, не происходит вообще ничего, от слова совсем: ни обучения моделей, ни проверки гипотез, ни сколько-нибудь осмысленных выводов, ни построение пайплайнов. И в квантовом машинном обучении история, в сущности, та же самая. Только вот сами данные здесь устроены несколько иначе — и вот здесь как раз начинается самое интересное ;) Когда впервые слышишь словосочетание квантовые данные, реакция, как правило, одна из двух: либо это звучит как что-то из научной фантастики, где сейчас из-за угла выйдет кот Шрёдингера и испортит вам датасет, либо как "ну хорошо, ещё один датасет, просто теперь с модной квантовой приставкой" и всякими наворотами. Сразу скажу: на практике всё интереснее и более вариативно. Именно, последнее и приобретает особо важную роль в современном мире ИИ.

В этой статье мы разберём следующие важные положения:

Читать далее

Что не так с оценкой RAG-системи какое решение предлагает динамический бенчмарк DRAGOn

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели4.8K

Привет, Хабр! В этот раз предлагаю разбор научной статьи DRAGOn: Designing RAG On Periodically Updated Corpus — будет полезна всем, кто интересуется RAG и хочет знать, как оценивать такие системы. 

Структура

1. Почему RAG сложно оценивать 
2. Идея DRAGOn
3. Как строится бенчмарк
4. Проверка качества QA 
5. Проверка бенчмарка на RAG-системах
6. Публичный лидерборд 
7. Ограничения, проблемы и практические выводы

Читать далее
1
23 ...