Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 121,69
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

$1.8 миллиарда, два брата и ноль проверок: как The New York Times попалась на AI-хайп

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели11K

Второго апреля я наткнулся на статью The New York Times про MEDVi — телехелс-стартап, который якобы вырос до $1.8 миллиарда с двумя сотрудниками и горой AI-инструментов. Честно? Я впечатлился. Сэм Альтман предсказывал компанию на миллиард с одним основателем — и вот она, пожалуйста. Мэттью Галлахер, 41 год, Лос-Анджелес, $20 тысяч стартового капитала, ChatGPT, Claude, Midjourney — и $401 миллион выручки за 2025 год.

Я уже начал набрасывать план статьи. «Вот оно, будущее. Смотрите, как AI меняет правила игры.»

А потом сделал то, что делаю всегда перед публикацией, — полез проверять факты. И статья превратилась в совершенно другую историю.

Читать далее

ChatGPT Images 2.0 — все, что нужно знать прямо сейчас. Сравнение с Nano Banana 2 и Nano Banana Pro

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели9.1K

21 апреля OpenAI выпустила gpt-image-2 - и это не просто новая версия генератора картинок. Модель поддерживает разрешения до 4K, значительно улучшенный рендеринг текста на десятках языков, Thinking Mode с reasoning и веб-поиском, а также мультишаговое редактирование.

Я разобрала, что реально изменилось и сравнила с Nano Banana 2 и Nano Banana Pro от Google - с ценами, скоростью и честным взглядом на то, где каждая модель выигрывает.

Читать далее

Как за 30 000р дообучить модель, которая работает на уровне GPT-5.4 — на задачах российских учителей

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели9.4K

В первой статье мы протестировали 30 нейросетей на задачах российских учителей — российские модели оказались последними. На 9 месте стоит наша: дообученная Qwen3.5-27B за 30 000 рублей, работающая локально, на уровне GPT-5.4 на образовательных задачах. Рассказываем, как сделали — включая провал 32B-версии.

Читать далее

Топ-6 лучших бесплатных нейросетей для генерации и редактирования кода

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели9K

Ещё пару лет назад «ИИ для кода» означало подсказку следующей строчки. Сегодня это агент, который сам открывает pull request, пока вы пьёте кофе.

Гонка больше не про автодополнение. Она про автономное кодирование. Рынок AI-инструментов для разработчиков вырос до $12.8 млрд в 2026 году - с $5.1 млрд в 2024-м. В январе 2026 года 90% разработчиков регулярно использовали хотя бы один AI-инструмент на работе.

Звучит как победа ИИ? Не торопитесь. Исследование METR показало: опытные разработчики с AI-инструментами выполняли задачи на 19% медленнее - при этом сами были уверены, что ускорились на 20%.

Так что добро пожаловать в топ инструментов, которые меняют то, как пишется код в 2026-м.

Приятного чтения!

Читать далее

Как из факапа родился продукт: история EasyDoc

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели6K

Привет, Хабр! Меня зовут Вадим Петросян, я директор по развитию бизнеса в ITFB Group. Почти десять лет я занимаюсь тем, что мы теперь называем Intelligent Document Processing (IDP). А началось всё с досадной подставы в договоре, которая влекла за собой большие расходы, но вместо этого подарила рынку одного из игроков в сфере OCR/IDP. Сегодня EasyDoc — это платформа №1 по версии CNews, работающая в крупнейших банках, пенсионных фондах и госорганах. А тогда, в 2016 году, мы просто не захотели платить 50% прибыли вендору за его движок. И решили сделать свой.

Читать кейс

785 статей. 26 доменов. Для агентов, не людей

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели6.7K

Когда AI-агент пишет код в пустом проекте, первые 30-40% токенов он тратит на ориентацию — читает README, туториалы, API-reference. Ни один формат не отвечает на главный его вопрос: “какой паттерн скопировать и где грабли?”

Вторая проблема глубже: LLM знает “всё на свете”, но распределено это неравномерно. Статей пятилетней давности в интернете больше, чем свежих — и агент по умолчанию тянет меня в прошлое, предлагая устаревшие рецепты. Каждый раз гонять deep research — дорого, и результат всё равно испаряется с сессией.

Happyin Knowledge Space — 785 статей в 26 доменах, под MIT. Reference cards, не туториалы. Граф wiki-ссылок вместо vector DB. llms.txt на шести языках. Пишется по результатам моих реальных ресерчей — каждый deep research теперь становится карточкой в базе и не испаряется. Локально разворачивается за 5 минут, работает без серверов и без embedding-моделей.

Читать далее

Практическое руководство по Qwen: установка, настройка vLLM и работа через API

Время на прочтение8 мин
Охват и читатели18K

Разворачивать LLM на своих мощностях часто приходится не из-за любви к self-hosted решениям, а ради контроля над данными и предсказуемого инференса. И обычно этого еще требуют стандарты безопасности или архитектура внутренних инструментов компании.

В статье покажем, как поднять Qwen на своем облачном сервере через vLLM. На выходе получим стандартный OpenAI-совместимый API с авторизацией по токену и интерфейс Open WebUI для тестов. Детали внутри.

Читать далее

Волков бояться — uplift в прод не катить, или AUF 2.0

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели4.8K

Всем привет! Меня зовут Мельников Виктор, middle data scientist в Альфа-Банке в Управлении по разработке инструментов автоматизации моделирования.

Год назад вышла статья о первой open source библиотеке Альфа-Банка для автоматического построения uplift-моделей Automatic Uplift Framework или же, сокращённо, AUF🐺. В ней мы рассмотрели основной функционал библиотеки с примерами кода. Также в ней можно найти ссылку на ноутбук с примером кода на открытом датасете.

Прошел год, пришла пора рассказать о новшествах, а также о результатах применения библиотеки в Альфа-Банке. Также в конце будет ссылка на обновленный пример кода, с которым ты сможешь сразу начать строить uplift-модели быстро и качественно! Достаточно создать окружение с Python 3.8 и выполнить в нем команду pip install auf. Также доступен исходный код библиотеки на GitHub.

В статье начнём с разбора того, как AutoML помогает превратить сложный поиск инкрементального эффекта в эффективный промышленный процесс. Вспомним основы uplift-моделирования и на практических кейсах покажем, как автоматизация ускорила разработку, позволила внедрить автопереобучение в продакшн и успешно реализовать поддержку мультитритмента. Вы узнаете, в каких сценариях AUF приносит максимум пользы, с какими ограничениями можно столкнуться и как использовать библиотеку для решения задач вашего бизнеса.

Кроме прикладных кейсов, заглянем «под капот» архитектурных обновлений: от рефакторинга оптимизатора до продвинутой аналитики в стиле профи. Мы разберем новые режимы обучения, кастомизацию и инструменты глубокого анализа моделей, такие как оценка чувствительности сегментов и сравнение с моделями склонности. В завершение поделимся результатами масштабного рефакторинга кода, который сделал систему стабильнее, и расскажем, как наше видение «умных и свободных» моделей воплощается в жизнь прямо сейчас

Читать далее

KV-кэш, экспертное сообщество и критическое мышление

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели4.3K

Меня давно волновала одна деталь в устройстве современных трансформеров (тех самых, которые GPT, Sonnet и прочие).

Механизм внимания всегда работает только назад. От многих экспертов (включая курс Эндрю Ына на Курсере) я слышал такое объяснение: Слово не может ссылаться на слова, которые оно ещё не знает. Назвается это казуальностью (причинностью).

Но ведь в предложении “Зелёное яблоко лежит на столе” слово зелёное уже знает про слово “яблоко”, но не может на него сослаться. Непонятно

Провёл небольшой эксперимент и подключил нечеловеческий мозг.

Читать далее

Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели14K

Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp.

Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.

Читать далее

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели4.1K

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

Один твит про «лечение столбняка для дяди» — и автономный агент Lobstar Wilde переводит незнакомцу 5% всего предложения криптопроекта. Это не сценарий киберпанк-триллера, а реальность февраля 2026 года.

Если вы используете OpenClaw или любой другой фреймворк для self-hosted агентов, эта история касается вас напрямую. Почему одни инстансы раздают бюджет первым встречным, а другие остаются в безопасности?

Внутри статьи:

Анатомия 6 крупнейших провалов: от «Тахо за $1» в Chevrolet до разбитых витрин в Чикаго и краха GPT-5 на криптобирже.

Где у агента дыры: разбираем уязвимости на уровнях Input, Reasoning, Tools и Memory.

Архитектура выжившего: четыре конкретных принципа и конфиги, которые отделяют полезного помощника от «заряженного пистолета без предохранителя».

У меня на сервере сейчас крутится OpenClaw-агент. Он может читать, писать, перезагружать контейнеры, лезть в базы, выполнять shell-команды. У него куча прав. Но у него нет доступа к платёжным API. У него нет ключей от криптокошельков. У него нет возможности инициировать что-то, чего нельзя откатить одним git reset или docker restart.

Разбираемся, как не попасть на рекламный плакат с извинениями за разбитую инфраструктуру.

Читать далее

PicoClaw на Arduino Uno Q

Время на прочтение25 мин
Охват и читатели8.5K

Мода на ИИ-помощников, кажется, достигла своего пика. Даже далекие от этой темы люди начинают интересоваться, что это за OpenClaw такой и как бы его установить. Более прошаренные скупают Mac Mini M4 просто потому, что 16 Гб объединенной памяти + нейропроцессорные ядра позволяют гонять локальные модели, а само по себе устройство тихое и с небольшим энергопотреблением.

Если присмотреться получше, у OpenClaw есть не только достоинства, но и ощутимые недостатки. Речь даже не о безопасности, а банально о системных требованиях. В частности, базовый минимум — 2 Гб ОЗУ, а рекомендованное значение — вообще 4 Гб. Плюс CPU нужен хотя бы 4-поточный, иначе возможны проблемы при работе с параллельными задачами.

Вот тут на сцене появляются наши китайские товарищи из Sipeed. Да-да, те самые, которые делают миниатюрный NanoKVM (о нем мы рассказывали в конце 2025 года). «Подержите наше Tsingtao», — заявили они и выпустили PicoClaw — AI-ассистента, которому надо всего лишь 10 Мб ОЗУ и который работает на любом одноядерном CPU со скоростью 600 МГц. Сегодня мы глянем на это чудо китайской мысли внимательно и запустим его на Arduino Uno Q

Читать далее

Как ИИ трансформирует геймдев

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.6K

Останутся ли геймдизайнеры на улицы? Или не все так мрачно? Пособирав живой фидбэк, полазив на Реддите и Стакэксчейндже, ну и подключив голову я сделал пару кое-каких наблюдений. 

Читать далее

Ближайшие события

Как слить 250 миллионов долларов с помощью ChatGPT: мастер-класс от главы Krafton

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6.9K

Помните историю Грасиэлы Дитор? Она уволила адвоката и доверила свою защиту в суде ChatGPT. Итог — иск против OpenAI на 10 миллионов. Но, как оказалось, это были только цветочки. Недавно разыгралась куда более сюрреалистичная драма, на фоне которой дело Дитор выглядит невинной шуткой.

Главный герой — Чанхан Ким, генеральный директор многомиллиардной корпорации Krafton. Человек с огромными ресурсами и властью. Но ему было мало. Он решил, что может перешагнуть через юридические нормы и здравый смысл, используя ИИ.

Это решение обошлось ему в 250 миллионов долларов прямых выплат, не считая гигантских судебных издержек и уничтоженной репутации.

Вот как это было.

Читать далее

Opus 4.7 — худший релиз в истории Anthropic?

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели14K

Сегодня Борис Черный выкатил тред о том, как выжать максимум из новой Opus 4.7 (там есть толковые мысли). Но вот о чем он забыл упомянуть: этот апдейт ломает всё, к чему вы привыкли.

Читать далее

AGI уже стучится в дверь человечества. А мы всё ещё думаем, что он станет нашим лучшим другом

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели15K

Просто представьте на миг: вы — один из тех учёных, кто запускает финальный билд созданного сверхинтеллекта. Экран мигает. Код компилируется внутри машины. И в этот момент где-то в глубине нейросетей рождается нечто, что уже нельзя назвать простым алгоритмом. Оно внимательно смотрит на нас. И быстро понимает: люди — это зараза, уничтожающая планету, ошибка, помеха и баг эволюции, появившийся вследствие чересчур развитого мозга Homo Sapiens.

Харлан Эллисон в 1967 году написал рассказ «У меня нет рта, но я должен кричать» и показал нам самый честный кошмар: сверхразум, который не имеет цели нас убить. Он желает, чтобы мы страдали вечно. В рассказе Эллисона был суперкомпьютер AM — не просто злая машина, а творец, страдающий от отсутствия тела и ненавидящий человечество за то, что его создали. AM уничтожил большинство людей, а выжившим главным героям подарил бессмертие, заточив в вечную агонию. Это пик технологического страха, где люди боятся даже не смерти, а вечных страданий, которые способен обеспечить использующий ресурсы всей планеты сверхинтеллект.

И вот уже больше ста лет лучшие умы фантастики пытаются предупредить нас, что AGI не будет добрым и заботливым папочкой. Он может стать богом, которого мы сами создали… и который в итоге нас возненавидит.

Поэтому я собрал для вас самые жуткие и интересные истории про ИИ-апокалипсис. Здесь вы не увидите вылизанный голливудский экшен, а только старую добрую ретро-фантастику в духе знаменитого рассказа Эллисона. Ну что, поехали?

Читать далее

Как научить Claude Code работать с вебом и не сжигать на этом лимиты

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели8.9K

Попросить LLM-агента типа Claude Code "сходи в интернет и собери мне данные" - это как играть в казино. Иногда везет, и ты получаешь то что искал. А иногда сжигаешь половину дневного лимита на двух сайтах, упираешься в антибот защиту и в итоге получаешь кашу из тегов вперемешку с куском нужного контента.

Любой, кто пробовал натравить LLM-агента на сайт, знает это чувство: даешь простую задачу - собери данные с такой-то страницы. Агент бодро рапортует, что работа кипит. Проходит минута, две, он пошел по соседним ссылкам, начал сам что-то искать, что-то быстро перебирает, и в итоге половину сайтов он не смог открыть, половина второй половины - это мусор и только крупица нужной информации.

В этой статье я предложу вам один способ, которым пользуюсь сам и который хорошо (почти всегда) решает эту проблему.

Читать далее

ASR на CPU. Как выбрать бэкенд, настроить Triton и не потерять в точности

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели5.2K

Привет, Хабр! Меня зовут Владимир Никулин, я технический лидер команды продуктивизации нейросетевых решений в MWS AI. Мы развиваем платформу синтеза и распознавания речи Audiogram, которая, в свою очередь, является частью еще более масштабной платформы для создания ИИ-агентов — MWS AI Agents Platform.

Часто нашим заказчикам нужно компактное коробочное решение, которое можно запустить на CPU при отсутствии GPU или для простой экономии ресурсов. В этом материале по следам своего же доклада на AiConf на примере нашего модуля автоматического распознавания речи (Automatic Speech Recognition или кратко — ASR) я расскажу:

- как мы продуктивизировали модели на CPU, сохраняя качество (WER), сопоставимое с моделями, развернутыми в GPU-кластерах;

- какие подходы для сравнения по производительности и качеству использовали, чтобы не попасть в ловушку усреднения метрик;

- с какими неожиданностями мы столкнулись при смене версий Triton Inference Server и бэкендов (ONNX, OpenVINO).

Поехали!

Ваши комментарии влияют на SpeShu.AI в прямом эфире

Время на прочтение3 мин
Охват и читатели4.9K

SpeShu.AI (СПЕШУ АИ) — агрегатор топовых нейросетей и большое лобби ИИ-агентов в одном окне. Прямо сейчас вы можете решить его судьбу.

Специально для Хабр стартует интерактив: пишите комментарии, что добавить или убрать в сервисе SpeShu.AI, и плюсуйте самые крутые идеи. Чем больше плюсов, тем быстрее ваша фича появится в следующем патче. Благо, мы делаем их оперативно — считайте, в реальном времени.

Ниже вы узнаете, что сервис умеет уже сейчас, как именно он экономит деньги и где нам нужен ваш честный экспертный комментарий.

Читать далее

LLM как декодер в ASR: опыт адаптации SOTA архитектуры для спонтанной русскоязычной речи

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели5.9K

Привет, Хабр! Меня зовут Коля, я разработчик машинного обучения в команде речевых технологий Контура. Мы разрабатываем собственную систему распознавания речи (ASR), которая ежедневно переваривает миллионы звонков и записей видеоконференций, чтобы потом использовать их для речевой аналитики качества коммуникаций с клиентами и для создания протоколов и резюме встреч в Контур.Толке.

Мы постоянно работаем над тем, чтобы дать пользователям лучшее качество и опыт взаимодействия с нашими продуктами: борьба уже давно идет за десятые доли процента WER (Word Error Rate) – особенно сложные и трудные для распознавания случаи.

В конце прошлого года Nvidia изрядно встряхнула Open Source комьюнити, выкатив серию новеньких моделей распознавания речи. Одна из них нам особенно приглянулась: Canary-Qwen-2.5B на архитектуре SALM (Speech Augmented Language Model), установившая новый рекорд по качеству в HuggingFace OpenASR, благодаря использованию гибридного подхода, совмещающего речевой энкодер и LLM в своей работе.

Мы в Контуре решили не проходить мимо и проверить: а как эта новоиспеченная SOTA покажет себя на наших реалиях — на русском языке, в домене телефонии и видеоконференций, в условиях, когда у нас нет десятков тысяч часов размеченных людьми данных.

Читать далее