Все потоки
Поиск
Написать публикацию
Обновить
798.58

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Что такое LLMS.TXT и почему эксперты продают бесполезный файл

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров2.5K

Страшно, когда эксперты пишут, пережевывая то, что написали уже другие, да еще и бездумно с помощью нейросетей. А потом все дружно внедряют llms.txt, не разобравшись зачем он нужен и работает ли вообще.

Читать полностью

Борьба с дисбалансом классов. Undersampling

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров1.1K

Привет, Хабр! На связи KozhinDev и ml-разработчик Приходько Александр. Это вторая статья в цикле публикаций по теме борьбы с дисбалансом классов в машинном обучении. В предыдущей статье мы рассмотрели актуальность данной проблемы и сравнили методы борьбы без внесения изменений в данные: балансировка весов классов и изменение порога принятия решения моделью. В данной части будем тестировать балансировку данных методом undersampling из библиотеки imblearn.

Читать далее

Как мы запустили GPU NVIDIA H200 в Selectel, или почему в золотую лихорадку непросто продавать лопаты

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров6.9K

Еще несколько лет назад флагманские GPU встречались в двух сценариях — дорогостоящее обучение моделей с чистого листа или претрейнинг крупных архитектур. Под такие задачи строили целые кластеры: длинные эпохи, десятки миллиардов параметров, месяцы непрерывных расчетов. Даже для обучения относительно «легких» моделей требовались серверы с 4−8 топовыми GPU. А уже сегодня можно заказать сервер сразу с восемью GPU H200, да еще и в формате SXM.

Привет, Хабр! На связи Сергей Ковалёв, менеджер выделенных серверов в Selectel. В этой статье я расскажу, как индустрия оказалась в точке, когда нужны суммарные 1 128 ГБ видеопамяти и куда несется этот «локомотив». Под катом — все подробности.

Читать далее

Как открытые веса раскрыли секреты обучения GPT-5

Время на прочтение11 мин
Количество просмотров9.2K

Команда AI for Devs перевела статью, показывающую, что открытые веса — это не только про прозрачность, но и про утечку тайн обучения. На примере модели GPT-oss автор показывает, как можно восстановить части обучающего пайплайна и даже выявить, что GPT-5 видела фразы с сайтов для взрослых.

Читать далее

Research про рынок AI Приложений от венчурного инвестора, сделавшего х20 на 8-figures капитал за ICO-хайп и DeFi Summer

Уровень сложностиСредний
Время на прочтение2 мин
Количество просмотров290

Лендскейп ИИ-рынка прямо сейчас (Q3 2025) очень похож на WEB3 2017-2018. LLM-гиганты, такие как OpenAI, Google, Antrhopic, X (Grok), Meta находятся в фазе притока максимального институционального капитала, инвестируют его в гонку мощностей, моделей и рекрутмента

Эта гонка очень похожа на инфраструктурную гонку L1 блокчейнов в 2017-18 годах. Ethereum, Solana, Avalanche, Binance Chain сначала привлекали сотни миллионов-миллиарды венчурного капитала, а затем соревновались в пропускной способности сети, скорости и стоимости транзакций.

Читать далее

Все еще борешься с галлюцинациями? Ты просто не умеешь их использовать

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров1.8K

Привет, Хабр! Меня зовут Василий Коновалов, я работаю в команде «Вычислительная семантика» в AIRI. Наша команда сфокусирована на исследовании галлюцинаций и на решении проблем доверительной генерации. Мы учимся находить галлюцинации и бороться с ними.

Но, возможно, мы не всегда должны делать это. Тем более, что научные работы показывают, что галлюцинации неизбежны. Вместо этого мы извлекли из них пользу: мы применили галлюцинации больших мультимодальных моделей для детекции странных картинок — то есть картинок, противоречащих здравому смыслу.

Об этом мы вместе с коллегами из Сколтеха, MWS AI и МФТИ написали научную статью Through the Looking Glass: Common Sense Consistency Evaluation of Weird Images, которую приняли на NAACL. Здесь я кратко расскажу, что именно мы сделали.

Читать далее

Почему ИИ-агенты ошибаются в простых веб-задачах — и как граф знаний помогает им перестать быть тупыми

Время на прочтение3 мин
Количество просмотров3.7K

ИИ сегодня может писать тексты, решать задачи и даже управлять сайтами — казалось бы, уже почти как человек. Но вот парадокс: самые продвинутые агенты до сих пор ошибаются на простых сценариях и путаются с кнопками или таблицами. Почему решения, работающие в теории, так часто валятся на реальных веб‑задачах?

Недавнее исследование раскрывает неожиданный нюанс. Оказалось, что дело не только в мощности модели или объёме данных — важнее то, «как» агент рассуждает и организует свои действия в сложной среде. Команда предлагает свежий подход: превращать веб и документы в особый «граф знаний», а тестовые ситуации собирать из него автоматически. Такой подход сразу проявляет слабые места даже у топовых ИИ.

Разбираемся, как устроен новый бенчмарк, почему агенты спотыкаются на пути к настоящей автономности, и — главное — что всё это говорит о будущем ИИ, который должен быть и умным, и по-настоящему полезным в наших цифровых задачах.

Читать далее

Мы решили задачу омографов и ударений в русском языке

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров9K

Мы наконец решили задачу омографов. Конечно, с рядом оговорок, куда без них. Получилось пресловутое приключение на 20 минут.

Несмотря на кажущуюся простоту (задача по сути является бинарной классификацией, число кейсов с тремя валидными вариантами ничтожно мало), задача является просто кладезем различных "мин замедленного действия" и типичных граблей в сфере машинного обучения. Да, задачу "ёфикации" (расстановка буквы ё там, где люди её поленились поставить) мы считаем частным случаем задачи простановки ударений и омографов.

Также мы опубликовали наше продуктовое решение для простановки ударений (в омографах в том числе) в рамках репозитория silero-stress и также напрямую через pypi. В ближайшее время добавим эту модель и обновим наши публичные модели синтеза и раскатим более мощную "большую" (тоже маленькую по современным меркам) версию модели в приватные сервисы и для клиентов. Также мы опубликовали бенчмарки качества и скорости публичных академических решений … и там всё очень неоднозначно.

Наливайте себе чай, садитесь поудобнее. Мы постараемся описать наш путь длиной в вечность без лишних подробностей.

Сели, налили, читаем

Вся суть ансамблей на примере Случайного Леса и Градиентного Бустинга

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров2.2K

Изучая классическое машинное обучение, я постоянно натыкался на парадокс: материалов много, а интуитивно понятных объяснений, почему ансамбли — это так мощно, на удивление мало.
Я хочу это исправить. В этой статье мы разложим по полочкам саму концепцию ансамблей. А затем по логике ансамблей разберем двух "королей" этого подхода: Случайный Лес и Градиентный Бустинг.

Читать далее

AI-агенты для SEO: как автоматизировать 98% рутины и не потерять качество

Уровень сложностиСредний
Время на прочтение33 мин
Количество просмотров5.3K

Четыре месяца назад я сидел в офисе клиента в Минске. Владелец интернет-магазина спортивного питания смотрел на график Analytics. Линия трафика ползла вниз. Медленно. Но неумолимо.

«Мы делаем всё правильно», — сказал он. И был прав.

Контент. Техническая оптимизация. Ссылочная масса. Команда из трёх SEO-специалистов работала на пределе. Но конкурент из Москвы обгонял их каждую неделю. По всем фронтам.

Я открыл сайт конкурента. Замер. За последние три месяца они опубликовали 90 новых статей. Детальные гайды по спортпиту. Сравнения. Обзоры. Внутренняя перелинковка выстроена хирургически точно. Schema.org разметка на каждой странице. Технические параметры — как у enterprise-проекта.

Позвонил знакомому, который работает в той компании. Спросил прямо:

«У вас что, команда из двадцати человек?»

Пауза. Смех.

«Один SEO-специалист. Плюс AI-агенты. Автоматизировали 98% процессов.»

Вот тогда я понял. Правила изменились. И большинство об этом ещё не знает.

Читать далее

Нейро-дайджест: ключевые события мира AI за 2-ю неделю октября 2025

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров2.1K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась насыщенной: OpenAI провели «DevDay», Anthropic выкатили нового короля кодинга — Claude Sonnet 4.5. Релиз Sora 2 и Grok Imagine v0.9, не совсем безопасный ИИ-браузер Comet и Grokipedia от Илона Маска. Большая сделка OpenAI × AMD, нейро-лаборатория Дурова и школа, где учителей заменили на ИИ.

Всё самое важное — в одном месте. Поехали!

P. S. Если что, выпуск не спонсирован OpenAI, но они самые громкие на этой неделе! 

Читать дайджест →

Про технологии: Нейросети: +1 в команде, часть 1

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров355

Когда дедлайны дышат в спину, а компании нужно локализовать сотни обучающих видеороликов, то есть два варианта:

1. Уйти в дауншифтинг и завести ламу

2. Взять под контроль хаос мультиязычных видео, автоматизировать распознавание речи, оптимизировать процесс локализации и внедрить нейроозвучку

Ну, собственно, мы выбрали второй вариант) Собственно, в статье мы расскажем про наш пайплайн локализации видео, с какими граблями столкнулись и почему теперь фразы в духе «А давайте добавим еще один язык?» нас уже не так уж и пугают.

Читать далее

Данные WhatsApp и Telegram для ML-моделей: тренд или серый рынок?

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров1K

В этой статье я расскажу про данные Whatsapp и Telegram для ML-моделей: какие данные доступны, насколько они ценны и насколько легальны.

Читать далее

Ближайшие события

Собираем собственный ЦОД. 30 петабайт дискового пространства для предобучения моделей

Время на прочтение15 мин
Количество просмотров3.7K

Как потратить почти полмиллиона долларов, чтобы собрать в центре Сан-Франциско хранилище данных объёмом 30 петабайт

Мы собрали в центре Сан-Франциско центр для хранения данных с общим дисковым пространством, где хранятся видеоданные общей длительностью 90 миллионов часов. Зачем? Мы предобучаем модели, чтобы разобраться с использованием компьютеров. Дело в том, что видео гораздо крупнее, чем текстовые данные. Например, на обучение такой текстовой БЯМ как LLaMa-405B требуется ~60 ТБ текстовых данных, а на хранение видео нужно в 500 раз больше текстового пространства. За хранение всей этой информации на серверах AWS пришлось бы выложить 12 миллионов долларов в год, поэтому мы пошли другим путём и арендовали пространство в колокационном центре в Сан-Франциско. Так нам удалось снизить эти расходы примерно в 40 раз (до $354 тысяч в год, считая издержки на устаревание).

Читать далее

Актуальные вопросы по ИИ и перспективным технологиям

Время на прочтение7 мин
Количество просмотров545

Эксперты Gartner дают краткие ответы на свежие вопросы клиентов о перспективных технологиях.

Фокус на принятии решений: когда инвестировать в агентный ИИ и DSLM, какие метрики измерять и как масштабировать без потери контроля.

Читать далее

Безопасность — это не отсутствие структуры, а наличие правильной структуры: топология как новый язык науки

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров1K

В этой статье мы рассмотрим, как топологические методы меняют или будут менять наше понимание безопасности. Мы увидим, что безопасность не достигается через максимальную случайность, а через специфическую, строго определенную топологическую структуру — тор с максимальной энтропией. Это не просто шаг вперед — это прыжок в новую эпоху, где безопасность перестает быть верой и становится наукой.

Читать далее

MWS Vision Bench: первый русскоязычный бенчмарк для бизнес‑OCR в эпоху мультимодалок

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров1K

Мультимодальные LLM уже умеют «читать» документы — от договоров и таблиц до рукописей и диаграмм. Но измерять их качество на реальных бизнес‑сценариях негде и нечем, особенно если дело касается работы с тяжелым OCR-контентом на русском. Мы собрали MWS Vision Bench — бенчмарк из 5 практических заданий: полностраничный OCR (страница→текст), структурированный OCR (страница→markdown), grounding (координаты текста), KIE/JSON (извлечение ключей) и VQA (вопрос‑ответ). Размер: 800 изображений, 2580 вопросов (валидация - 1 302, тест - 1 278). Код и валидационный сплит открываем; приватный тест — по запросу. Повторить запуск можно менее чем за 1 час.

За подробностями

Как работает Context Engineering в Claude и других агентах

Уровень сложностиПростой
Время на прочтение13 мин
Количество просмотров3.7K

Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Компакция, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

Читать далее

Соревнование по машинному обучению — предскажите следующее состояние рынка

Время на прочтение3 мин
Количество просмотров1.9K

Привет, Хабр! Недавно мы запустили Wunder RNN Challenge — соревнование по машинному обучению, где нужно предсказывать следующее состояние рынка по последовательности предыдущих состояний.

В этом посте мы расскажем, что это за состояние рынка, и в чём вообще прикол.

📅 Решения принимаются до 1 декабря
💰 Призовой фонд $13,600

Читать далее

Оптимизация источников данных для ML моделей

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров797

В этой статье хочется поделиться собственной методикой оптимизации источников данных для кредитного скоринга и представить ключевые результаты реальных замеров на российском рынке.

Читать далее

Вклад авторов