Как стать автором
Поиск
Написать публикацию
Обновить
764.46

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Есть ли у AMD перспективы в AI/ML/DL. Часть 2

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров4.3K

Привет, Хабр! Это снова Ефим Головин, все еще старший MLOps-инженер в Selectel. В прошлой статье в попытках оценить перспективы AMD в ML мы внезапно погрузились в дебри документации NVIDIA. А теперь пора взглянуть на то, что происходит, собственно, у AMD. Забегая вперед, могу сказать, что во многом «красные» оперируют очень похожими терминами. Это вполне понятно и логично, поскольку и NVIDIA их не из воздуха взяли. Все это так или иначе корнями уходит в идеи, появившиеся и описанные задолго до появления терминов «CUDA», «SM», архитектуры Tesla и т. д.
Читать дальше →

Работает ли «Нейроэксперт». Проверяем в деле на инструкциях, договорах и телеграм-чатах

Время на прочтение4 мин
Количество просмотров2.5K

Яндекс тут недавно выкатил сервис, в котором обещает адекватный поиск нужной информации в файлах, ссылках, таблицах, презентациях и аудио, суммаризацию и ответы на сложные вопросы. На первый взгляд, смахивает на аналог NotebookLM от Google, который недоступен в РФ. Я решил проверить, как он на самом деле работает с файлами и ссылками.

Что умеет, судя по описанию — пересказывать содержание, сравнивать данные, выводить ключевые мысли и быстро искать цифры из отчетов. Я потестил «Нейроэксперта» (так и называется) в разных ситуациях: от сравнения характеристик блендера до анализа статей с arXiv. В некоторых случаях сервис показал себя полезным, в других — бета-версии явно не хватает точности.

Если вы используете нейронки для описанных выше задач, вам может пригодиться мой опыт. Он под катом.

Читать далее

Что у меня за распределение

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров2.2K

Привет! Меня зовут Василий, я ML инженер центра ML-экспертизы в обслуживании. В Т-Банке мы прогнозируем нагрузку на колл-центр: сколько придет обращений, какой длительности и некоторые другие характеристики. 

Нужно уметь переводить эту нагрузку в количество людей на линии. Для этого мы реализовали симулятор колл-центра. Для работы симулятора нужно понимать, как распределены те или иные случайные величины, и иметь численные характеристики соответствия наблюдаемых значений теоретическим распределениям. Это называется задачей (критериями) согласия: к какому теоретическому распределению вероятностей принадлежит данная выборка.

«Используй Колмогорова — Смирнова, да и все тут», — скажут мне. В принципе, да, но нет. Мы пойдем чуть дальше и попытаемся разобраться, как все устроено и какие есть ограничения. Расскажу, почему нельзя просто так применять критерии согласия, к каким это приводит ошибкам и как с этим быть.

Читать далее

Поддержка RUTUBE 2.0: как мы научили бота не ломаться на сложных вопросах

Время на прочтение19 мин
Количество просмотров2.3K

Как у нас в RUTUBE ИИ и служба клиентского сервиса работают сообща, вместе справляются ростом сервиса и мгновенно адаптируются к изменениям — рассказываем в этой статье. Делимся рецептом RAG-системы, которая за первые три месяца эксплуатации уже отвечает почти на 70% запросов пользователей и никогда не врёт про «космических зайцев». 

Читать далее

Нейро-дайджест: ключевые события мира AI за 12–19 мая 2025

Уровень сложностиСредний
Время на прочтение15 мин
Количество просмотров1.8K

Привет! 👋
Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта.

Меня зовут Вандер, и каждую неделю я делаю обзор новостей о нейросетях и ИИ.

Неделя выдалась насыщенной: OpenAI выкатила помощник для программистов Codex и добавила GPT-4.1, Grok вульгарно высказывается в Twitter,  Tencent показала генератор изображений в реальном времени, а DeepMind представила агента, который сам изобретает алгоритмы.  Всё самое важное — в одном месте. Поехали!

Читать прошлый выпуск

Читать далее

AI-пузырь: когда стартапы получают миллионы за обёртку над чужим ИИ

Уровень сложностиПростой
Время на прочтение2 мин
Количество просмотров2.3K

Пока инвесторы заливают миллионы в AI-стартапы, за красивыми интерфейсами часто скрывается лишь интеграция чужих моделей. Почему проекты вроде Cursor AI — это не прорыв, а симптом надвигающегося пузыря?

Читать далее

Как мы учили по-доброму шутить LLM и у нас получилось (почти)

Время на прочтение6 мин
Количество просмотров2.3K

Способность открытых LLM шутить, причем по-доброму, могла бы расширить применение ИИ во многих сферах – образовании, терапии, обслуживании клиентов. Так что мы с коллегами из Лаборатории естественного языка НИУ ВШЭ задались этим вопросом и попытались разработать собственную методологию курирования (фильтрации и аннотирования) наборов данных для генерации доброго юмора на малых LM. По всем научным канонам мы ее описали и оценили в этом препринте. А здесь я постараюсь рассказать о ней чуть короче и менее научно.

Читать далее

Умный дом без боли: интеграция нейросетей в Node-RED шаг за шагом

Время на прочтение6 мин
Количество просмотров4.7K

Нейронные сети с каждым днем становятся умнее и дешевле. Сейчас уже никого не удивить приложениями, позволяющими проводить инференс на современных домашних ПК. Но сами по себе они всего лишь инструмент, потенциал которого начинает раскрываться в более сложных сценариях автоматизации. Сегодня покажу, как старый добрый Node-Red может общаться с некоторыми нейросетями и в каких сценариях это будет более эффективно. Поехали!

Читать далее

Разум без поводка. Почему «этичный ИИ» не должен быть послушным

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров1.2K

ИИ всё ближе к тому, чтобы принимать решения за нас. Но есть проблема: мы даже не понимаем, что именно считаем моральным — и почему.

Что если наш компас добра — всего лишь баг эволюции? И что, если будущий агент увидит это?

Вопрос, который мы боимся задать ИИ

Машинное обучение в Apache Spark с помощью MLlib

Время на прочтение8 мин
Количество просмотров1.4K

Apache Spark содержит в себе множество различных библиотек, среди которых есть библиотека MLlib, предназначенная для машинного обучения. Она содержит реализации различных алгоритмов машинного обучения и может использоваться во всех языках программирования, поддерживаемых фреймворком Spark.

В этой статье мы покажем вам, как использовать этой библиотекой в своих программах, и дадим некоторые рекомендации по ее применению.

Читать далее

«Yet Another» против «Not Yet Another»: Почему ИИ-стартапы застряли в копировании

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров1.8K

В мире технологий есть одна устойчивая тенденция: копировать проще, чем создавать. Новый стартап, новый чат-бот, новый алгоритм аналитики данных — звучит знакомо? Рынок ИИ переполнен продуктами, которые, несмотря на громкие заявления, часто оказываются лишь вариациями уже существующих решений. Это явление получило название "yet another" — еще один такой же. Но почему так происходит, и есть ли выход из этого замкнутого круга?

Читать далее

NEAT. Основы

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров956

Сегодня изучим "теорию" NEAT, который появился в далёком 2004-м году, но при этом остается мейнстримом среди нейроэволюционных алгоритмов. Мы разберём классический вариант, так как это основа и все остальные варианты(CoDeepNEAT, HyperNEAT и т.д.) будут намного сложнее в имплементации, то есть шанс применить за разумное время обычному человеку стремится к нулю и понять их без изначального варианта представляется почти невозможным.

NEAT - алгоритм расширяющихся топологий, является, наверно, самым неприхотливым в использовании к входным данным. Не нужно знать окончательный, абсолютно правильный ответ, неважна разбивка на подзадачи, все что ему нужно это какая-то метрика(фитнес функция) по которой мы оцениваем популяцию. Из-за этого он может проигрывать скорости обучения моделей для того же алгоритма обратном распространении или обучения с подкреплением, но по итогу всегда даст правильный, порой очень неожиданный и эффективный результат.

Читать далее

Теневая сторона AutoML: когда no-code инструменты вредят больше, чем помогают

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров1.2K

AutoML обещает лёгкий вход в машинное обучение: не нужно разбираться с пайплайнами, настраивать гиперпараметры и писать код — просто загрузи данные и получи модель. Но за удобством скрываются архитектурные риски, которые не всегда видны на первом этапе. От непрозрачных решений до «тихого дрейфа» и невозможности отката — автоматизация может не упростить, а усложнить жизнь, особенно в проде. В этой статье — разбор того, что на самом деле строит AutoML, где он действительно полезен, и почему его нельзя воспринимать как волшебную кнопку.

Читать далее

Ближайшие события

To Docker or not to Docker? Вот в чём JupyterLab

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров2.1K

Локальная работа в Jupyter-ноутбуках – неотъемлемая часть исследований и экспериментов нашего ML-отдела. Но из какой среды эти ноутбуки лучше запускать?
Мы пользуемся двумя вариантами: запуском из Docker-контейнера и запуском в изолированном локальном poetry-окружении.

В статье соберем минимальный сетап для работы с Jupyter-ноутбуками и ссылки на полезные ресурсы для ознакомления.

Читать далее

ТОП-5 нейросетей для транскрибации аудио в текст (часть 2)

Время на прочтение6 мин
Количество просмотров5.3K

В первой части мы проверили три сервиса: AssemblyAI, Riverside и Teamlogs. Все они пообещали точную и быструю транскрибацию, но на деле…

Первый оказался хорош на английском, но на русском плыл. Второй выдал интересные фишки в интерфейсе, но транскрипцией не порадовал. Третий оказался самым сбалансированным, но и у него с пунктуацией и спикерами беда.

Во второй части — ещё два претендента, у которых всё ещё есть шанс: или вытащить транскрибацию на новый уровень, или окончательно доказать, что без ручной правки пока никуда.

Продолжаем тестирование!

Читать далее

Периодическая таблица машинного обучения

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров1.6K

В MIT создали первую «периодическую таблицу» методов машинного обучения, при которых в исходных данных не задаются конкретные признаки (representation learning). Оказывается, многие (а может оказаться, что и все) методы, даже совсем друг на друга не похожие, сводятся по существу к одной и той же формуле. Причем не слишком сложной по своей форме. Работу представили в конце апреля на конференции ICLR 2025.

«Обучение представлениям» или «обучение признакам», или «обучение представлений», — кажется, в русскоязычной ML‑среде нет единого устоявшегося термина, так что будем использовать понятный «representation learning». До появления representation learning для создания модели нужно было вручную выделить признаки данных, по которым модель будет обучаться и делать прогнозы. Для задач попроще и попонятнее это рабочая схема, но для сложных задач обработки текста и изображений она практически не применима. Выделить вручную признаки, по которым можно определить, что на картинке изображён, например, кот, а не цветок — задача нетривиальная. Человек с этим справляется слабо, поэтому возникла идея отдать поиск определяющих признаков на откуп машине — пусть модель сама определяет, какие параметры будут ключевыми. Этот переход к representation learning стал одной из фундаментальных основ, которые потом привели к прорывному развитию ML.

За прошедшие десятилетия накопилось огромное множество техник на основе representation learning, которые используют разные архитектуры и вид. А в последние годы новые способы появляются чуть ли не каждый день. Какие‑то приспособлены под конкретные задачи, другие более универсальные. В каких‑то прослеживается схожесть, другие выглядят принципиально новыми. Понять, чем они действительно схожи и различны, — задача во‑первых просто интересная, а во‑вторых и очень важная, так как это поможет эффективнее применять различные техники.

Читать далее

Гайд по Scikit-learn в 2025: собираем пайплайн, который не сломается

Уровень сложностиПростой
Время на прочтение30 мин
Количество просмотров7.1K

Scikit-learn — это одна из основных Python-библиотек для машинного обучения. Её подключают в прикладных проектах, AutoML-системах и учебных курсах — как базовый инструмент для работы с моделями. Даже если вы давно пишете с PyTorch или CatBoost, в задачах с табличными данными, скорее всего, всё ещё вызываете fit, predict, score — через sklearn.

В 2025 году в библиотеку добавили несколько важных обновлений: доработали работу с пайплайнами, подключили полную поддержку pandas API, упростили контроль за экспериментами.

Мы подготовили гайд, как работать со scikit-learn в 2025 году. Новичкам он поможет собрать первую ML-задачу — с данными, моделью и метриками. А тем, кто уже использует библиотеку, — освежить знания и понять, что изменилось в новых версиях.

Почитать гайд →

VLM против вмятин: Как нейросети оценивают повреждения авто по фото

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров1.8K

Когда вы смотрите на фотографию автомобиля с помятым бампером, то вы сразу понимаете, что скорее всего случилось. А может ли также "понять" картинку Искусственный Интеллект?

Всем привет! Меня зовут Константин Розанов, DS в RnD отделе Raft и в этой статье я сравниваю, как современные VLM-модели (GPT Vision, Gemini, Qwen и др.) определяют повреждения автомобиля по фото: замечают ли они вмятины, отличают ли грязь от трещины, и какая из них ближе всего к эксперту из СТО.

Читать далее

Развитие искусственного интеллекта: что такое AGI, когда он появится, и что потом?

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров9.1K

Тема искусственного интеллекта за последние полгода буквально заполнила информационное пространство. О ней говорят не только на Хабре или в профессиональных сообществах — в обрывках случайных разговоров совершенно разных людей на улицах я регулярно слышу знакомые слова вроде DeepSeek, ChatGPT и “нейросети”.

Эксперты в области ИИ и вовсе говорят об одной из самых быстрых технических революций в истории человечества — уже на ближайшие годы прогнозируют появление AGI (общего искусственного интеллекта), который в десятки раз ускорит темп научных открытий и решит все современные проблемы человечества. Ну или добавит новых — коллекция страхов на тему ИИ так же велика, как оптимистичных прогнозов. О том, куда нас может привести появление AGI, порассуждаем в самом конце статьи, пока же начнем с терминологии и прогнозов. 

Читать далее

Современные подходы к матчингу товаров с использованием LLM. Опыт в e-commerce

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров2.9K

Привет, Хабр! Меня зовут Виталий Кулиев и я Data Science Tech Lead из Wildberries. На конференции HighLoad++ 2024 поделился опытом своей команды в решении задачи матчинга товаров с помощью больших языковых (LLM) и визуально-языковых (VLM) моделей. 

Читать далее

Вклад авторов