Обновить
687.66

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

130+ датасетов для машинного обучения: гид, который сэкономит часы поиска нужных данных

Время на прочтение27 мин
Количество просмотров7.9K

Сколько раз вы начинали новый ML-проект и первым делом отправлялись на поиски подходящих данных? Процесс этот знаком каждому: есть задача, выбрана архитектура модели, но без качественного датасета дальше не продвинуться. Тут и начинается квест по бесконечному поиску «того самого» набора по репозиториям, форумам и каталогам. 

Хороших датасетов множество, но найти среди тысяч вариантов нужный — отдельная история. Чтобы облегчить вам эту задачу, мы сделали подборку датасетов, которые активно используются ML-инженерами: от классических наборов данных, известных каждому, до новичков в информационном поле.

Читать далее

Новые вирусы против супербактерий: как ИИ меняет правила игры

Время на прочтение5 мин
Количество просмотров1.2K

Супербактерии — микроорганизмы, не реагирущие на антибиотики. Что это значит? Болезни, которые раньше лечились за несколько дней, теперь становятся опаснее. Каждый год от таких инфекций умирают миллионы людей, и к 2050 году число жертв может вырасти до десяти млн в год. Проблема в том, что новые лекарства создаются медленно и стоят все дороже, а бактерии мутируют быстрее, чем фармацевтика успевает на них реагировать.

В этой ситуации на помощь приходят бактериофаги, или фаги, — вирусы, которые естественным образом уничтожают «суперов», не затрагивая клетки человека. А еще в этом помогают технологии. Так, ИИ позволил создать совершенно новые варианты вирусов, которые могут преодолевать даже искусственно выведенную устойчивость. Сегодня предлагаю разобрать, как работает этот механизм и какие вызовы стоят перед методами, сочетающими биологию с машинным обучением.

Читать далее

Как ИИ научился делать научные видео — от слайдов до говорящей головы

Время на прочтение4 мин
Количество просмотров1.1K

ИИ уже умеет многое: от сочинения текстов до генерации сложных картинок. Но стоит дать ему реальную задачу — вроде создания научного видео по длинной статье, — и он тут же сталкивается с неожиданными трудностями. Почему же до сих пор самые умные модели часто уступают человеку в таких, казалось бы, рутинных задачах, где важна не только начинка, но и подача?

Новое исследование показало интересный поворот: дело не только в качестве речи или зрелищности слайдов. Ключевая сложность — правильно собрать всё вместе: знания, логику повествования, невербальные детали и даже такие мелочи, как движение курсора по слайду. Именно в этом ИИ часто спотыкается, а не в отдельной “говорящей голове” или красивой анимации.

Разбираемся, как современные ИИ учатся имитировать настоящих докладчиков: что нового придумали исследователи, почему для оценки качества нужен целый набор свежих метрик и как прозрачная модульная архитектура наконец-то позволяет ИИ не просто воспроизводить информацию, а действительно объяснять как настоящий докладчик.

Читать далее

Топ-3 ML-модели, которые помогут в продуктовой аналитике

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров4.1K

Как использовать ML-модели, чтобы не просто анализировать пользователей, а управлять их поведением — предсказывать отток, оценивать эффект от акций и подбирать оптимальные воздействия.

В этой статье я собрал три типа моделей: прогнозирование поведения, uplift-модели и выбор оптимального воздействия. Давайте разбираем, как они устроены и где реально приносят пользу.

Читать далее

Книга: «Промт-инжиниринг для LLM. Искусство построения приложений на основе больших языковых моделей»

Время на прочтение2 мин
Количество просмотров13K

Привет, Хаброжители! Большие языковые модели (LLM) кардинально меняют мир, обещая автоматизацию различных задач и решение сложных проблем. Программные приложения последнего поколения используют эти модели в качестве строительных блоков для создания новых возможностей практически во всех областях, но, чтобы пользоваться этими возможностями, нужны навыки. Книга расскажет о науке и искусстве промт-инжиниринга, и эти знания помогут вам раскрыть истинный потенциал LLM.

Опытнейшие эксперты Джон Берриман и Альберт Циглер поделятся приемами эффективного взаимодействия с ИИ и расскажут, как представлять свои идеи в формате, удобном для языковой модели. Освоив философские основы и практические приемы, вы обретете знания и уверенность, необходимые для создания приложений нового поколения на базе LLM.

Читать далее

Почему GPT’s стал отвечать «проще» и как строить Ассистентов с учётом Free-пользователей

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров2.8K

У многих ощущение, что GPT's в ChatGPT стали отвечать хуже. Разбираем, что реально изменилось в моделей и тарифах, чем GPT's отличаются от Projects и «Агентов», и что делать авторам кастомных ассистентов, чтобы сохранить качество для платных и бесплатных пользователей.

Читать далее

LLMO на практике: как попасть в тренировочные данные будущих AI-моделей (и зачем Вам это нужно уже сегодня)

Уровень сложностиСредний
Время на прочтение32 мин
Количество просмотров1.3K

Три месяца назад я начал замечать странную закономерность. Открываю ChatGPT, задаю вопрос по SEO — получаю детальный ответ с цитированием пяти-семи источников. Проверяю Claude с тем же запросом — снова развёрнутый ответ, четыре ссылки на компании и блоги. Perplexity показывает топ-7 ресурсов с описаниями. Gemini выдаёт структурированный список решений.

И вот что интересно. Одни и те же сайты появляются в этих ответах постоянно. HubSpot, Moz, Backlinko, Ahrefs, SEMrush — их цитируют снова и снова. А сотни качественных блогов, которые я читаю годами, в этих ответах отсутствуют. Вообще.

Начал копать глубже. Что у этих постоянно цитируемых ресурсов общего? Почему AI-модели выбирают именно их?

Понимаете, что произошло? Правила игры изменились. И большинство об этом ещё не знает.

Читать далее

От одной видюхи в офисе до AI-хакатона: пошаговая инструкция по организации

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров1K

Привет, Хабр! Эта история началась не со стратегической сессии и не с приказа сверху. Она началась с того, что в 2023 году наши разработчики, как и многие в IT-сообществе, подхватили хайп вокруг LLM и начали в свободное время ковырять Llama 2 и другие модели. Все это происходило на личных и рабочих машинах, и довольно быстро стало понятно: для серьезных экспериментов мощностей не хватает.

Шаг 1. Искра: как низовая инициатива разожгла пламя. От любопытства к общему железу

Точкой невозврата стал момент, когда группа энтузиастов пошла к руководству с простой идеей: «Давайте купим в офис одну общую, но мощную видеокарту для всех». К нашему удивлению и радости, руководство идею поддержало и выделило бюджет. Это была не просто покупка GPU, а инвестиция в зарождающееся комьюнити.

Читать далее

Сначала был кремний: Почему архитектура чипов, а не код, определяет будущее AI

Уровень сложностиПростой
Время на прочтение13 мин
Количество просмотров2K

Мы, разработчики, верим, что наш код — движущая сила AI. Но что, если все наши решения предопределены архитектурой чипов? Эта статья — погружение в «кремниевую геологию»: от монополии NVIDIA и CUDA до восстания альтернатив вроде Groq и Cerebras, кастомных чипов Google и Apple и геополитической войны, которая меняет правила игры для каждого из нас.

Читать далее

Итоги DevDay 2025: OpenAI представила Apps SDK, AgentKit и новые модели — полный разбор анонсов

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров1K

Вчера вечером в Сан-Франциско прошла конференция DevDay 2025, на которой OpenAI представила масштабное обновление своей экосистемы. Компания заметно сместила фокус с потребительских продуктов на создание надёжной и масштабируемой платформы для разработчиков и корпоративного сегмента. Под руководством CEO Сэма Альтмана и при участии легендарного дизайнера Джони Айва мероприятие продемонстрировало новое видение ChatGPT как центральный хаб для взаимодействия с приложениями, данными и автоматизацией.

Читать далее

Российские ученые разработали адаптивную систему управления манипулятором на колесах, основанную на работе нейросети

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров1.1K

Коллектив российских исследователей представил инновационный подход к адаптивному контролю траектории колесного мобильного манипулятора. Они соединили адаптивное управление с использованием нейронных сетей и методы ограничения выходных параметров, что позволило значительно улучшить точность отслеживания траектории и безопасность работы манипуляторов.

Читать далее

Как я пытался ускорить анализ 12 000 комментариев с помощью GPU за 50 тысяч, но победил процессор

Время на прочтение4 мин
Количество просмотров12K

История о том, как я хотел провести анализ комментариев, а в итоге получил неожиданный, но полезный опыт с локальным AI.

Недавно передо мной встала задача собрать все положительные комментарии к моим статьям. Веду их учёт в таблице, и там уже вполне серьёзные цифры — больше 300 строк и свыше 10 тысяч комментариев. Основные площадки, где я публикуюсь, выглядят так:

Хабр — 4 497 комментариев

Т‑Ж — 4 186

Смартлаб — 1 998

Пикабу — 726

Вручную искать в этом массиве текста слова поддержки — долго и нудно, а главное — совершенно не масштабируется. Так родилась идея: поручить всё локальной нейросети для анализа тональности. Заодно я хотел на практике разобраться с моделями на основе BERT.

Для этой цели у меня был, как мне казалось, идеальный инструмент: компьютер с Ubuntu 24 LTS, Docker и мощной NVIDIA GeForce RTX 5060 Ti на 16 ГБ. Казалось, что с RTX 5060 Ti на 16 ГБ анализ пройдёт молниеносно. Но на деле именно GPU стал главной точкой отказа — пришлось всё считать на CPU.

Код на GitHub.

Читать далее

Наука без кеша: почему исследователи LLM не переиспользуют знания

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров5.7K

Мы десятилетиями решаем одну и ту же задачу двумя разными способами — и называем это прогрессом. Метрики оценки и модели вознаграждения в LLM-комьюнити развиваются как параллельные ветви эволюции, почти не обмениваясь знаниями. Статья 2510.03231 показывает, насколько глубока эта изоляция — и как объединение подходов может сделать оценку моделей проще, точнее и… дешевле в вычислительном смысле. Это не просто обзор — это рефакторинг всей исследовательской экосистемы.

Читать далее

Ближайшие события

О сути здравого смысла и применимости его в искусственном интеллекте

Время на прочтение9 мин
Количество просмотров19K

Как пить из чашки, если у неё нет дна, а верх запаян? Эта милая загадка, которую я припоминаю ещё из старших классов школы, стала чрезвычайно мемной минувшим летом, когда выяснилось, что она ставит в тупик самые современные языковые модели. ChatGPT оказывается на удивление наивен, сталкиваясь с ней:

Читать далее

AgentKit от OpenAI: как закончилась эпоха хаоса в мире ИИ-агентов

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров8.2K

До сегодняшнего дня сборка и запуск AI-агентов напоминала джунгли. Разработчики метались между десятками несовместимых SDK, кастомных пайплайнов и ручных интеграций. Построить надёжного агента значило неделями клеить код, чинить баги в оркестрации и постоянно балансировать между скоростью и качеством. Теперь OpenAI предлагает другой путь — AgentKit, набор инструментов, который объединяет в себе всё, что раньше требовало десятков фреймворков и недель настройки.

Читать далее

Опыт гуманитария в дообучении LLM с помощью WebUI Text Generation

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров3.9K

Продолжаю делиться опытом освоения нейросетей человеком с гуманитарным образованием и без IT-бэкграунда. На этот раз моей целью было разобраться, как происходит дообучение готовых LLM-моделей, как выстраивать процесс, какие использовать данные, модели, настройки и прочее. Зачем мне это понадобилось?

Во-первых, это вызов самому себе. Юристов, которые смогли бы дообучить языковую модель под свои задачи, думаю, единицы. Хотелось стать одним из тех, кому это по силам, тем более что тема мне интересна.

Во-вторых, никогда не знаешь, как такие навыки могут пригодиться в будущем. У меня есть идея: дообучить модель для работы с юридическими документами, чтобы она могла с высокой точностью интерпретировать указанные в них обстоятельства и подготавливать на основе анализа возражения, пояснения, жалобы и другие документы.

Но для этого нужно понимать, как устроен процесс обучения и из каких элементов он состоит. На момент, когда я взялся за эту тему, у меня были только идея и желание разобраться. Я понимал, что нужно начинать с малого, двигаться небольшими шагами от простого к сложному. Поскольку среди моего окружения не оказалось людей, разбирающихся в этой теме, а понятных гайдов по обучению я не нашел, все мои вопросы по обучению адресовались Grok, Qwen, Deepseek, Gemini и ChatGPT (только бесплатные версии).

Забегая вперед, скажу, что это была далеко не команда мечты. Большинство ошибок произошло из-за недосказанности, галлюцинаций и разных причуд нейросетей. Если бы у меня было хотя бы минимальное понимание того, какие существуют обученные LLM-модели, с какими стоит работать, а каких лучше избегать, я потратил бы на процесс обучения не неделю с небольшим, а справился бы за пару дней.

Читать далее

Ноам Хомский: его вклад в IT и ИИ

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров2.4K

Пока многие опасаются и прогнозируют, что скоро из-за развития ИИ не станет большинства рабочих мест, и машины полностью заменят человека, идеи Ноама Хомского могут прозвучать довольно обнадеживающе. «Какими бы полезными ни были эти программы в некоторых узких областях, машинное обучение в его нынешнем виде никак не может конкурировать с человеческим разумом», — считает ученый. 

Насколько интеллект искусственный вообще отражает интеллект реальный, являются ли разработки в сфере ИИ просто практичным способом нарастить прибыль или реальным научным достижением и может ли вообще человек воссоздать то, что не понимает? Ноам Хомский не раз затрагивал эти вопросы. Разбираемся, что думает об ИИ человек, ставший одним из его родоначальников и критиков. 

Читать далее

NeuTTS Air: открытая модель синтеза речи, которая работает прямо на вашем устройстве

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров6.7K

2 октября 2025 года компания Neuphonic представила NeuTTS Air - открытую модель преобразования текста в речь, которая кардинально меняет подход к синтезу голоса. Главная особенность в том, что она работает полностью локально на обычных устройствах без необходимости подключения к интернету или облачным сервисам.

Читать далее

У меня нет рта, но я должен выводить эмодзи морского конька

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров9.2K

Существует ли эмодзи морского конька? Давайте спросим об этом у GPT-5 Instant:

«Да, эмодзи морского конька существует» [Далее следует долгий перебор эмодзи с попыткой найти нужный.]

Чего? Тогда спросим у Claude Sonnet 4.5:

«Да! 🐎 Хотя нужно уточнить, что это эмодзи лошади. Вот эмодзи морского конька: 🦈. Хотя нет, это акула!»

Что здесь происходит? Возможно, Gemini 2.5 Pro справится лучше?

«Да, эмодзи морского конька есть! Seahorse»

Хм, что-то непонятное творится. Будем разбираться, в чём причина.

Читать далее

Графики по щелчку: как ИИ-агенты берут на себя работу дата-аналитика

Время на прочтение3 мин
Количество просмотров2.9K

ИИ уже неплохо пишет код для простых задач, но когда дело доходит до сложных данных и красивых графиков, всё начинает ломаться: легенды не совпадают, подписи съезжают, а обработка больших таблиц приводит к ошибкам. Почему машина, способная решать головоломки на олимпиадах, не может уверенно справиться с простой визуализацией данных в реальных задачах?

Неожиданный поворот: новое исследование показывает, что дело не только в мощности используемой модели. Группа учёных из Google предложила решать задачу создания графиков не одиночной нейросетью, а целой командой специализированных ИИ-агентов, где у каждого своя роль — от архитектора до критика. Такой подход значительно превзошёл предыдущие методы и показал стабильные результаты даже на сложных сценариях.

Как устроено это командное ИИ-мышление, в чём секрет их коллективной работы? Разобрались, как машины учатся думать шаг за шагом и почему это открывает новый взгляд на будущее автоматизации аналитики.

Читать далее

Вклад авторов