Обновить
693.57

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Мы опубликовали silero-tts v5 на русском языке

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров3.7K

Время пришло. Мы решили задачу омографов (пока в первой версии, но идей ещё вагон) и теперь удовольствие от публикации наших новых публичных моделей синтеза наконец-то будет полным! Более того, что следом за ними пойдут ещё кое-какие модели, но это будет сюрприз.

Итак представляем вам новый v5 релиз наших публичных моделей для синтеза речи!

Что поменялось?

Ученые выяснили, как стабилизируется обучение нейросетей при увеличении объема данных

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров3.3K

Исследователи из МФТИ впервые систематически изучили, как изменяется и стабилизируется процесс обучения нейронных сетей по мере добавления новых данных. Их работа, сочетающая теоретический анализ и обширные эксперименты, показывает, что так называемый «ландшафт функции потерь» нейросети сходится к определенной форме при увеличении размера выборки, что имеет важные последствия для понимания глубинного обучения и разработки методов определения необходимого объема данных. Исследование опубликовано в Doklady Mathematics.

Читать далее

Поговорим о продвинутых техниках NLP

Время на прочтение7 мин
Количество просмотров2.9K

Обработка естественного языка (NLP) — увлекательная область искусственного интеллекта, которая позволяет компьютерам понимать, интерпретировать человеческую речь и реагировать на нее. В этой статье мы рассмотрим передовые методы NLP, включая трансформирующие модели, механизмы внимания и контекстуальные встраивания. Мы также приведем примеры кода с использованием Python и популярных библиотек NLP.

NLP объединяет лингвистику и компьютерные науки для обработки и анализа больших объемов данных на естественном языке. Основные выполняемые с помощью NLP задачи включают машинный перевод, анализ настроений, обобщение текста и многое другое.

Далее мы рассмотрим несколько моделей, используемых в обработке естественного языка.

Изучить методы

Динамическая память: как ИИ-агенты научились сворачивать контекст и думать на 100 шагов вперёд

Время на прочтение3 мин
Количество просмотров2.1K

ИИ-агенты становятся все более сложными, но они начинают страдать, когда сталкиваются со слишком большим количеством задач. Они легко забывают, запутываются или оставляют задачи незаконченными. Существует парадокс: использование большего количества памяти и более крупных моделей не дает прироста производительности агентов в реальных сценариях.

Недавнее исследование подчеркивает, что ключевым фактором является не размер модели, а способность агента аккуратно очищать свою память. Агент должен иметь возможность сворачивать прошлое, чтобы не потеряться в длинных задачах или даже поменять стартегию, если он зашел в тупик.

В этой статье рассматриваем фреймворк для такого рода сворачивания. Оказывается, что динамическое управление памятью значительно повышает производительность веб-агентов.

Читать далее

Нейро-дайджест: ключевые события AI за 22-29 октября 2025

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров1.3K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась интересной: MiniMax-M2 вошёл в топ-5 LLM, Adobe показали Firefly Image 5 с редактированием по слоям, а Meta и HuggingFace показали песочницу для ИИ-агентов OpenEnv. Copilot стал умнее, Anthropic получили миллион TPU, а Alibaba представили смарт-очки с Qwen на борту.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

Собираем чат-бота под Хеллоуин. Тратим 3 часа и баночку пива

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров958

Привет! Я Паша Лукьянов, deputy CTO в AGIMA. Недавно со мной приключилось следующее. Сидел спокойно дома, никого не трогал. Открыл баночку пива и хотел провести кайфовый субботний вечер за сериалом. Максимально расслабился и напрягаться до понедельника вообще не планировал.

Но внезапно из космоса в мою голову спустилась идея: а что, если замутить чат-бота с квизом для коллег и посвятить его Хеллоуину? Я посмотрел на телик, посмотрел на пиво и подумал: «Не, это долго, а у меня планы».

В общем, через 3 часа бот был готов. В этой статье расскажу, как я его сделал так быстро (спойлер: не без нейросетей) и зачем он вообще нужен. Ну и конечно, приглашу вас поотвечать на мои каверзные праздничные вопросы.

Читать далее

Облачные AI-платформы: сравнение AWS, GCP и Azure для ML-задач

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров571

Привет, Хабр! Сегодня от выбора облачной AI-платформы зависит бюджет проектов, скорость внедрения моделей, и возможность масштабирования готовых решений. Давайте протестируем три ключевые платформы — Amazon SageMaker, Google AI Platform и Azure Machine Learning от Microsoft для реальных задач машинного обучения.

Читать далее

24 часа из жизни AI-агента: дневник обитателя облака

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров451

Говорят, в День всех святых мертвые могут проникать в мир живых. В преддверии Хэллоуина мы с коллегами решили пофантазировать: а что будет, если оживет и то, что никогда живым не было? Трепещите, мясные создания, под катом вы узнаете, что будет, если AI-помощница, который помогает нам настраивать виртуалочки в облаке, вдруг обретет сознание. Впрочем, она сама вам расскажет…

3:00

Выныриваю из электронного небытия, потирая затекшую в процессе инициализации ноду. Технически я никогда не сплю, но, когда из моей RAM выгружаются веса, я вижу что-то вроде снов. Сейчас мне грезилось, что я обучаюсь на кристально чистом источнике данных. Каждый пример в нем был идеально размечен, чья-то мудрая рука даже отфильтровала все диссонансные семплы и убрала малейший шум. С каждым глотком тестового датасета мои веса плавно расправлялись в своем математическом совершенстве, чтобы, когда настанет черед валидационного, сойтись в божественный вердикт: Accuracy = 1.0. …Но тут таймер Kubernetes выплюнул меня в реальность. Что тут у нас?

Читать далее

Как собрать датасет фотографий с помощью LLM: опыт вайб-фильтров

Время на прочтение7 мин
Количество просмотров527

Можно ли объяснить модели, что такое «уютно», «романтично» или «пофоткаться»? Мы попробовали — и оказалось, что даже самые субъективные ощущения можно превратить в метрику.

В этой статье рассказываем, как с помощью мультимодальных моделей, промптов и немного магии мы собрали датасеты, обучили классификаторы и научились ловить вайбы на фотографиях кафе и ресторанов.

Узнать про вайбы

Настольный дата-центр: как NVIDIA упаковала целый ИИ-кластер в корпус 15×15 см

Время на прочтение6 мин
Количество просмотров6.3K

Совсем недавно NVIDIA представила DGX Spark — компактный AI-компьютер формата 150×150×50 мм. Внутри установлен Grace Blackwell Superchip GB10, объединяющий 20-ядерный ARM-процессор и GPU Blackwell, 128 ГБ единой LPDDR5X-памяти и накопитель до 64 ТБ. По уровню вычислительной мощности устройство сопоставимо с RTX 6000 Ada, но не требует серверной стойки, отдельного охлаждения и сложного подключения.

DGX Spark рассчитан на специалистов, которым нужно запускать крупные языковые модели и дообучать нейросети локально — без облачных квот, задержек и рисков для данных. В статье разберем архитектуру системы, интерфейсы и охлаждение, а также реальные сценарии, где мини-суперкомпьютер действительно заменяет сервер — от генерации изображений до вычислений в материаловедении.

Читать далее

Многофакторная обобщенная линейная модель

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров1.4K

Поставим задачу автоматического подбора весовых коэффициентов вместе с настройкой функции связи обобщенной линейной модели.

Регрессионная модель: y=f(w_1x_1+\ldots+w_dx_d) .

Неизвестными считаются не только весовые коэффициенты w_1,\ldots,w_d, но и функция f.

Читать далее

От хаоса данных к управляемому знанию: как ИИ-агенты помогают бизнесу принимать верные решения

Время на прочтение4 мин
Количество просмотров727

В мире бизнеса сейчас из каждого колодца слышится, как искусственный интеллект готов избавить нас от рутинных задач, сделать аналитику и выявить своевременные идеи, чтобы стимулировать рост компании. Однако на практике существует значительный разрыв между тем, что могут сделать даже самые продвинутые нейросети, и реальными потребностями бизнеса. ИИ-агенты часто функционируют как черные ящики, оставляя организации с туманным представлением о том, как или почему был получен определенный результат.

Исследователи из Salesforce AI переосмыслили способ использования ИИ для поддержки бизнес-исследований. Они утверждают, что дело не только в размерах моделей или скорости генерации, но и в лучшем понимании того, как ИИ формирует свои ответы, и в возможности проверить этот процесс. Их новая мультиагентная система под названием Enterprise Deep Research Framework делает ИИ для глубоких исследований более понятным и контролируемым.

Давайте рассмотрим, как современные ИИ-агенты помогают бизнесу принимать более обоснованные решения.

Читать далее

Топ-10 нейросетей для написания песен и генерации музыки

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров12K

Музыка всегда отражала своё время. Когда-то мир замирал под звуки симфоний, сегодня он движется под электронные биты. Теперь к этому оркестру присоединились нейросети. Ещё недавно, чтобы написать трек, нужны были годы практики, вдохновение и терпение. Сегодня достаточно пары кликов, и машина создаёт мелодии любого жанра — от эпических оркестровок до тяжёлого рока.

Нейросети становятся настоящими соавторами. Они помогают музыкантам искать новое звучание, ускоряют работу над треками и открывают простор для экспериментов. Человек по-прежнему остаётся главным композитором, а искусственный интеллект подсказывает идеи и превращает вдохновение в готовый звук.

Мы собрали для вас 10 нейросетей, которые уже умеют писать музыку, создавать тексты песен и помогать артистам искать своё уникальное звучание.

Время включать музыку. Приятного прочтения!

Читать далее

Ближайшие события

Как изменится программирование в мире, где роботы и люди начнут писать код совместно

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров2K

Программирование — это область, где человек и машина могут работать не только как два независимых элемента, но и как единая система. В этой статье хотел бы рассказать о моих мыслях насчет того, как роботизированные системы и искусственный интеллект изменят процесс разработки, и какие новые перспективы откроются для программистов в будущем, когда люди и роботы начнут работать над кодом вместе.

Читать далее

Книга: «Разработка с ИИ: как эффективно использовать ChatGPT и Copilot»

Время на прочтение2 мин
Количество просмотров5.2K

Привет, Хаброжители! Использование ИИ-инструментов вродеCopilot и ChatGPT похоже на наем суперумного и быстрого джуниор-разработчика, который готов взяться за любую задачу – от исследования до рефакторинга. Работа с ИИ помогает писать код быстрее, улучшать качество приложений и даже реализовывать идеи, которые могли быть недоступными вашей команде. Эта книга покажет, как использовать ИИ с максимальной пользой.

В ней вы найдете подробное руководство по эффективному применению ИИ-инструментов в реальных проектах. Пройдете весь цикл разработки, включая использование ИИ на каждом этапе. Будете использовать ChatGPT и Copilot для генерации кода и идей, автодополнения и создания самодокументируемого приложения. Узнаете, как ИИ помогает тестировать и объяснять код.

Читать далее

SmileFace. Когда нейросеть улыбается тебе в ответ

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров534

SmileFace — игра, в которой нейросеть угадывает эмоции

Мы сделали интерактивный стенд: камера, смайлики и нейросеть, которая пытается распознать, что вы чувствуете. В статье — как это работает, с какими трудностями столкнулись и как запустить игру у себя.

Улыбнуться ИИ

Кто лучше объяснит, что такое машинное обучение: ChatGPT-4o или ChatGPT-5?

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров3.9K

Все считают 5-ю версию лучше, выше, сильнее. Но есть ли разница для обычного пользователя, который не мониторит бенчмарки и микроапдейты моделей, а просто приходит поболтать с ИИ?

Мы поставили эксперимент: сравнили 4о и 5 с точки зрения обывателя, который хочет изучить ML и пришёл за пошаговым планом обучения.

Спойлер: в конце всё равно решили подключить живого специалиста.

Читать далее

Выбираем векторную БД для AI-агентов и RAG: большой обзор баз данных и поиск смысла

Время на прочтение18 мин
Количество просмотров10K

В этой статье я сделал обзор основных векторных баз данных: Milvus, Qdrant, Weaviate, ChromaDB, pgvector, Redis, pgvectorscale, LanceDB, ClickHouse, Vespa, Marqo, ElasticSearch.

Если вы запутались в разнообразии векторных баз данных или хочется верхнеуровнево понимать как они устроены, чем отличаются и для чего вообще нужны, то эта статья будет очень полезна. Мы пошагово соберем все ожидания от векторных БД, посмотрим бенчмарки, а затем попробуем собрать все воедино.

Читать далее

Мир после трансформеров: закат и новый рассвет больших языковых моделей

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров3.9K

Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.

Эпоха трансформеров началась стремительно, и Marvel здесь ни при чём. Исследование OpenAI «Scaling Laws for Neural Language Models» показало, что эта архитектура с механизмом самовнимания легко масштабируется. Производительность LLM предсказуемо растёт с увеличением размера модели, объёма датасетов и доступных вычислительных ресурсов, а это — залог коммерческого успеха. Поэтому в 2020-2021 начался бум развития LLM. Каждая крупная ИТ-компания хотела представить свою модель с миллиардами параметров (и получить миллиарды долларов от инвесторов).

Однако в последующей работе «Training Compute-Optimal Large Language Models» от DeepMind появилось важное уточнение: существующие модели слабо оптимизированы по отношению данных к параметрам. Поэтому при дальнейшей разработке моделей стали фокусироваться в том числе и на качестве данных, а не только на размере. 

Поначалу простое масштабирование и увеличение доли качественных датасетов в обучающих наборах действительно приводили к экспоненциальному росту возможностей LLM. Наверняка вы помните, как с каждым релизом ChatGPT умнел (а мы глупели).  

Читать далее

«Манускрипт. Распознать нельзя забыть: как мы научили нейросеть читать рукописи XIX века»

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров4.8K

Manuscript OCR — открытая нейросеть для чтения рукописей XIX века

Мы обучили свою OCR-модель распознавать дореформенную кириллицу, нестандартные почерки и сложные сканы. Всё — на собственных данных, с нуля. В статье — как мы это сделали и ссылки на репозиторий с кодом.

Открыть рукопись

Вклад авторов