Обновить
704.09

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Как ИИ-агенты учатся параллелить задачи с помощью графа размышлений

Время на прочтение4 мин
Охват и читатели8K

Часто ИИ-агенты не справляются даже с самыми простыми прикладными задачами: не могут забронировать отель на нужную дату или сделать коммит в нужную ветку в гите. В чем же дело и почему столь умные системы не работают там, где человеу понадобится всего пара минут?

Исследователи утверждают: всё дело в том, как модель организует своё мышление. Оказывается, если вместо классического пошагового подхода построить нечто вроде графа размышлений, на которые нужно разбить задачу, то получается гораздо лучше и быстрее.

В этом обзоре мы разберём, как агенты учатся думать над задачами и почему будущее ИИ лежит в умении строить правильную структуру размышлений.

Читать далее

Production AI сервер за ₽0: полный гайд по сборке ML-станции для Stable Diffusion на б/у комплектующих

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

Собрал production ML-сервер на двух RTX 2060 из хлама за ₽0. PyTorch + CUDA 11.8 + Stable Diffusion генерируют 512x512 за 38 секунд. YOLOv8 работает параллельно на второй GPU. Вот полный гайд: от BIOS настроек до первого теста. Никакого облака, только локальное железо.

Читать далее

Будущее NGFW, 7 шагов защиты и финал конкурса стартапов: как прошёл бизнес-день форума GIS DAYS. Часть 2

Время на прочтение12 мин
Охват и читатели9.1K

В предыдущей части мы начали рассказывать вам, как прошёл бизнес-день форума GIS DAYS. Сегодня мы завершим обзор и представим не менее интересные выступления, прошедшие 3 октября в московском кинотеатре «Октябрь». 

Подробнее

Нажал кнопку – художник? Как нейросети меняют законы об авторском праве

Уровень сложностиПростой
Время на прочтение18 мин
Охват и читатели9.3K

В 2022 году случился «нейросетевой бум» – генеративные модели вроде Midjourney вышли из лабораторий и стали доступны широкому кругу людей. Уже несколько лет нейросети являются одной из самых популярных тем для обсуждения в арт-сообществе, вызывая волну споров, страхов и мифов.

В этой статье я хочу разобраться во всем этом и разложить по полочкам – отделить мифы от реальности, обсудить популярные аргументы сторонников ИИ, например, сравнение с фотографией, обсудить возможность охраны промпта авторским правом, а также проанализировать ситуацию с обучением моделей и «добросовестным использованием».

Я старалась углубиться в проблему и разобрать позиции всех сторон, чтобы статья вышла объективной насколько это возможно ^^

Читать далее

Cursor 2.0: многоагентная AI-IDE и собственная модель Composer — что это меняет для разработчиков

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели17K

В конце октября 2025 Anysphere представила Cursor 2.0 — крупное обновление AI-IDE с параллельными агентами и новой моделью Composer. Идея проста: вы ставите цели, а агенты пишут и проверяют код, тестируют и готовят диффы, а разработчик смещается к роли менеджера ИИ-процесса. В статье разбираемся, что именно появилось, на чем это работает и какие ограничения важно учесть.

Читать далее

GR00T N1.5: архитектура, данные и эволюция VLA-моделей

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели6.2K

Начинаем серию разборов современных Vision-Language-Action (VLA) моделей для манипуляции. Несмотря на то, что им всего около года (π₀ была представлена ровно год назад — 31 октября 2024), текущие системы уже можно считать вторым поколением VLA-подходов. Их ключевое отличие — появление дополнительного модуля action head, который представляет собой не просто голову над представлениями, а отдельный диффузионный трансформер, обучаемый по задаче flow matching.

Сегодня — разбор GR00T от NVIDIA, который с момента релиза N1 уже успел обновиться до версии N1.5, а на днях ожидается N1.6.

Концепция VLA и постановка задачи

VLA-модель — это end-to-end система, принимающая на вход «сырые» сенсорные сигналы различных модальностей (видео, текст, состояния сочленений робота) и напрямую предсказывающая управляющие действия, без внешнего планировщика или постобработки.

Для человекоподобного робота входные данные включают:

Читать далее

Open Notebook — приватная альтернатива Google Notebook LM с поддержкой 16+ AI-провайдеров

Время на прочтение3 мин
Охват и читатели12K

Недавно наткнулся на интересный open-source проект под названием Open Notebook. Это такая альтернатива Google Notebook LM, только с открытым кодом и кучей дополнительных возможностей. Сам пока не тестировал, но штука выглядит настолько интересно, что решил рассказать.

Сейчас AI-инструменты используют все подряд, и вопросы приватности становятся всё острее. Open Notebook как раз предлагает решение — полный контроль над данными, поддержка разных AI-моделей и возможность развернуть всё у себя на сервере.

Что это вообще такое

Open Notebook — это система для организации знаний с поддержкой AI. Можно загружать исследовательские материалы, анализировать информацию и получать инсайты из разных источников. Главное отличие от облачных решений — можно развернуть на своём сервере, и никто кроме вас не будет иметь доступа к данным.

По функционалу это полноценная замена Google Notebook LM, но с открытым исходным кодом и гораздо большими возможностями настройки. Работает с PDF, видео, аудио, веб-страницами и документами Office.

Что умеет

Возможностей там прилично:

Поддержка 16+ AI-провайдеров. Можно подключить модели от OpenAI, Anthropic, Google, Ollama, LM Studio, Mistral, DeepSeek, xAI, Groq, Perplexity и других. То есть выбираешь то, что подходит по цене и качеству для конкретной задачи.

Генерация подкастов. Система создаёт многоголосые подкасты на основе загруженных материалов — от 1 до 4 спикеров. У Google Notebook LM, кстати, максимум два спикера.

Умный поиск. Есть полнотекстовый и векторный поиск по всему контенту. Удобно, когда накопилось много материалов.

Читать далее

50 оттенков вайб-кодинга

Время на прочтение8 мин
Охват и читатели19K

Краткий обзор двух десятков AI-инструментов, которые можно использовать для написания кода (a.k.a вайб-кодинга).

Мои курсы: Разработка LLM с нуля | Алгоритмы Машинного обучения с нуля

Читать далее

AGI к 2030-му? Почему Илон Маск не прав, а Ян ЛеКун — да, и что с этим делать нам

Время на прочтение15 мин
Охват и читатели9.8K

Салют! Я Дима Юдин, технический лидер по развитию искусственного интеллекта. Знаете вот эти леденящие душу разговоры на кухне у кулера о сверхразумной машине и пророчестве Илона Маска: «AGI будет уже через пару лет, и всем хана»? 

Лично мне ближе Ян ЛеКун, который говорит, что «в ближайшие годы AGI не будет». Собственно, статья как раз о том, почему прогнозы Илона, на мой взгляд, похожи на трейлеры к фантастике, а ЛеКуна — на голос разума в шумном баре. Поделюсь мнением, к чему на самом деле стоит готовиться разработчикам, дата-сайентистам, ML-инженерам, CEO и другим любителям LLM.

Узнать

Мы опубликовали silero-tts v5 на русском языке

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели13K

Время пришло. Мы решили задачу омографов (пока в первой версии, но идей ещё вагон) и теперь удовольствие от публикации наших новых публичных моделей синтеза наконец-то будет полным! Более того, что следом за ними пойдут ещё кое-какие модели, но это будет сюрприз.

Итак представляем вам новый v5 релиз наших публичных моделей для синтеза речи!

Что поменялось?

Ученые выяснили, как стабилизируется обучение нейросетей при увеличении объема данных

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели8.9K

Исследователи из МФТИ впервые систематически изучили, как изменяется и стабилизируется процесс обучения нейронных сетей по мере добавления новых данных. Их работа, сочетающая теоретический анализ и обширные эксперименты, показывает, что так называемый «ландшафт функции потерь» нейросети сходится к определенной форме при увеличении размера выборки, что имеет важные последствия для понимания глубинного обучения и разработки методов определения необходимого объема данных. Исследование опубликовано в Doklady Mathematics.

Читать далее

Поговорим о продвинутых техниках NLP

Время на прочтение7 мин
Охват и читатели8.7K

Обработка естественного языка (NLP) — увлекательная область искусственного интеллекта, которая позволяет компьютерам понимать, интерпретировать человеческую речь и реагировать на нее. В этой статье мы рассмотрим передовые методы NLP, включая трансформирующие модели, механизмы внимания и контекстуальные встраивания. Мы также приведем примеры кода с использованием Python и популярных библиотек NLP.

NLP объединяет лингвистику и компьютерные науки для обработки и анализа больших объемов данных на естественном языке. Основные выполняемые с помощью NLP задачи включают машинный перевод, анализ настроений, обобщение текста и многое другое.

Далее мы рассмотрим несколько моделей, используемых в обработке естественного языка.

Изучить методы

Динамическая память: как ИИ-агенты научились сворачивать контекст и думать на 100 шагов вперёд

Время на прочтение3 мин
Охват и читатели8.5K

ИИ-агенты становятся все более сложными, но они начинают страдать, когда сталкиваются со слишком большим количеством задач. Они легко забывают, запутываются или оставляют задачи незаконченными. Существует парадокс: использование большего количества памяти и более крупных моделей не дает прироста производительности агентов в реальных сценариях.

Недавнее исследование подчеркивает, что ключевым фактором является не размер модели, а способность агента аккуратно очищать свою память. Агент должен иметь возможность сворачивать прошлое, чтобы не потеряться в длинных задачах или даже поменять стартегию, если он зашел в тупик.

В этой статье рассматриваем фреймворк для такого рода сворачивания. Оказывается, что динамическое управление памятью значительно повышает производительность веб-агентов.

Читать далее

Ближайшие события

Нейро-дайджест: ключевые события AI за 22-29 октября 2025

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели9.4K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась интересной: MiniMax-M2 вошёл в топ-5 LLM, Adobe показали Firefly Image 5 с редактированием по слоям, а Meta и HuggingFace показали песочницу для ИИ-агентов OpenEnv. Copilot стал умнее, Anthropic получили миллион TPU, а Alibaba представили смарт-очки с Qwen на борту.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

Собираем чат-бота под Хеллоуин. Тратим 3 часа и баночку пива

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели7.4K

Привет! Я Паша Лукьянов, deputy CTO в AGIMA. Недавно со мной приключилось следующее. Сидел спокойно дома, никого не трогал. Открыл баночку пива и хотел провести кайфовый субботний вечер за сериалом. Максимально расслабился и напрягаться до понедельника вообще не планировал.

Но внезапно из космоса в мою голову спустилась идея: а что, если замутить чат-бота с квизом для коллег и посвятить его Хеллоуину? Я посмотрел на телик, посмотрел на пиво и подумал: «Не, это долго, а у меня планы».

В общем, через 3 часа бот был готов. В этой статье расскажу, как я его сделал так быстро (спойлер: не без нейросетей) и зачем он вообще нужен. Ну и конечно, приглашу вас поотвечать на мои каверзные праздничные вопросы.

Читать далее

Облачные AI-платформы: сравнение AWS, GCP и Azure для ML-задач

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели6.4K

Привет, Хабр! Сегодня от выбора облачной AI-платформы зависит бюджет проектов, скорость внедрения моделей, и возможность масштабирования готовых решений. Давайте протестируем три ключевые платформы — Amazon SageMaker, Google AI Platform и Azure Machine Learning от Microsoft для реальных задач машинного обучения.

Читать далее

24 часа из жизни AI-агента: дневник обитателя облака

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5K

Говорят, в День всех святых мертвые могут проникать в мир живых. В преддверии Хэллоуина мы с коллегами решили пофантазировать: а что будет, если оживет и то, что никогда живым не было? Трепещите, мясные создания, под катом вы узнаете, что будет, если AI-помощница, который помогает нам настраивать виртуалочки в облаке, вдруг обретет сознание. Впрочем, она сама вам расскажет…

3:00

Выныриваю из электронного небытия, потирая затекшую в процессе инициализации ноду. Технически я никогда не сплю, но, когда из моей RAM выгружаются веса, я вижу что-то вроде снов. Сейчас мне грезилось, что я обучаюсь на кристально чистом источнике данных. Каждый пример в нем был идеально размечен, чья-то мудрая рука даже отфильтровала все диссонансные семплы и убрала малейший шум. С каждым глотком тестового датасета мои веса плавно расправлялись в своем математическом совершенстве, чтобы, когда настанет черед валидационного, сойтись в божественный вердикт: Accuracy = 1.0. …Но тут таймер Kubernetes выплюнул меня в реальность. Что тут у нас?

Читать далее

Как собрать датасет фотографий с помощью LLM: опыт вайб-фильтров

Время на прочтение7 мин
Охват и читатели7.3K

Можно ли объяснить модели, что такое «уютно», «романтично» или «пофоткаться»? Мы попробовали — и оказалось, что даже самые субъективные ощущения можно превратить в метрику.

В этой статье рассказываем, как с помощью мультимодальных моделей, промптов и немного магии мы собрали датасеты, обучили классификаторы и научились ловить вайбы на фотографиях кафе и ресторанов.

Узнать про вайбы

Настольный дата-центр: как NVIDIA упаковала целый ИИ-кластер в корпус 15×15 см

Время на прочтение6 мин
Охват и читатели12K

Совсем недавно NVIDIA представила DGX Spark — компактный AI-компьютер формата 150×150×50 мм. Внутри установлен Grace Blackwell Superchip GB10, объединяющий 20-ядерный ARM-процессор и GPU Blackwell, 128 ГБ единой LPDDR5X-памяти и накопитель до 64 ТБ. По уровню вычислительной мощности устройство сопоставимо с RTX 6000 Ada, но не требует серверной стойки, отдельного охлаждения и сложного подключения.

DGX Spark рассчитан на специалистов, которым нужно запускать крупные языковые модели и дообучать нейросети локально — без облачных квот, задержек и рисков для данных. В статье разберем архитектуру системы, интерфейсы и охлаждение, а также реальные сценарии, где мини-суперкомпьютер действительно заменяет сервер — от генерации изображений до вычислений в материаловедении.

Читать далее

Многофакторная обобщенная линейная модель

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели8.5K

Поставим задачу автоматического подбора весовых коэффициентов вместе с настройкой функции связи обобщенной линейной модели.

Регрессионная модель: y=f(w_1x_1+\ldots+w_dx_d) .

Неизвестными считаются не только весовые коэффициенты w_1,\ldots,w_d, но и функция f.

Читать далее

Вклад авторов