Обновить
672.7

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Нейро-дайджест: ключевые события мира AI за 3-ю неделю октября

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров1.8K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась интересной: Google релизнули Veo 3.1, Microsoft показала свой генератор картинок, Qwen представили компактные VL-модели, в n8n добавили AI-режим, Карпаты запустил nanochat.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

Гармония восприятия и генерации: новый эталон для мультимодальных моделей

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров339

Автор: Денис Аветисян

Искусственный интеллект традиционно разделял зрение и язык, упуская целостность восприятия. Новая парадигма стремится к синергии, где визуальное и семантическое объединяются, подобно гармоничному полотну.

Uni-MMMU Benchmark – строгий полигон для оценки таких моделей. Мы ищем не просто обработку данных, а способность мыслить на основе объединенных модальностей. Элегантность – не опция, а признак глубокого понимания.

Интересно, что генерация визуального контента может не просто улучшать результаты, но и способствовать пониманию? 💡 Это как если бы интерфейс пел, когда элементы приходили в гармонию.

Исследователи стремятся к системам, где каждый компонент усиливает другой, создавая целостность и гармонию. Как вы думаете, сможет ли ИИ когда-нибудь по-настоящему творить, а не просто обрабатывать информацию? 💭✨

Читать далее

Как я построил RAG-систему за вечер с помощью 5 open source-инструментов

Уровень сложностиСредний
Время на прочтение17 мин
Количество просмотров25K

Команда Python for Devs подготовила практическое руководство по сборке полноценной RAG-системы из пяти open source-инструментов. MarkItDown, LangChain, ChromaDB, Ollama и Gradio превращают разрозненные документы в умную базу знаний с потоковой генерацией ответов. Всё локально, без облаков и с открытым кодом — попробуйте собрать свой ChatGPT прямо у себя.

Читать далее

HumanDynamics: как мы построили цифровой мир, жители которого пошли в банк и взяли кредит

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров775

Статья посвящена рассказу о том, как простая задача генерации синтетических данных для банка переросла в создание фреймворка симуляции цифровой цивилизации под названием HumanDynamics.

Читать далее

H2O LLM Studio: как дообучить языковую модель под свои задачи, не привлекая внимания датасаентистов

Время на прочтение6 мин
Количество просмотров11K

Современные языковые модели (LLM) вроде GPT, LLaMA или Mistral обладают поразительной универсальностью. Они обучены на триллионах токенов из открытых источников и научились объяснять сложные вещи, поддерживать диалог в свободной форме и даже писать код. Однако при решении реальных бизнес-задач универсальность становится слабым местом: бизнесу нужны не «всезнающие ассистенты», а узкоспециализированные инструменты, хорошо понимающие внутренние процессы и терминологию.

Читать далее

От экспериментов с ИИ до AI-Native: уровни зрелости и архитектура. Часть 2

Время на прочтение15 мин
Количество просмотров648

Всем привет!

Это продолжение статьи о трансформации подхода к использованию ИИ — от базового применения к AI-Native.
В первой части мы разобрали уровни зрелости искусственного интеллекта, ключевые этапы ИИ-трансформации и классификацию приложений и модальностей LLM.

Читать первую часть

Во второй части:

Эволюция инженерных практик

От Software к Trustware: в процессе непрерывной технологической трансформации

AI-Powered Trustware Development Lifecycle

Риски безопасности AI-Native приложений

Решения для реализации защищенного ИИ

Лучшие практики

Читать далее

Триллион параметров против здравого смысла: тестируем Qwen3-MAX и друзей

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров13K

Привет! Я Антон, инженер по информационной безопасности в Selectel. Недавно вышла новость, что Qwen выпустили три обновленные модели. На бумаге они не уступают GPT-5, Gemini и Grok 4 по бенчмаркам, а вдобавок — бесплатны. Под катом проверим новинки на практике и сравним с ближайшим конкурентом — GhatGPT.

Под кат →

И в дождь, и в снег: как мы детектируем загрязнения на лидарах автономного транспорта

Уровень сложностиПростой
Время на прочтение10 мин
Количество просмотров3K

Всем привет, меня зовут Всеволод Орлов, я работаю в команде восприятия мира в направлении автономного транспорта Яндекса. Сегодня я хочу рассказать про то, как мы учились определять степень загрязнения лидара — лазерного сенсора, установленного на наших автономных автомобилях и грузовиках. Тема, актуальная всегда, но особенно в российских погодных реалиях осени, зимы и весны. Расскажу, почему даже малейшее загрязнение лидара — проблема, почему эту проблему не так просто решить и какие есть подходы к этому решению, а в конце поделюсь нашими результатами. 

Читать далее

Нельзя просто так взять и заменить тысячи строк кода на промпты. Мы убедились в этом на практике

Уровень сложностиСредний
Время на прочтение11 мин
Количество просмотров3.6K

Привет, Хабр!

Меня зовут Наталья Корсакова, я руководитель департамента лингвистической разработки MWS AI (входит в МТС Web Services и разрабатывает ИИ-продукты и решения как для экосистемы МТС, так и для внешнего рынка). На последнем Conversations AI в Питере на пару с Еленой Деликановой (это наш тимлид разработчиков-лингвистов) мы рассказали, как прикручивали LLM к чат-ботам МТС. Так мы надеялись улучшить лояльность клиентов (абонентов МТС), ускорить разработку и упростить поддержку громоздких диалоговых систем. По многочисленным просьбам излагаем наш опыт в тексте. 

Спойлер: оказалось, что нельзя просто так взять и заменить тысячи строк кода на промпты. То есть можно, но жизнь разработчикам это не упростит, а в некоторых случаях даже усложнит. Однако работа наша оказалась небесполезной: мы поняли, что нужен баланс между традиционной логикой бота и генеративкой, и пришли к идее гибридной архитектуры. Но обо всем по порядку. 

Хотите узнать больше — жмите сюда

Небольшое количество примеров может отравить LLM любого размера

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров1.8K

Команда AI for Devs подготовила перевод исследования в котором учёные показали: чтобы встроить «бэкдор» в большую языковую модель, вовсе не нужно контролировать огромную долю обучающих данных — достаточно около 250 вредоносных документов. Этот результат переворачивает представления о масштабируемости атак через отравление данных и ставит новые вопросы к безопасности ИИ.

Читать далее

Что такое Computer Use от Google, и в чем различие от Operator OpenAI и Comet Perplexity

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров3.7K

Google выпустил Computer Use на Gemini 2.5 Pro для автоматизации действий в браузере. Его стали сравнивать с Operator от OpenAI и Comet от Perplexity. Разбираемся, чем они отличаются по возможностям, доступности и сценариям для компаний.

Читать далее

От LangChain к LangGraph: детально разбираемся с фреймворками и всей Lang-экосистемой

Время на прочтение13 мин
Количество просмотров7.1K

LangChain или LangGraph? Какой фреймворк для ии-агентов выбрать? А может быть LangSmith? Или LangFuse? LangFlow? Если вы сходу не отличаете все эти Lang-что-то там между собой или просто хочется побольше узнать о внутренностях LangChain и LangGraph, то добро пожаловать в эту статью, которую мне хотелось сделать фундаментальной, чтобы ответить сразу на все возникающие вокруг LangChain вопросы.

Поговорим про архитектурные различия между LangChain и LangGraph, их подходы, посмотрим как это выглядит в коде, поищем лучшие точки применения и взглянем на сформированную экосистему вокруг.

Читать далее

Как ИИ-агенты учатся работать в браузере, и почему это может перевернуть будущее веба

Время на прочтение3 мин
Количество просмотров1.8K

ИИ на словах стал «зрелым» — отвечает на вопросы, пишет код. Но стоит занять его реальными задачами — например, использовать браузер, где нужно самостоятельно кликать и искать информацию, — картина быстро меняется: большинство моделей начинают ошибаться на простых действиях. Почему так происходит и что мешает ИИ-агентам стать по-настоящему самостоятельными?

Свежая работа команды BrowserAgent предлагает неожиданный поворот: дело не в размере модели и не только в новых архитектурах, а — в самом подходе к действиям. Вместо долгих цепочек парсинга и передачи текста на вход, агент учится вести себя как человек: видеть живую страницу, запоминать промежуточные шаги и самостоятельно решать, куда кликнуть дальше. Получается не просто суммаризировать контент, а шаг за шагом строить «человеческую» стратегию исследования.

Впервые появляется фреймворк, в которой можно наблюдать, как модели учатся по-настоящему думать и действовать в браузере — с явной памятью, кликами и даже ошибками, как у живого пользователя. Для чего это нужно, чем новый подход отличается от классики, и действительно ли это шаг к умным цифровым ассистентам? Разбираемся с подробностями на свежих экспериментах и реальных результатах.

Читать далее

Ближайшие события

Ад туториалов сменился адом вайб-кодинга

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров26K

Когда в 2019 году я начинал размышлять о проблемах обучения кодингу, нашим врагом номер один был «ад туториалов». Признаки попадания в этот ад:

• Вы успешно завершили кучу туториалов, но не можете создать ничего своего.

• Вы тратили больше времени на просмотр видео о кодинге, чем на само программирование.

• У вас имелось знание о многих технологиях на уровне флеш-карточек, но их внутреннее устройство было вам совершенно непонятно.

Студенты смотрели шестичасовые видео (или засыпали под них), параллельно писали код в своих редакторах, у них складывалось ощущение понимания, но они заходили в тупик, как только приходилось писать что-нибудь с нуля. Классический ад туториалов. Именно поэтому при создании своего ресурса для обучения кодингу я опирался на следующие три принципа:

Глубокий курс обучения. Основы CS нужно преподавать не только в традиционных учебных заведениях.

Практическое освоение всего. Необходимо писать код; не только в проектах, но и интерактивно, в процессе изучения каждой концепции.

Меньше видео, больше текста. Видео слишком легко потреблять бездумно.

Повторюсь, что в 2019 году ад туториалов был повсеместным. Многочасовые курсы на YouTube собирали миллионы просмотров. Однако сегодня те же самые каналы с трудом набирают по пятьдесят тысяч просмотров нового контента. Посмотрите на FreeCodeCamp, Traversy Media и Web Dev Simplified. Я не пытаюсь бросить тень на эти каналы, они помогли куче людей, но их показатели сейчас именно таковы.

Читать далее

Топ-7 бесплатных нейросетей для генерации кода

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров22K

Когда-то написание кода было настоящим испытанием. Строки ошибок, бесконечные документации, поиски нужной запятой и бессонные ночи перед запуском сборки. Всё это было неотъемлемой частью пути программиста. Мы сидели с форумами, как со священными писаниями, спрашивали совета у старших коллег и радовались, когда код хотя бы просто запустился.

Но времена изменились. Теперь рядом с разработчиком существуют алгоритмы, которые понимают контекст задачи, подсказывают решения и даже дописывают целые функции. Вы пишете идею, а они превращают её в готовый фрагмент кода. Если раньше путь от мысли до прототипа занимал недели, то сегодня считанные минуты.

Мы собрали подборку из семи нейросетей, которые подойдут для генерации кода. Они просты, удобны и работают без привязки карты.

Читать далее

Perplexity под капотом: архитектура AI-песочницы

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров4.4K

Каждый, кто работает с AI, рано или поздно сталкивается с его ограничениями. Недавно я столкнулся с такой ситуацией: Perplexity успешно проанализировал сайт и собрал все ссылки, но отказался их обработать, сославшись на «превышение лимитов ресурсов». Что это за «лимиты» в облачной системе, обладающей, казалось бы, бесконечными мощностями? Этот, на первый взгляд, рядовой сбой стал отправной точкой для технического исследования: я решил заглянуть «под капот» AI-песочницы, чтобы понять, как она на самом деле устроена и почему знание ее архитектуры помогает работать с ней гораздо эффективнее

Читать далее

Gemini Robotics: как ИИ от DeepMind помогает роботам планировать и действовать

Время на прочтение5 мин
Количество просмотров457

Искусственный интеллект — это уже не только чат-боты и генераторы изображений. Еще он помогает машинам анализировать обстановку, строить планы и справляться с новыми обстоятельствами. Недавно Google DeepMind представила демонстрацию thinking robotics AI — интеграцию моделей Gemini 1.5 в робототехнические сценарии.

Две экспериментальные версии Gemini 1.5 — VLA (vision-language-action) и ER (embodied reasoning) — работают вместе, чтобы машины могли действовать в реальном мире. Это не просто очередной шаг в развитии автоматизации, а попытка научить роботов понимать, что они делают и зачем. Чем интересен этот подход, где его можно применить и какие вопросы он вызывает? Давайте разберемся.

Читать далее

Иллюзия интеллекта: как живые тесты разоблачают ИИ-кодеров

Время на прочтение4 мин
Количество просмотров4.8K

ИИ-код сегодня выглядит все изящнее — но стоит попытаться его запустить, как начинаются сюрпризы: сбои, ошибки и несоответствия задаче. Почему же модели, которые так уверенно “говорят” на языке программирования, на практике регулярно сбоят? Возникает ощущение, что между красивым ответом и рабочим решением все еще большая пропасть.

Недавнее исследование переворачивает классический подход к оценке сгенерированного кода. Оказывается, настоящее мастерство модели видно не в том, насколько аккуратно она пишет функции, а в том, что происходит при реальном запуске: как ведет себя интерфейс, работает ли программа долгие минуты, справляется ли со сложными сценариями.

В этом обзоре разбираемся, как живые тесты и интерактив дают шанс действительно выделить сильные модели и почему это может стать поворотным моментом для будущих кодогенераторов.

Читать далее

Визуальное тестирование с ИИ: сравнение скриншотов без ложных срабатываний

Уровень сложностиСредний
Время на прочтение11 мин
Количество просмотров1.3K

Мультимодальные модели блестяще «понимают» сцены, но промахиваются там, где тестировщику важно точное соответствие: в сравнении двух версий одного экрана. Случайный сдвиг на несколько пикселей ломает пиксельные diff’ы и маскирует реальные проблемы — вроде исчезнувшей кнопки. Разбираем, почему так происходит, как компенсировать искажения многоуровневым сопоставлением и как простая CNN по окнам 9×9 помогает выявлять именно релевантные отличия.

Как это работает

LLM в роли «судьи» vs. человеческая оценка: почему вместе — лучше

Время на прочтение7 мин
Количество просмотров766

В гонке за следующей волной «умных» систем большие языковые модели (LLM) берут на себя неожиданные роли. Одна из самых интересных — использовать такие модели как «судей» для оценки других моделей. Подход уже экономит командам массу ручной работы, но остаются вопросы: способен ли LLM уловить каждую тонкую ошибку? Что происходит в ситуациях, где критичны человеческая интуиция или глубокая предметная экспертиза?

Реальность такова: человеческие ревьюеры по-прежнему обеспечивают уровень контекстного понимания, которому ИИ пока не соответствует. Поэтому вместо того чтобы противопоставлять методы, многие в индустрии приходят к связке «LLM-судья + человеческая оценка» как к наиболее эффективной комбинации. В этой статье разберём, что такое LLM-судья, как он соотносится с человеческой оценкой и почему гибридный подход имеет наибольший смысл.

Читать далее

Вклад авторов