Обновить
644.15

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Google скрывает правду? Почему ИИ запрещает рисовать Винни-Пуха

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.6K

Недавно я опубликовал исследование: генератор изображений Google Nano Banana показывал почти любой момент мировой истории, если дать GPS-координаты и дату - кроме «Человека с танком» 5 июня 1989 года в Пекине, на следующий день после бойни на площади Тяньаньмэнь.

Пропуск бросался в глаза, потому что Nano Banana без проблем генерировал другие политически острые и шокирующие моменты: от президентских убийств (да, он покажет, как стреляют в JFK, и даже из прицела винтовки) до терактов и стихийных бедствий. Цензурировались только события, критичные к Компартии Китая.

Кто-то недоумевал: «Неужели Google цензурирует весь мир из-за законов Китая?», другие, включая китайских академиков, писали мне приватно: «Нашли ещё более жёсткие пробелы».

Читать далее

Новости

Итоги 2025 в AI: прорывы, которые сдвинули индустрию, и ставки на 2026

Уровень сложностиПростой
Время на прочтение17 мин
Охват и читатели2.7K

2025-й стал годом перехода от эффектных демо к суровой инженерной рутине. В этой статье я подвожу личные итоги года, анализируя работу с GPT-5.1, Claude 4.5 и локальными моделями, а также разбираю, как изменились наши требования к кодингу, видеогенерации и научным исследованиям. В финале — прагматичный прогноз на 2026 год.

Читать далее

Метрики для задач NLP. Часть 1. Классификация, NER, Кластеризация

Уровень сложностиСредний
Время на прочтение25 мин
Охват и читатели7.4K

В этой статье будет рассказано о популярных метриках для NLP-задач: классификации текста, NER и кластеризации. Рассказ будет сопровождаться визуализацией, примерами и кодом на Python.

🔥 Начинаем 🔥

Применение вариационного исчисления к задаче выделения границ: вывод уравнения Эйлера-Лагранжа

Уровень сложностиСложный
Время на прочтение25 мин
Охват и читатели7.4K

Представьте, что вам нужно обвести объект на картинке — не просто тыкая в пиксели, а проведя одну идеальную, плавную и уверенную линию. Та самая, которую набросал бы на бумаге художник. Как объяснить компьютеру, что значит «идеальная граница»? Как заставить его искать не среди груды точек, а в бесконечном море возможных кривых?

Оказывается, на этот вопрос уже давно ответила математика, а именно — вариационное исчисление. Это тот самый инструмент, который стоит за знаменитыми алгоритмами вроде «активных контуров» (snakes) или «уровневых множеств». Часто в статьях показывают готовые формулы и код, а саму красивую логику оставляют за кадром.

Давайте вместе разберем эту связь. Начнем с простого: как найти минимум у обычной функции. А потом — шаг за шагом — расширим эту идею до целых кривых. Ключевой момент на пути — уравнение Эйлера-Лагранжа. Мы не просто запишем его, а честно выведем: от замысла «энергии» контура до финального условия, используя лишь базовую лемму вариационного исчисления и интегрирование по частям.

Самое интересное — это уравнение не просто абстракция. Оно описывает баланс, равновесие сил. Оптимальная граница — результат «борьбы»: с одной стороны, она хочет оставаться гладкой и аккуратной, с другой — стремится лечь точно на резкий перепад цвета или яркости на изображении.

Как только вы это поймете, работа с алгоритмами сегментации перестает быть магией. Вы начинаете осмысленно настраивать параметры, предсказывать поведение и даже придумывать собственные критерии для «идеальной границы».

Читать далее

DeepCode: как ИИ научился собирать репозиторий по статье

Время на прочтение4 мин
Охват и читатели6.8K

Кодогенераторы стали значительно мощнее, но как только вы просите их сделать репозиторий по научной публикации из одной статьи — они не справляются. В статье много разрозненных деталей. Половина шагов может быть понята только между строк. Файлов много и все они зависят друг от друга. Да, на выходе можно получить сгенерированный репозиторий, который выглядит правдоподобно, но он не будет работать.

DeepCode рассматривает эту проблему как задачу внимания: что держать в контексте и как не потерять контракты между модулями. Работает старый добрый инженерный подход с правильной организацией архитектуры промтов, памятью и проверками.

В полном обзоре мы рассмотрим то, как DeepCode делает из статьи один общий репозиторий с кодом, как в этом помогает память кода (Code Memory) и почему замкнутый цикл тестирования ошибок внезапно решает то, где не справляются даже платные агенты.

Читать далее

Выбор LLM и фреймворка для ИИ-агентов

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели7.9K

Путь от одной A100 в облаке до кластера на H200 — это не просто апгрейд железа, а история о том, как ML-команда перестала искать «ту самую идеальную модель» и начала строить экосистему. Когда под капотом миллионы строк C-кода PostgreSQL, а задачи варьируются от генерации hint-сетов до Graph-RAG, модель превращается из «черного ящика» в обычный заменяемый компонент. Рассказываем, как мы пересобрали стек на базе vLLM и MCP, почему контекст-менеджмент важнее весов модели и как заставить 0.6B-параметров работать не хуже гигантов через GRPO.

Читать далее

Фундаментальный разбор: эволюция архитектур нейросетей от перцептрона до трансформера

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели7K

Доброго времени суток, «Хабр»!

Устал я делать разного рода сравнения и составлять топы среди недавно вышедших моделей.

Восемь месяцев назад вышла моя статья, рассказывающая о пути, который нейросети проделали от цепей Маркова до современных языковых моделей. Размышляя над старыми материалами, я подумал: а почему бы снова не углубиться в историю и не рассмотреть развитие архитектур моделей?

Присаживайтесь поудобнее, а я начинаю свой рассказ, в котором пройду путь от перцептрона до современного трансформера.

Читать далее

Обновление T-Pro 2.1: как мы улучшили Instruction Following и Tool Calling

Уровень сложностиСложный
Время на прочтение14 мин
Охват и читатели6.8K

Всем привет! На связи Толя Потапов и команда ML Т-Банка. Этим летом мы выпустили большую языковую модель T-pro-2.0 — эффективную русскоязычную модель с гибридным подходом к reasoning. Сегодня выпускаем обновление T-pro-2.1, в котором закрываем два самых заметных слабых места 2.0: следование инструкциям и tool calling.

Заодно мы обновили и T-lite-2.1. Лайт-линейка долго оставалась на версии 1.0, хотя именно ее чаще всего берут энтузиасты и команды, которым важны скорость и простота развертывания. В 2.1 мы приводим T-lite в актуальное состояние — без потери легкости, но с более современным качеством и поведением.

LLM все чаще используется не как чат, а как компонент системы: с вызовом инструментов, проверяемыми шагами, верифицируемыми форматами ответа и жесткими требованиями к latency. Параллельно за это время заметно усилился опенсорс — планка ожиданий выросла. 

T-lite-2.1 и T-pro 2.1 — небольшое, но точечное обновление 2.0: меньше промахов в инструкциях, точнее вызов инструментов и более выверенный рецепт обучения.

Читать далее

RAG — это главное. Почему специализированные LLM реже галлюцинируют

Время на прочтение10 мин
Охват и читатели9.4K

Когда закрылся Skype, этого почти никто уже и не заметил. Хотя сервис когда-то был синонимом термина «видеосвязь». Но потом видеозвонки внедрили везде — в браузеры, мессенджеры, корпоративный софт, экосистемы, а Skype не успел адаптироваться... Возможно, с LLM происходит нечто подобное. Универсальные LLM впечатляют глубиной эрудиции — но для решения конкретных проблем совершенно непригодны. Хотя они быстро и уверенно отвечают на вопросы, выдавая целые «портянки» текста, часто эти ответы представляют собой галлюцинации или «воду», с выдуманными ссылками.

Читать далее

Генерируем новогодние картинки и видео с Kandinsky 5.0

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели6.5K

Всем привет! Месяц назад на конференции «AI Journey» мы представили линейку моделей нового поколения Kandinsky 5.0 Image & Video. Мы опубликовали код и веса моделей в открытом доступе для разработчиков, а также открыли доступ к новым моделям на всех площадках GigaChat: в Telegram, мессенджере Max, на сайте giga.chat, а также в приложении под Android. Для тех, кто хочет поглубже погрузиться в технические подробности, советуем прочитать техническую статью. А для тех, кому уже хватит архитектур, параметров и кода, а хочется салатов и Нового года — наш сегодняшний материал, в котором будет много ёлок, гирлянд и снега. В этой статье мы расскажем, как сделать отличные, новогодние и не только генерации, и надеемся, что вы получите от работы с моделью такое же удовольствие, как и мы. Спасибо, что интересуетесь и пользуетесь нашими моделями! С наступающим Новым годом!

Читать далее

RAG нового поколения: как заставить ИИ не врать

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели8.4K

На прошлой неделе в OpenAI посреди ночи случился переполох. Был выпущен GPT-5.2, и трон мирового ИИ снова сменил владельца.

Крупное обновление всего через четыре месяца - это необычно. Триггером стало давление конкурентов. Reuters сообщает, что Альтман объявил «красный код» еще в начале декабря, чтобы ускорить разработку, и подоплекой этого стал ответ на Gemini 3 от Google.

Сама OpenAI позиционирует это не как набор новых фич, а так: «Мы улучшили производительность в таких областях, как интеллект, обработка кода и понимание длинных текстов, и особенно усилили возможности создания таблиц, презентаций и выполнения других сложных многоэтапных задач».

Другими словами, GPT-5.2 - это не «мажорное обновление», а скорее отточенная версия, которая повышает надежность, работу с длинным контекстом, использование инструментов и генерацию для практических приложений. Можно с уверенностью сказать, что это не новая игрушка, а рабочий инструмент, который стал проще в использовании.

Читать далее

Азбука тензорных сетей, часть 2: тензорный поезд из кружочков и палочек

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели3.7K

Привет, Хабр! На связи вновь Алексей Капранов, архитектор-исследователь в команде квантовых вычислений Cloud.ru. В первой части мы узнали, что такое тензорные сети, познакомились с графическим представлением, вспомнили основные операции и подумали над алгоритмической сложностью.

Прошлая статья была подготовительной и немного философской преамбулой. Сегодня мы продолжим знакомиться с тензорными сетями и наконец-то доберемся до представления тензорного поезда, которое получим при помощи сингулярного разложения.

Рекомендуется к прочтению ML/AI‑исследователям и инженерам, которым интересны продвинутые методы понижения размерности; исследователям алгоритмов и численным аналитикам, а также всем, кто интересуется математикой и знаком с линейной алгеброй.

Читать далее

Допустим, ИИ пришел вас автоматизировать. Что будет дальше?

Время на прочтение9 мин
Охват и читатели5.7K

Представьте, что вы занимаетесь своими делами: закрываете тикеты, читаете почту — и вдруг видите новую встречу в календаре с названием «Автоматизация [вашего] отдела». Сразу возникает вопрос: если мой отдел автоматизируют, что будет со мной дальше и не пора ли обновлять резюме?

Обычно на этот вопрос никто не отвечает. А я знаю, как все бывает по другую сторону баррикад, так как сам занимаюсь автоматизацией.  

Как правило, задача никогда не ставится “давайте заменим всех людей нейронками”. Всегда речь идет про улучшение метрик бизнес-процессов.  Там, где человек улучшает метрики – там он и остается. Поэтому первое, что я делаю – разбираюсь, как на самом деле устроена работа сотрудников, чтобы понять, что возьмет на себя машина, а где найдется работа для человека.

В этой статье я подробно расскажу, что происходит, когда к вам приходят с автоматизацией, как будут изучать ваши процессы и как «залезут к вам в голову». Давайте разбираться.

Читать далее

Ближайшие события

Reinforcement Learning: Policy gradient methods

Время на прочтение9 мин
Охват и читатели7.5K

В предыдущих статьях Intro Reinforcement Learning и Reinforcement Learning: Model-free & Deep RL были рассмотрены подходы, в которых оптимальные действия находились косвенно через оценку полезности состояний или пар «состояние–действие». Такие методы принято называть value-based. Однако возникает вопрос: зачем строить сложные цепочки через value-функции, если можно напрямую обучать агента выбирать правильные действия? Такой policy-based подход интуитивно кажется проще и естественнее.

Здесь о том, как это делается (ノ◕ヮ◕)ノ

Читать далее

От Шеннона до современного ИИ: применение теории информации в машинном обучении

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели7.4K

Главная задача этой статьи — показать связь между теорией информации Шеннона и инструментами, которые можно встретить в современных системах машинного обучения. Здесь мы поговорим об энтропии (entropy) и о приросте информации (information gain), потом перейдём к кросс-энтропии (перекрёстная энтропия, cross-entropy), к KL-дивергенции (дивергенция или расхождение Кульбака–Лейблера, относительная энтропия, KL-divergence), рассмотрим методы, используемые в современных системах генеративного ИИ.

Читать далее

Генеративный ИИ (например, ChatGPT) запрещен на Stack overflow

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели6.5K

В самой статье все очень хорошо разложено по полочкам и я рад что они решились на это этот шаг. Очень емко и по делу. Перевод сделал гугло переводчиком, так что если что напишите в личку, поправлю ошибки.

Читать далее

Обзор состояния AI за 2025 год и прогнозы на будущее

Уровень сложностиПростой
Время на прочтение18 мин
Охват и читатели7.9K

Год почти прошел и пришло время сделать обзор State of AI на этот год и прогнозы на следующий. За основу были взяты разношерстные источники со всего мира: отчеты MIT, PwC, OpenAi, Open Router и тп.

В корпоративном ландшафте искусственного интеллекта наблюдается огромный разрыв: организации широко используют инструменты ИИ, но лишь немногие получают измеримую отдачу. Фактически 95% не получают ровным счетом ничего - дырку от бублика, несмотря на огромные вложенные деньги.

Читать далее

Вся стройка держалась на инженерах, а потом пришла нейросеть

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели7.7K

Под капотом — история о том, как мы прошли путь от экспериментов с ChatGPT до системы, которая консультирует клиентов по 10 000+ строительных материалов.

Читать далее

RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели7.3K

Мы в Контуре собрали собственный датасет и использовали его для обучения детектора, ориентированного на работу в сценариях видеосвязи. В статье расскажем, откуда брали материалы, как организовали сбор и тегирование, как генерировали фейки и почему важно заранее продумывать систему тегов. Датасет открыт для сообщества, ссылки оставили в конце статьи.

Читать далее

Когда команда ИИ-агентов помогает, а когда делает только хуже

Время на прочтение5 мин
Охват и читатели6.2K

Это вроде как интуитивно понятно: если один ИИ-агент способен решить проблему, то пятеро должны решать её в пять раз лучше и быстрее. Именно так сейчас многие и строят всё большее число мультиагентных систем. Само по себе это неплохо, но на практике именно что такая система часто превращается в неразбериху: расходуются бюджеты на токены, не сохраняется контекст и накапливаются ошибки.

И если честно, разница бывает не в процентах, а вот прям в разы: на одних задачах координация даёт огромный буст качества, а на других уверенно утаскивает результат вниз . При этом точно нельзя сказать что в одних задачах координация выстрелит, а в других нет. Но интересно и то что общий уровень ещё кое-как можно уловить: иногда координация всегда в нулях, или наоборот примерно удваивает результат.

Давайте разберём исследование, где мультиагентные системы сравнили честно на одинаковых ресурсах и условиях, по одним и тем же задачам: какие именно архитектуры рабочие, где возникает «налог на координацию» и по каким признакам можно заранее предотвратить напрасные попытки сделать команду из агентов.

Читать далее
1
23 ...

Вклад авторов