Обновить
687.66

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Исследуем OSS-инструменты для MLSecOps: цели проекта и промежуточные результаты

Уровень сложностиСредний
Время на прочтение11 мин
Количество просмотров891

Привет, Хабр! Меня зовут Алексей Солдатов, я выпускник магистратуры «Системный анализ и математические технологии» НИУ ВШЭ. Хочу поделиться с вами опытом исследования атак на модели машинного обучения под руководством Павла Литикова, архитектора ИБ-подразделения AI VK, в рамках мастерской по безопасности ИИ в Инженерно‑математической школе НИУ ВШЭ и VK.

Модели машинного обучения сегодня применяют в самых разных сферах жизни людей. Однако вопросы безопасности зачастую остаются на периферии внимания разработчиков и инженеров. Для компании VK, в инфраструктуре которой функционируют тысячи ML-моделей, особенно актуальна задача автоматизации и упрощения процессов обеспечения их безопасности.

Наша команда продолжает работу над проектом RnD OSS-инструментов для MLSecOps, целью которого является систематизация открытых инструментов и подходов к обеспечению безопасности систем машинного обучения. Сейчас мы сосредоточены на изучении и воспроизведении атак различной природы на ML-модели. В рамках экспериментов протестировали инструменты для атак на модели разных модальностей: текстовых, табличных, визуальных и аудиоданных. Средства защиты планируем рассмотреть на следующих этапах проекта. Этот материал — промежуточный обзор задач проекта, его структуры и первых полученных результатов анализа атакующих подходов.

Читать далее

90% кода

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров18K

Команда AI for Devs подготовила перевод статьи о том, как меняется программирование с приходом ИИ. Автор делится опытом: в его проекте уже 90% кода пишется агентами, но вся ответственность за архитектуру и продакшен остаётся на нём. Это не далёкий прогноз — это уже реальность, просто распределённая неравномерно.

Читать далее

Kandinsky Image научился генерировать изображения с надписями на русском

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров7.8K

Мир никогда не станет прежним! Теперь можно генерировать котов с добавлением смешных надписей на русском, а разве не ради этого мы создавали искусственный интеллект?

Сегодня мы выпустили обновление модели генерации изображений Kandinsky. Модель научилась генерировать надписи на кириллице. Не просто текст поверх изображения, а органично вписанный: начерченный на стене, выпиленный из дерева, отлитый из металла, вышитый, связанный или выложенный лепестками роз.

Читать далее

ИИ в образовании. Учить или учиться

Уровень сложностиПростой
Время на прочтение24 мин
Количество просмотров3.5K

О потенциале искусственного интеллекта в образовании говорят все. И это понятно,  получение информации по запросу практически в любой отрасли знаний кажется ключом к эффективному и недорогому массовому обучению.

Но бездумное внедрение ИИ рискует превратить мощный инструмент в свою противоположность и скорее навредить, чем помочь.

Читать далее

GGUF: квантизация с калибровкой (imatrix)

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров2.9K

Привет, хабровчане!

Признаюсь, я не большой любитель vLLM, Triton Inference Server и всяких там NeMo, вместо них я предпочитаю ollama вообще и llama.cpp в частности, поскольку придерживаюсь мнения, что 1-2% потери в точности и отсутствие некоторых плюшек - не так важно, по сравнению с удобством деплоя, спекулятивным декодингом, многократным приростом скорости, динамическим оффлодом в память системы и возможностью запускать модели на любом "ведре", навроде древних зионов, андройдофонов, малинок или, скажем, макбуков.

Поэтому вполне ожидаемым для меня является, когда авторы моделей заморачиваются с конвертацией оных в GGUF - особом формате сжатия весов моделей, пригодном для запуска через упомянутые выше ollama и llama.cpp.

Однако реальность обычно немного отличается от ожиданий, и конвертацию в GGUF с последующей квантизацией приходится делать самостоятельно, а чтобы качество работы модели не падало, желательно генерировать imatrix через калибровочный датасет, о чём я и хочу рассказать в данной публикации.

Читать далее

Не отходя от ноутбука: как ученые создают новые материалы с помощью квантовых моделей

Время на прочтение10 мин
Количество просмотров2.9K

Всем привет! Меня зовут Константин Ларионов, я физик-теоретик, научный сотрудник лаборатории цифрового материаловедения университета МИСИС и приглашенный лектор Шанхайского университета. На True Tech Day 2025 я выступал в научном треке с докладом о том, как современная наука о материалах ушла от пробирок и микроскопов к алгоритмам и суперкомпьютерам. Видеоверсию можно посмотреть в комьюнити True Tech в VK, а тут — адаптация для Хабра.

Если раньше создание нового материала требовало нескольких лет экспериментов в лаборатории, то сегодня его можно спроектировать с заданными свойствами прямо за ноутбуком. В этом нам помогают квантовая физика, искусственный интеллект, машинное обучение и, как ни странно, старый добрый метод научного тыка — правда, теперь уже цифровой.

Давайте разберем, как устроена работа современного ученого, почему уже никто не делает открытия в одиночку и как выглядит «таблица Менделеева» внутри компьютера.

Читать далее

Triton FP8: реализация и автотюнинг GEMM/Attention под RTX 40xx/Blackwell

Уровень сложностиПростой
Время на прочтение20 мин
Количество просмотров622

Привет, Хабр!

Я тут на досуге решил разобраться с 8-битными числами с плавающей запятой (FP8) и попробовать написать под них свои GPU-ядра на Triton. Зачем? Ну, новые ускорители от NVIDIA обещают невиданную ранее производительность на FP8 — вдвое больше операций, чем на FP16. Для тренировки огромных нейросетей это прям манна небесная: меньше памяти, больше скорость. Но, конечно, всё не так просто.

Сам по себе FP8 формат капризный, требует тщательного подхода: два разных варианта чисел (E4M3 и E5M2), масштабирование (скейлинг) тензоров, аккуратное накопление сумм в FP16/FP32, разбиение вычислений на тайлы под размер быстрого SRAM (shared memory) и даже специальные меры против переполнения. В общем, нюансов хватает. Расскажу, что узнал и как реализовал GEMM (умножение матриц) и внимание (Attention) в FP8 на языке Triton, да ещё и с автотюнингом.

Перейти к материалу

Понимание оценки LLM: детальный разбор 4 основных подходов

Время на прочтение26 мин
Количество просмотров963

Привет! Вчера вышла отличная статья от Себастьяна Рашки, которая детально разбирает основные способы оценки LLM-моделей. Глобально их можно разделить на 4 категории: оценка по бенчмаркам, использование верификаторов, лидерборды и LLM-as-a-judge.

Для каждого метода есть описание и код реализации с нуля, которые отлично показывают, что под капотом у каждого из методов оценки. И такой материал заслуживает того, чтобы быть на русском языке, поэтому я сделал качественный перевод, включая ключевые картиночки. Объёмные блоки кода скрыты за спойлерами, основные схемы переведены — если вы интересуетесь оценкой LLM (ее еще называют evals), то будет интересно.

Важное уточнение: статья позиционирует себя как «создание с нуля» (from scratch), и для этой цели она отлично подходит. Однако, будучи глубоко погружённым в эту тему, я посчитал многие моменты достаточно базовыми. Поэтому финальные выводы с radar-диаграммой и таблицей плюсов-минусов я вынес в самое начало — это отличный способ быстро освежить знания и систематизировать понимание для тех, кто уже глубоко в теме. И продублирую идею о том, что в реальной жизни под конкретную задачу стоит создавать свой бенчмарк и замеряться именно на нем.

В остальном — из песни слов не выкинешь, всё переведено как в оригинале, и это действительно отличный материал. Дальше будет именно он.

Читать далее

Как камеры с ИИ помогают бизнесу

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров2.7K

Машинное зрение давно вышло за рамки научной фантастики и сегодня активно используется в бизнесе. Камеры наблюдения, которые ещё недавно служили только для безопасности и архивирования происходящего, теперь становятся источником ценной информации.

С их помощью можно не просто «смотреть» за происходящим, а собирать данные о поведении людей, загрузке оборудования и эффективности процессов.

Всё это помогает принимать управленческие решения быстрее и точнее.

Читать далее

Бесконечность в ваших данных – power laws

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров1.7K

Сегодня я хочу рассказать о теме, которая редко затрагивается в курсах по статистике, но порой встречается на практике. Она может сломать основания всех ваших привычных методов и даже ваш мозг. Имя этой теме – power laws или “степенные законы”. В этой статье я расскажу, что это такое, покажу примеры реальных данных и расскажу, что делать, если в ваших данных встретился степенной закон. Я постарался сделать текст читаемым для широкого круга людей и не нагружать его формулами.

Читать далее

Как управлять интернетом вещей с помощью LLM

Время на прочтение4 мин
Количество просмотров3.1K

ИИ сегодня уверенно распознаёт тексты, пишет программный код и подсказывает сложные решения — но как только его просят поработать с реальными датчиками или «умным» домом, всё становится неожиданно сложно. Один и тот же датчик может передавать данные в разных форматах, соединения обрываются, взаимодействие превращается в квест с кучей костылей и кастомных скриптов.

Однако совсем недавно инженеры предложили элегантное решение этой застарелой проблемы: не добавлять «ещё один слой» или велосипедить интеграции, а полностью переосмыслить, как LLM взаимодействуют с миром железа. В основе нового подхода — чистая, структурная логика, где роли чётко распределены и всё работает более похоже на реальную команду, чем на беспокойную толпу серверов.

Почему это важно? Такой сдвиг — не просто удобство для разработчиков, а первый реальный шаг к тому, чтобы ИИ начал по-настоящему работать с физическим миром. Как это получилось, где скрыты ключевые идеи и почему новая архитектура может стать стандартом для всего IoT — рассказываю простыми словами.

Читать далее

ChatGPT как главный маркетплейс планеты: разбираем OpenAI Agentic Commerce Protocol

Время на прочтение10 мин
Количество просмотров5.1K

Не так давно OpenAI анонсировала Instant Checkout и затем опубликовала Agentic Commerce Protocol — два важных изменения, которые могут качественно повлиять на то, как будет выглядеть еком в ближайшие несколько лет. А может и нет.

Однажды в интервью продуктологов OpenAI я прочитал важную мысль про подход к запуску новых продуктов — «мы трясем яблоню и смотрим что упадет». Можно любить OpenAI и не любить, любить LLMки и нет (лучше — любить), но все, что делает OpenAI неизбежно долгосрочно оказывает влияние на всю индустрию, поэтому совсем пройти мимо такого интересного события — не хотелось.

И как говорил мой англоговорящий друг: «Is that just hype, low hanging fruit, or a real game changer?» (хороший вопрос, кстати).

Попробуем разобраться что внутри и куда движет еком, сравнив в том числе с тем, что делает Google.

Читать далее

Паттерны программирования при работе с LLM

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров10K

LLM - мощный инструмент, но его эффективность в продакшене зависит не от одного «хитрого промпта», а от всей архитектуры: что мы даём модели, как управляем её рассуждением и как проверяем/обрабатываем результат. В этой статье - компактная карта паттернов, разбитая по этапам конвейера: Input -> Reasoning -> Output.

Читать далее

Ближайшие события

От GPT-2 к gpt-oss: анализ достижений архитектуры

Уровень сложностиПростой
Время на прочтение21 мин
Количество просмотров4.4K

📝 Описание

На этой неделе разбираем релиз GPT-OSS — первых полностью открытых моделей OpenAI с момента GPT-2 в 2019 году. Две модели: gpt-oss-20b и gpt-oss-120b представляют собой современные LLM с архитектурой MoE (Mixture of Experts), оптимизированные для рассуждений и способные работать на одном GPU благодаря квантованию MXFP4.

Читать далее

Курсы психолога онлайн в 2025 году: Обучение на психолога дистанционно с дипломом гособразца

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров1.3K

В 2025 году учиться на психолога можно спокойно и без суеты: дистанционный формат, нормальная нагрузка, понятные документы. Тем, кто хочет получить психологическое образование и не выпасть из работы, подойдут курсы психолога онлайн и обучение психологии онлайн с получением диплома. Это хороший старт для тех, кто планирует поступить на психолога позже, и рабочий инструмент для тех, кто уже в помогающей сфере.

В статье я сравниваю разные траектории: профессиональная переподготовка и повышение квалификации, «психология с нуля» и практико-ориентированные курсы психологии. Отбираю программы, где прозрачно заявлены часы, формат, итоговая аттестация и тип документа — от сертификата до диплома государственного образца. Особое внимание — вариантам, где доступно обучение на психолога дистанционно и курсы по психологии дистанционно с дипломом: это помогает начать без переезда и ночных пар.

Читать далее

Как ИИ меняет поиск людей и построение социальных связей

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров1K

Сегодня - о новом подходе к поиску людей и построению социальных связей через искусственный интеллект.

В качестве примера в этой статье я использую наш проект Linkeon. Воспринимать его как единственно возможное решение, конечно, не стоит.

Проблема: поверхностность современных социальных сетей

Современные социальные сети и сервисы знакомств решают задачу соединения людей через примитивные критерии: возраст, внешность, геолокацию, общие интересы. Но эти критерии не отражают глубинные ценности и намерения людей.

Когда мы ищем партнера для бизнеса, единомышленника для проекта или просто близкого по духу человека, нам важны не хобби и внешность, а то, что движет человеком изнутри. Его ценности, убеждения, жизненные цели и намерения.

Классическая проблема: мы тратим месяцы на общение с людьми, которые на первый взгляд подходят нам, но в итоге оказываются на совершенно другой "частоте". Разные ценности, разные цели, разные представления о жизни.

Особенно остро это проявляется в профессиональной сфере:

В своей предыдущей статье о ключевых качествах сотрудников я писал, что для меня критически важными являются мотивация и обучаемость. Но посмотрите на любую платформу поиска работы - hh.ru, LinkedIn, SuperJob. Там вообще нет полей для этих качеств!

Система ищет по навыкам, опыту, образованию — но не по тому, что действительно определяет успех сотрудника в долгосрочной перспективе. В итоге HR‑менеджеры тратят кучу времени на собеседования, пытаясь понять, подходит ли кандидат по «мягким» навыкам, которые невозможно оценить по резюме.

Читать далее

Запускаем Qwen3-VL-30B на 48GB VRAM

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров7.2K

Недавно вышла коллекция моделей от Alibaba - Qwen3-VL:

https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe

Запустим эту модель на Ubuntu

Как выжать максимум смысла из тысяч строк кода

Время на прочтение4 мин
Количество просмотров2.5K

Сколько смыслов можно уместить в тысяче строк кода? Этот вопрос становится совсем не теоретическим, когда к делу подключаются современные LLM — им всё чаще приходится разбираться в огромных проектах, где важно не просто “прочитать всё”, а вытащить из бесконечного кода именно то, что нужно. При этом стандартные методы экономят время и память… но нередко теряют самую суть, упуская важные связи между частями программы.

В свежей работе исследователи предлагают неожиданно простой трюк: вместо того чтобы скармливать модели лишние мегабайты, они аккуратно выжимают из репозитория только те фрагменты, которые реально двигают модель к правильному ответу. При этом смысл сохраняется, а мусор уходит.

Оказалось, даже совсем не обучая модель и не вникая во внутренности LLM, можно кратно повысить скорость и снизить стоимость анализа длинного кода — и иногда добиться даже лучшего качества. Как это работает, почему эффект оказался внушительным и к каким деталям тут всё сводится — разбираемся на примере LongCodeZip.

Читать далее

Призрак в машине: ИИ-подделка и аура в эпоху алгоритмической воспроизводимости

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров1.1K

В данном случае отсылки в заголовке к знаменитой работе Вальтера Беньямина 1936 года «Произведение искусства в эпоху его технической воспроизводимости» отнюдь не случайно. Мы окружены подделками и поделками. Крупные издательства выпускают научно-популярные и художественные книги российских авторов под видом зарубежных (недавно про наиболее вопиющие случаи писали СМИ, без ИИ тут явно не обошлось). Дипфейки известных актеров и политиков заливаются в сеть сотнями каждый день. Нейротворчество выдают за созданное человеком. На Хабре появилась целая когорта пользователей, пытающихся отделить человеческие статьи от машинных.  

В мае 2025 года я опубликовал статью на Хабре «Аркадий Стругацкий против Deepseek и ChatGPT: как ИИ повлияет на художественный перевод», тогда разгорелась нешуточная дискуссия о роли переводчика в эпоху искусственного интеллекта. Я решил продолжить дискуссию, на этот раз поговорить о той самой ауре, которой должны обладать произведения искусства и тексты. 

Читать далее

«LLVM для AI». Крис Латтнер и язык программирования Mojo

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров6.3K

Крис Латтнер (Chris Lattner) — создатель CPU-компилятора LLVM и соавтор Swift — предложил новый язык программирования Mojo, спроектированный для одновременного программирования CPU, GPU и TPU (тензорные ядра, оптимизированные для матричного умножения, а это и есть инференс LLM), без всяких лишних библиотек типа CUDA, ROCm и XLA.

Mojo — это надмножество Python с производительностью С и потенциальная замена Rust. Код на нём легко переносится между различными GPU, при этом платформа Modular быстрее обновляется под новые модели GPU, чем сама Nvidia выпускает обновления для своего софта (новые attention kernels).

Простой и мощный язык для написания и деплоя LLM-приложений независимо от оборудования (AMD, Nvidia, Intel и проч.), с метапрограммированием во время компиляции и прочими штуками. Что-то вроде единой «LLVM для AI». Унифицированная программная платформа, которая запускается на любом железе. Это ещё и самый простой способ ускорить Python-приложение в 10−1000 раз, не переписывая его фрагменты на Rust или C++ (что по сути делают NumPy и PyTotch).

Читать далее

Вклад авторов