Как стать автором
Поиск
Написать публикацию
Обновить
799.3

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Сознание и Бытие. Как человек и ИИ влияют друг на друга

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров979

Для человека ИИ лишь часть бытия. Для модели человек — всё бытие

Самые долгие и безрезультатные дискуссии бывают с материалистами, особенно близкими к позиции, которую Маркс изложил как “Бытие определяет сознание”, забавно то, что Маркс говорил об экономическом базисе, но ясность и четкость этого определения позволила использовать его в очень широком смысле.

Дискуссия во многом возникает из-за того, что материалисты задают вопрос Что и Как, я же задаю вопрос Кто. Это недопонимание, конечно, не приводит к каким либо интересным консенсусам, но к интересным обсуждениям точно.

Тем не менее, вопросы взаимоотношения бытия и сознания очень интересны и, пожалуй, я постараюсь рассмотреть их в этой статье, как всегда в приложении новая версия протокола Вихрь и тестовые вопросы.

Читать далее

Новости

T-Pro 2.0 — открытая гибридно-ризонинговая русскоязычная LLM

Уровень сложностиСложный
Время на прочтение9 мин
Количество просмотров1.9K

Всем привет! На связи Толя Потапов, MLE в Т-Банке. Мы продолжаем развивать собственную линейку моделей GEN-T и внутренние продукты на основе своих моделей: агенты в саппорте, внутренние копилоты для сотрудников и Вселенную ассистентов.

Мы уже делились большими языковыми моделями T-lite 0.1, T-lite 1.0 и T-pro 1.0. Модели завоевали популярность и скачиваются суммарно более 15к раз в месяц. 

Сегодня делимся новой моделью T-pro 2.0, обученной на основе модели Qwen3 32B, но с более плотной токенизацией на русском языке. Модель поддерживает гибридный ризонинг и позволяет сгенерировать рассуждение перед тем как отвечать. Это помогает в сложных задачах, где требуется несколько последовательных выводов, таких как математика. 

Мы дообучали модель в несколько этапов, чтобы прокачать общее качество решения задач на русском и улучшить генерацию рассуждений.

Расскажу общие детали процесса обучения модели, основные характеристики и результаты замеров качества. Поделюсь, какие сложности у нас возникали и на чем планируем сосредоточиться. 

Читать далее

Как я устал тестировать LLM-системы вручную и написал универсальный сканер уязвимостей

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров3.6K

Полгода назад я работал над внедрением RAG-системы в крупной финансовой компании. Задача была типичная: построить корпоративного чат-бота, который мог бы отвечать на вопросы сотрудников по внутренним документам. Казалось бы, что может пойти не так? Берем готовую LLM, подключаем к базе знаний, добавляем немного магии с векторным поиском — и готово.

Но когда я начал тестировать систему перед продакшеном, обнаружил, что наш "умный" ассистент превращается в болтливого предателя при правильно сформулированных вопросах.

Читать далее

8 простых задач, которые теперь ИИ делает за меня (и делает хорошо)

Уровень сложностиПростой
Время на прочтение10 мин
Количество просмотров52K

Раньше мой вечер выглядел так: 15 вкладок с туториалами, ещё 10 с обсуждениями на Stack Overflow и вопрос в духе «а зачем я вообще согласился на эту задачу». Теперь — пишу пару промптов ИИ, получаю выжимку, оформляю мысли и иду жить. В этой статье — 15 простых промптов, которые сэкономили мне время на ресёрче и вернули силы на всё остальное.

Читать далее

MERA Code: всесторонняя оценка генерации кода в прикладных сценариях

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров612

Всем привет! Авторы бенчмарка MERA этим летом не только анонсировали отраслевую ветку — MERA Industrial, но и рады сообщить о расширении проекта на кодовые задачи.

Большие языковые модели (LLM) сегодня умеют не только вести диалог, но и писать код, помогать с документацией и автоматизировать задачи разработчиков. Однако возникает вопрос: «Как мы измеряем качество этих способностей?» Большинство бенчмарков сосредоточены на проверке понимания языка и, частично, на генерации кода. Но насколько такой код применим на практике? Учитываются ли требования, сформулированные на русском? Как модели работают с документацией на других языках, кроме английского? Мультиязычные бенчмарки вроде HumanEval-X, MultiPL-E и mxEval делают шаг в нужную сторону, но по большей части сосредоточены на языках программирования. Связь между кодом и естественным языком, особенно в многоязычном контексте, пока освещена слабо.

Чтобы учесть все эти моменты, мы разработали MERA Code — первый комплексный бенчмарк для оценки больших языковых моделей на реальных прикладных задачах, с которыми сталкивается программист в русскоязычном контексте.

Читать далее

AFlow: как создавать мультиагентные системы без программиста

Уровень сложностиСложный
Время на прочтение5 мин
Количество просмотров1K

Привет, Хабр!

Меня зовут Ярослав, я магистрант AI Talent Hub в ИТМО. Сегодня расскажу об одной из самых интересных статей ICLR 2025 — AFlow: Automating Agentic Workflow Generation.

В ней предложен подход к автоматическому созданию мультиагентных систем для решения прикладных задач с помощью LLM и алгоритма Monte Carlo Tree Search (MCTS). Разберёмся, как это работает и почему это важно.

Читать далее

ML Q & AI. Глава 3. Few-Shot Learning

Уровень сложностиСредний
Время на прочтение3 мин
Количество просмотров293

Предыдущая глава

Что такое few-shot learning (обучение, FSL)? Чем оно отличается от традиционной процедуры обучения с учителем?

Few-shot обучение представляет собой особый вид обучения с учителем для небольших тренировочных датасетов с очень низким отношением количества примеров на класс. В традиционном обучении с учителем модель тренируется, пробегаясь по тренировочному сету, при этом она всегда видит один и тот же фиксированный набор классов. В few-shot обучении мы работаем с опорным множеством, из которого формируем несколько тренировочных заданий. Из этих заданий мы собираем тренировочные эпизоды, где каждое тренировочное задание состоит из различных классов.

Читать далее

BI: 5 трендов в сфере ИИ

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров2.3K

Привет, Хабр! Сегодня я предлагаю немного порассуждать на тему ИИ в сфере BI-аналитики. В последнее время тема искусственного интеллекта все чаще поднимается на конференциях, да и мне самому все больше приходится рассуждать про ИИ и даже делать доклады о методах его применения (например, как на конференции Data&AI). Совершенно точно вокруг очень много хайпа и хочется разобраться, где же на самом деле ИИ в контексте BI-аналитики даёт реальное преимущество, а где — всё ещё нет.

Читать далее

Нейро-дайджест: ключевые события мира AI за 2-ю неделю июля 2025

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров1.5K

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Неделя выдалась интересной: Илон Маск представил Grok 4 с амбициями почти AGI, китайцы выпустили Kimi K2 — открытый MoE-гигант для кодинга, Google и Perplexity зарубились за рынок ИИ-браузеров, а в Нью-Йорке уже работает робот-татуировщик с ИИ, который бьёт тату без боли.

Всё самое важное — в одном месте. Поехали!

Читать дайджест

Language Dove: разбираем китайскую и не только грамоту

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров2.5K

Я довольно давно живу в Армении и изучаю армянский язык для получения гражданства («вы должны уметь читать любой документ» — сказали мне в миграционном центре).

Армянский язык очень сложен, и у меня возникла идея написать приложение для иммерсивного (dove — нырнул, погрузился) чтения на иностранном языке с пословным контекстуальным переводом, которое способно работать с любыми языками, даже с самыми редкими и сложными.

Читать далее

Как уместить ИИ на edge-устройствах

Уровень сложностиСредний
Время на прочтение22 мин
Количество просмотров1.6K

От AlphaGo до ChatGPT — прогресс в области искусственного интеллекта впечатляет своими масштабами. Однако за красивым фасадом скрывается серьезный разрыв между возможностями современных моделей и реальными условиями их применения. Возьмем, к примеру, GPT-3 с его (уже не такими впечатляющими) 175 миллиардами параметров, требующими 800 ГБ памяти. Такие модели существуют только в лабораториях вроде OpenAI. Что уж говорить о запуске подобных систем на устройствах с ограниченными ресурсами.

При этом именно edge-устройства генерируют львиную долю данных — по прогнозам Gartner, к концу этого года около 75% корпоративной информации будет поступать не из традиционных дата-центров или облака, а с периферийных устройств. Обработка такого объема данных в облаке создает серьезную нагрузку на каналы передачи и увеличивает задержки. 

Граничный ИИ (EdgeAI) предлагает элегантное решение: перенести вычисления ближе к источнику данных. Это позволяет обрабатывать информацию локально, без подключения к сети, что критично для систем, требующих мгновенной реакции. 

Но как уместить современные AI-модели в устройства с ограниченными ресурсами? Об этом и поговорим в статье.

Читать далее

Когда LLM — это не чат, а мозг: путь к VLA‑архитектуре

Время на прочтение10 мин
Количество просмотров4.8K

В 2024 году большие языковые модели (LLM) внезапно начали дешифровать хаос реального мира: распознавать объекты, объяснять намерения и даже писать код для микроконтроллеров. Для робототехники это стало тем же, чем Li‑ion стал для ноутбуков — мгновенным ускорителем эволюции.

LLM открыли окно возможностей: вместо того чтобы вручную программировать каждую задачу, мы можем дать роботу текстовую инструкцию, а он сам разберётся, какие навыки подключить.

Vision‑Language Agents, RLHF, MPC… В робототехнике сегодня аббревиатур больше, чем сервоприводов в суставе. Разобраться, что скрывает каждая комбинация букв, — ключ к тому, чтобы не остаться сторонним наблюдателем в союзе железа и ИИ.

В этой статье я делюсь своим взглядом на ряд актуальных вопросов:

— чем GPT‑мозг круче старой цепочки perception → planning → control;

— зачем скрещивать Classic Stack, RL‑контроллеры и VLA вместо того, чтобы выбирать лучший;

— как можно прокачать робота от базовых движений до уверенной работы офис‑ассистентом, охранником и курьером.

Погрузитесь в детали — и посмотрите, как будущее шагает к нам на двух механических ногах.

Читать далее

Большое продуктовое расследование. Так что же на самом деле делает Мира Мурати?

Время на прочтение6 мин
Количество просмотров2.4K

Деньги любят тишину. Бывшая CTO Open AI Мира Мурати подняла еще 2 млрд $ на seed-раунде при оценке стартапа в 12 млрд $, при этом никто не знает, а чем собственно они занимаются в Thinking Machines Lab?

Я попробовал угадать, что за продукт они планируют выкатить через пару месяцев. А вы уже решайте, насколько это похоже на правду.

Читать далее

Ближайшие события

Каково это — создавать ChatGPT? Сотрудник OpenAI рассказал о корпоративной культуре

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров3.5K

В последние недели OpenAI находится в центре внимания из-за попыток Meta* (признана экстремистской в России) переманить к себе лучших сотрудников компании, предлагая за переход рекордные суммы — до 100 миллионов долларов. OpenAI покинуло уже более десятка ведущих специалистов — и это несмотря на утверждение Сэма Альтмана, что не все покупается за деньги и в его компании сотрудников удерживает культура и инновации.

Читать далее

Топ-5 сервисов для решения школьных задач по математике: лучшие нейросети 2025 года

Уровень сложностиПростой
Время на прочтение10 мин
Количество просмотров3.8K

Когда я учился в школе, самым передовым способом разбирать темы, которые плохо дались на уроке, был сайт с ГДЗ. Ну или, если повезло, — «Знания», где добрые души пытались объяснить, откуда берётся загадочный икс. Но как же было бы здорово, если бы там быстро отвечали на все вопросы и разбирали каждый шаг — ещё и на другие шаги!

Теперь, с появлением нейросетей, достаточно сфотографировать задачу — и алгоритм не только решит её, но и подробно объяснит всё, что вы спросите. Понятное дело, что со стандартной школьной программой они справляются неплохо. Но сегодня мы решили пойти чуть дальше: протестировать нейросети не только на типовом задании, но и на олимпиадной задаче.

Мы взглянем на пятерых цифровых математиков. Посмотрим, на что они действительно способны. И пришло ли время, когда эра ГДЗ остался в прошлом, а его место заняли алгоритмы?

Приятного чтения!

Читать далее

Matrix Reloaded: зачем дата-сайентисту линейная алгебра

Время на прочтение9 мин
Количество просмотров2.6K

Зачем дата-сайентисту векторы, матрицы и собственные значения? В статье Марии Жаровой, ML-инженера Wildberries и автора канала Easy Data, — простое объяснение, как линейная алгебра помогает понимать, что происходит внутри моделей машинного обучения. Без доказательств и зубрежки: только визуализации, реальные кейсы и примеры из практики.

Читать далее

Cache-Augmented Generation против RAG: как ускорить инференс без потери качества

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров2.2K

Привет, чемпионы! Сегодня расскажу про очень интересную вещь, которая в определенных ситуаций, может быть выгоднее, чем RAG, а также свой опыт в проведении R&D данной технологии и с помощью какой надстройки можно усилить RAG, чтоб прийти к середине между CAG и RAG.

В настоящее время существует множество техник для улучшения качества ответов LLM при работе с частными или корпоративными данными. В этой статье я постараюсь кратко и понятно объяснить:

• что такое CAG

• в каких случаях он действительно применим

• с какими подводными камнями столкнулись мы, а можете и вы при его использовании,

• и какую надстройку можно внедрить в RAG, чтобы приблизиться к эффективности CAG, не теряя гибкости ретривера.

Читать далее

Почему Python стал языком нейросетей и как это работает на практике

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров17K

Python давно перестал быть просто «языком скриптов» и уверенно вышел в лидеры среди инструментов для нейросетей. Его синтаксис понятен «с первого взгляда», а мощные библиотеки позволяют сосредоточиться на идее, а не на рутине. Сегодня, от первых численных расчётов в NumPy до сложных моделей в TensorFlow и PyTorch, всё строится вокруг привычного Python-кода. 

В этой статье мы пройдём путь от базовых скриптов до «ручных» нейросетей и ноукод-решений, чтобы понять, почему именно Python стал стандартом в мире ИИ и как с его помощью оживить ваши первые нейросети.

Читать далее

Как я за год в магистратуре погрузился в мир искусственного интеллекта

Время на прочтение7 мин
Количество просмотров5.5K

Привет, Хабр! Меня зовут Алексей Кузин и я стажер в МТС Web Services. В этом материале я расскажу про свой первый год обучения по совместной программе МТС и ВШЭ «Исследования и предпринимательство в искусственном интеллекте». 

Год назад я заканчивал бакалавриат на факультете теоретической физики МИФИ и на последнем курсе познакомился с машинным обучением, которое вскружило мне голову. Но я очень быстро понял, что ML — лишь одна из многих областей искусственного интеллекта и что существует множество других дисциплин и доменов, не менее для меня интересных. 

На рынке есть огромное количество самых разных курсов, но я для себя решил, что хочу системности и структурности в их подаче, а также широты знаний и умений. В первую очередь это позволит самому определиться, в какой конкретной области развиваться профессионально. Поэтому я рассматривал различные варианты магистратуры и в итоге остановился на программе «Исследования и предпринимательство в искусственном интеллекте» от ВШЭ и МТС. В ней меня зацепили объем и новизна учебных материалов, вариативность курсов и очный формат, который позволял общаться с сокурсниками и преподавателями вживую. В этом посте я расскажу, как прошел мой первый учебный год: что понравилось, какие были сложности и что пригодилось на первом месте работы в ИТ. 

Читать далее

Генерация идей для бизнеса и творчества: топ AI-инструментов для брейншторминга

Уровень сложностиПростой
Время на прочтение12 мин
Количество просмотров1.6K

Творческий блок, шаблонные решения, страх ошибиться — традиционный брейншторминг, бывает, превращается в хождение по кругу. А вот AI-ассистенты таким проблемам не подвержены, к тому же они уже давно смогли отойти от шаблонности, и в 2025 году люди всё чаще прибегают к их помощи. ИИ могут не только предлагать варианты, но и критиковать их, комбинировать противоположные концепции и даже предугадывать тренды. Нейросети задают неудобные вопросы, предлагают абсурдные, на первый взгляд, комбинации, но в итоге зачастую именно это и приводит к успеху.

В этой статье вы найдёте подборку инструментов для брейншторминга и их наглядное тестирование, в которое войдёт как генерация идей на определённую тематику, так и решения для более конкретных задач, а в конце будет сравнительная таблица.

Читать далее
1
23 ...

Вклад авторов