Обновить
125.09

Natural Language Processing *

Компьютерный анализ и синтез естественных языков

Сначала показывать
Порог рейтинга
Уровень сложности

Language Dove: как я транскрибирую и перевожу фильмы

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели15K

Я обожаю смотреть иностранные фильмы в оригинале.

Во-первых, мне нравится расширять кругозор, погружаться в другую культуру, расшифровывать структуру разных языков, пополнять словарный запас.

Во-вторых, мне просто нравится звучание некоторых языков - например, французского, китайского, датского.

Также я работаю над сайтом по изучению языков Language Dove, а учить языки по фильмам - это очень эффективно.

Так родился проект по генерации идеальных субтитров.

Читать далее

Новости

Мой локальный агент помнит проект лучше меня. Контекст — 32K токенов. Расскажу, как

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели37K

Мой агент на Llama 3.1 8B в третий раз спросил, как меня зовут. Я представился 200 сообщений назад. Контекст переполнился — начало разговора уехало. Большие контексты не спасают: дорого, «Lost in the Middle», локально не влезает. Суммаризация теряет детали. Я сделал по-другому — три типа внешней памяти: Redis для фактов, ChromaDB для семантического поиска, файлы для документов. Контекст маленький, память большая. Внутри — код на Python и грабли, на которые я уже наступил.

Читать далее

Практический гид по Claude Skills, проектам и Claude Code: как собрать свой ИИ-стек

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели12K

Claude умеет многое, но в реальной работе чаще всего ломается на рутине: стиль, шаблоны, чек-листы, критерии, инструменты. Agent Skills решают это прагматично: вы один раз упаковываете процедуру в папку со SKILL.md, и Claude подхватывает ее по ситуации. В статье простое объяснение, как это устроено, чем Skills отличаются от Projects/MCP, и как я упаковываю скиллы для моих повседневных задач.

Читать далее

Как прошла AAAI 2026: большой репортаж

Уровень сложностиСредний
Время на прочтение25 мин
Охват и читатели7.1K

Привет, Хабр! Конференции серии AAAI — крупнейшие события в области искусственного интеллекта, которые утягивают на себя внимание в начале каждого года. Местом проведения AAAI 2026 стал Сингапур, что позволило мне — директору лаборатории когнитивных систем искусственного интеллекта AIRI и Центра когнитивного моделирования в Институте искусственного интеллекта МФТИ Александру Панову — и многим моим коллегам принять в ней участие. 

По ходу конференции я вёл заметки о докладах и событиях, которые были мне интересны, общался с коллегами, подмечал тренды, фотографировал. Посмотреть было на что. Например, AAAI 2026 стала первой в истории экспериментальной площадкой такого уровня по использованию LLM в качестве рецензентов. 

Я решил собрать всё в один большой репортаж, чтобы те, кто по какой‑то причине не смог присутствовать, смогли хотя бы прочитать о том, что там происходило. Конечно, обозреть всё на такой огромной конференции невозможно. Но если вам, как и мне, нравятся нейросимвольная интеграция и RL, то вам будет интересно.

Поехали!

От «яблока» до «королевы»: как нейросети учатся понимать смысл слов через эмбеддинги

Время на прочтение4 мин
Охват и читатели7.4K

Представьте, что вы объясняете ребёнку, что такое «яблоко». Вы покажете картинку, дадите попробовать, расскажете, что оно круглое, сладкое, растёт на дереве, а теперь попробуйте объяснить это нейросети. Она не видит, не пробует, но она понимает только числа.

Как же тогда заставить машину понять, что «яблоко» ближе к «груше», чем к «трактору»? Ответ на самом деле кроется в элегантном приёме, который произвёл революцию в NLP- векторных представлениях слов, или эмбеддингах.

Проблема «слепого» кодирования: почему one-hot не работает

Самый наивный подход- это пронумеровать все слова в словаре и закодировать каждое вектором из нулей и одной единицы:

Читать далее

Как ИИ-стартап задумал отсканировать и утилизировать миллионы книг

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели36K

Судебные материалы раскрывают, как компании наперегонки добывали всё больше книг, чтобы скормить чат-ботам: в числе прочего, покупали, сканировали и уничтожали миллионы экземпляров

В начале 2024 года руководители Anthropic, стартапа по разработке искусственного интеллекта, взялись за амбициозный проект, одновременно пытаясь держать его в тайне. «Project Panama — это наша попытка провести деструктивное сканирование всех книг мира, — говорилось во внутреннем плане, рассекреченном в судебных материалах на прошлой неделе. — Мы не хотим, чтобы факт нашей деятельности стал известен».

Как следует из документов, примерно через год на эту цель был освоен бюджет в десятки миллионов долларов. Эти деньги потратили, чтобы приобрести книги и сре́зать корешки, а затем отсканировать страницы и вкачать больше знаний в ИИ-модели, лежащие в основе продуктов по типу популярного чат-бота Claude.

Читать далее

Посимвольная нейросетевая модель для автоматической акцентуации русского языка

Время на прочтение4 мин
Охват и читатели8.5K

Привет Хабр, решил поделиться небольшой моделью для расстановки ударений, которую обучил на открытом датасете из более чем 400 книг художественной прозы в открытом источнике.

Читать далее

LLM модель qwen3-coder-next быстрый тест на локальном сервере

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели18K

Сегодня зашел на сайт ollama, а там представили новую LLM модель qwen3-coder-next. Но при попытке ее установить вышло предупреждение что моя текущая версия 0.15.4 не будет работать с ней, нужно установить 0.15.5 которая еще только в бета тестировании. А стандартная установка ставила только 0.15.4, сначала я плюнул на это.

Но немного разобравшись, оказалось что установить бета версию не так и сложно, стандартная установка для линукс выглядит так

curl -fsSL https://ollama.com/install.sh | sh

а установка бета варсии (сейчас она 0.15.5-rs2) выглядит так

curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.15.5-rc2 sh

Представлено 2 версии qwen3-coder-next

Читать далее

Мои впечатления о AAAI-26

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели6.4K

Привет, меня зовут Айдар, я занимаюсь исследованиями в области машинного обучения и ИИ в AIRI и МФТИ. В январе этого года я впервые побывал на конференции AAAI в Сингапуре — и должен признать, что такое большое мероприятие (по крайней мере, с точки зрения числа участников) я посещаю впервые. 

Хочется поделиться с вами впечатлениями от этого масштабного события, а также рассказать про тренды и интересные доклады, которые я там послушал. 

Читать далее

Генерируем SQL–запросы на локальных моделях

Уровень сложностиСложный
Время на прочтение8 мин
Охват и читатели7.7K

На связи команда внутренних инновационных сервисов ecom.tech.  

Мы занимаемся разработкой продуктов для внутренних нужд компании, экспериментируем с внутренними AI-продуктами для сотрудников: от забавных и полезных ботов до автоматизации повседневных задач. Сегодня мы расскажем, как помогли разгрузить аналитиков от их типовых задач с помощью искусственного интеллекта – внутри реальные кейсы, гайды и пошаговые инструкции на примере ecom.tech. Поехали!

Читать далее

Гибридный поиск с QWEN3-Max и RoSBARTa или RAG на графах

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели7.2K

Начало всех начальных начал 

Добрый день, уважаемые хабропоселенцы ;)) Сегодня мы будем говорить, снова о хакатонах и разработке RAG-моделей, вернее моделей с RAG-подходами и наших попытках выйти за рамки простого векторного поиска. Не так давно мы участвовали на всероссийском хакатоне “Альфа-Будущее”, организованным Альфа-Банком и посвящённому настройке RAG для вопросно-ответных систем. 

Нам необходимо было создать интеллектуальный pipeline RAG-системы, которая по пользовательскому запросу находит релевантные фрагменты в корпусе данных. Вообще, было на выбор две задачи, вторая звучала как “Разработка copilot приложения для клиентов микробизнеса”, но нам ближе оказалась вторая задача. И, конечно же, мы “запилили” своё “модное” решение, о котором вам спешим рассказать в этой статье. Мы проиллюстрируем, как выстраивали архитектуру, какие модели тестировали, на чём остановились и почему, именно такой подход оказался для нас наиболее удачным. Покажем, как работает весь пайплайн — от чанкования документов до гибридного поиска и поделимся результатами бенчмарков и планами развития системы в дальнейшем. Всех заинтересованных лиц приглашаю по традиции под кат ;))

Читать далее

EMNLP 2025 глазами аналитика из Яндекса: мировые тренды и наши решения

Время на прочтение10 мин
Охват и читатели6.2K

Всем привет! Меня зовут Катя Еникеева, я руковожу командой аналитики перевода в Яндексе. Мы занимаемся оценкой качества машинного перевода — моделей, которые работают в Яндекс Переводчике, Браузере, Поиске и во множестве других сервисов.

Качество перевода можно измерять по‑разному, но можно выделить два основных направления: экспертная разметка и автоматические метрики. В последние годы автометрики всё чаще строятся поверх LLM: фактически это отдельный пайплайн, который анализирует исходный текст и полученный перевод. Поэтому нас интересует не только способность моделей переводить, но и их умение анализировать качество перевода, что может быть заметно сложнее. 

Под катом вас ждёт обзор самых интересных решений, представленных на конференции EMNLP 2025.

Наша команда перевода приехала на EMNLP 2025 не только слушать, но и рассказывать о своей работе. В этом году у нас приняли две статьи: одну — в Findings основной конференции, вторую — на WMT. О них я тоже подробно расскажу.

Читать далее

Как я пытался сжимать смыслы вместо байтов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели6.8K

Написал прототип SemanticZip: сжатие текста в 14 раз за счет удаления «выводимой» информации. Теория информации, Колмогоровская сложность. В теории все работало...
Разбор полетов: почему нельзя сжимать смыслы и почему красивые метафоры проигрывают скучному RAG

Читать далее

Ближайшие события

QAD от NVIDIA: разбираюсь, почему 4-битная квантизация перестала всё ломать

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели15K

NVIDIA выпустила отчет о методе QAD, который позволяет квантовать LLM в 4 бита без потери качества на сложных задачах (математика, код). Разбираем, почему привычный QAT «ломает» модели после RLHF, как дистилляция через KL-дивергенцию решает эту проблему и почему метод работает даже на рандомных данных. Личный опыт попыток уместить 49B модель в железо и анализ нового подхода.

Читать далее

AI Onboarding Buddy. Как собрать ИИ-агента для адаптации новых сотрудников в компании

Время на прочтение11 мин
Охват и читатели8K

Всем привет! Продолжаю делиться кейсами, где действительно ИИ экономит время, ресурсы, а значит деньги бизнеса. Сегодня в статье разберу ещё один кейс внедрения ИИ-агента в бизнес-процессы, речь пойдёт про онбординг новых сотрудников. Если среди вас есть HR, не стесняйтесь, делитесь, а как у вас проходит адаптация новых сотрудников, какие механики используете?

В статье будем разбирать ИИ-агента для IT-компании, в целом он применим для всего сектора бизнеса. Просто будут отличаться те или иные документы, знания агента.

А как сделать личного Buddy (наставника) каждому новому сотруднику при этом не увеличивая штат? Давайте разбираться, как можно это построить, сколько денег потребуется, какие нужны мощности, разберём ограничения и инвестиции. Немного расскажу ещё про эффективность таких ИИ-наставников в конце.

Читать далее

NER не про токены: почему span важнее BIO

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели6K

NER часто воспринимают как задачу классификации токенов: BIO-теги, последовательности меток, декодирование. Такой взгляд удобен с точки зрения моделей, но плохо отражает то, как NER работает в реальных системах.

Сущности - это не токены, а фрагменты текста. Результаты работы NER-систем, как правило, представлены в виде спанов - с явными границами начала и конца (start / end) и типами сущностей.

В этой статье мы разберём два уровня разметки в NER: span-level и token-level
и покажем, какую роль каждый из них играет в практических пайплайнах.

Читать далее

Курс Natural Language Processing & LLMs — новый сезон

Уровень сложностиСредний
Время на прочтение1 мин
Охват и читатели7K

новый запуск курса начинается 10 февраля

курс включает в себя все базовые технологии от TF-IDF до агентов, про вайб-кодинг тоже поговорим

Читать далее

Как я сделал свой АИС-Налог и для чего он нужен

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели6.9K

Эта статья — описывает проект, по созданию универсальной системы для бизнеса «АIS NP», которая решает проблемы сопровождения налоговых проверок и налогового контроля в целом.

AIS NP это единое рабочее пространство, где проверки, мероприятия, сроки и документы не разлетаются по чатам, почте и «тридцати папкам на диске», а живут в одной логике. Чтобы ты в любой момент мог открыть нужную организацию и быстро понять: что сейчас происходит, какие документы уже есть, что ещё нужно собрать, какие сроки горят, где ответ готовится, а где уже отправлен.

У AIS NP очень конкретная задача: навести порядок в налоговом сопровождении, когда ты работаешь с большим объёмом разрозненной информации и вынужден держать слишком много в голове. По сути это программа, которая помогает:

Читать далее

Clawdbot [Moltbot/OpenClaw], или почему нужно срочно дать языковой модели контроль над вашим Mac mini

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели38K

В какой-то момент лента микроблогов превратилась в витрину Mac mini: люди постят открытые коробки, обсуждают автоматизацию и делятся какими-то скилами. Поводом стал Clawdbot — забавный проект open source с эмодзи лобстера, который обещает воплотить научную фантастику в жизнь. Обещается, что дома у пользователя поселится не просто чат с большой языковой моделью, а личный агент, умеющий действовать — писать в мессенджеры, трогать файлы, запускать команды, ставить софт, разруливать быт.

В реальности всё не так гладко, пусть и общаться с чат-ботом очень интересно. Но обо всём по порядку.

Читать далее

Как мы делали ИИ-репетитора для ЕГЭ по математике

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели6.4K

Пост-мортем университетского стартапа: рассказ об амбициозных студентах, разрабатывавших LLM-агентов

Погрузиться
1
23 ...