Обновить
66.7

Natural Language Processing *

Компьютерный анализ и синтез естественных языков

Сначала показывать
Порог рейтинга
Уровень сложности

Clawdbot, или почему нужно срочно дать языковой модели контроль над вашим Mac mini

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели14K

В какой-то момент лента микроблогов превратилась в витрину Mac mini: люди постят открытые коробки, обсуждают автоматизацию и делятся какими-то скилами. Поводом стал Clawdbot — забавный проект open source с эмодзи лобстера, который обещает воплотить научную фантастику в жизнь. Обещается, что дома у пользователя поселится не просто чат с большой языковой моделью, а личный агент, умеющий действовать — писать в мессенджеры, трогать файлы, запускать команды, ставить софт, разруливать быт.

В реальности всё не так гладко, пусть и общаться с чат-ботом очень интересно. Но обо всём по порядку.

Читать далее

Новости

Как мы делали ИИ-репетитора для ЕГЭ по математике

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели5.3K

Пост-мортем университетского стартапа: рассказ об амбициозных студентах, разрабатывавших LLM-агентов.

Читать далее

Нейросети не смогут в AGI

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели4.4K

Количество параметров нейросетей уходит в бесконечность. Чипы дорожают. Масштабирование продолжается. Илон Маск обещает рождение AGI к концу этого года. И единственный лимит, который он видит, это количество доступной энергии и сами чипы.

Читать далее

Базовый минимум. Часть 2: промпт-инжиниринг

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели7.4K

Запрос к языковой модели выглядит как обычный текст, но по сути он выполняет роль интерфейса управления. Малейшее изменение формулировки может заметно повысить точность, ясность и практическую применимость результата. Почему так происходит и как формулировать запросы так, чтобы выжимать из модели максимум?

Это вторая часть серии «Базовый минимум», в которой собраны основные техники промпт-инжиниринга для повышения качества и стабильности ответов больших языковых моделей.

Читать далее

Как работать разработчиком, когда твой мозг — нестабильная сборка

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели11K

Мой мозг работает не так, как у большинства. Он не сломан — он просто собран по другой схеме. Годы на стимуляторах перепрошили нейронные связи. Теперь, чтобы функционировать в "нормальном" режиме, приходится принимать седативы. Парадокс: успокоители — чтобы думать. Потому что без них мысли несутся со скоростью, которую невозможно контролировать.

Читать далее

Как заставить LLM сортировать данные: от наивного подхода до TrueSkill

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели11K

Если вы когда-нибудь грузили в LLM список и просили выбрать лучшее или отсортировать — вы, скорее всего, получали посредственный результат. Я проверил это на 164 постах своего телеграм-канала, сравнив пять разных методов сортировки. Оказалось, что разница между «дёшево и плохо» и «дёшево и хорошо» — в правильном алгоритме, а не в модели.

В этой статье разберём, почему наивные подходы не работают, как алгоритм из Xbox Live помогает ранжировать контент, и какой метод даёт лучшую корреляцию с реальными данными.

Читать далее

Claude Code в 2026: гайд для тех, кто еще пишет код руками

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели53K

AI агенты в 2026: гайд для тех, кто всё еще пишет код руками.

Как устроены агенты типа Claude Code, ChatGPT Codex и др. Как правильно с ними работать. Как управлять контекстом. Как прогать голосовухами из тг.

Не потерять работу

RLM-Toolkit: Полная замена LangChain? FAQ часть 2

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели7.5K

LangChain — стандарт. Но что если у вас 1M+ токенов? Честное сравнение RLM-Toolkit: 287 интеграций, 10M+ контекст, H-MEM память. Когда какой использовать?

Читать далее

Как устроены AI токены: реальные расходы на запросы, принципы токенизации и разница с количеством слов

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели5.5K

Привет, на связи Егор! Я пишущий эксперт GPTunneL по промптингу. GPTunneL — это агрегатор более 100 нейросетей в России, включая такие модели, как Gemini 3 Pro, GPT-5.2 и Claude Opus 4.5.

В 2026 году я все еще встречаю людей, пользующихся ИИ, но не знающих, как устроен токен. Так что в своей статье я расскажу, что такое токены в ИИ, как они влияют на стоимость использования нейросетей и почему 1000 токенов это не 1000 слов. Разберёмся, какие ошибки чаще всего допускают при расчёте бюджета на ИИ, в том числе по API, и как оптимизировать расходы.

Постараюсь дать читателям без технической экспертизы понятное представление о том, как устроены токены и токенизация в современных ИИ-моделях, от разбиения текста до расчёта стоимости запросов. Ради ясности и читабельности буду объяснять процессы в упрощённом виде: некоторые особенности конкретных провайдеров и крайние случаи я либо не буду упоминать, либо сведу к общим принципам.

Читать далее

Базовый минимум. Часть 1:  большие языковые модели

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели7.5K

Чат боты с ИИ легко воспринимать как «умного собеседника». Они отвечают связно и выглядят почти по человечески. Но что на самом деле находится по ту сторону диалогового окна? В этом тексте собраны базовые понятия, без которых трудно без которых сложно уверенно использовать языковые модели в реальных задачах и понимать границы их возможностей.

Читать далее

Рекурсивные языковые модели (RLM) – парадигма 2026 года

Уровень сложностиСредний
Время на прочтение28 мин
Охват и читатели8.6K

Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.

Читать далее

Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги

Уровень сложностиПростой
Время на прочтение28 мин
Охват и читатели8.4K

Команда AI for Devs подготовила перевод большой обзорной статьи о 2025 годе в мире LLM. Автор подводит итоги года: от vibe coding и coding-агентов до MCP, prompt injection, локальных моделей, браузеров с ИИ и «slop» как культурного феномена.

Читать далее

Рынок лимонов и «размалеванные барышни»: текст вакансии как честное зеркало компании (датасет 146 000 вакансий)

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели11K

Пока соискателей учат быть «размалеванными барышнями», работодатели на «рынке лимонов» никому ничего не должны. Можно ли узнать, что ждет внутри, еще до получения оффера? Что, если я скажу: текст вакансии — это честная проекция «внутренней кухни» компании? Я уверена, так как проверила это на личном кейсе, и, вооружившись этим инструментом, проанализировала 146 000 вакансий. О том, почему и как это возможно — для тех, кто не считает неудачное трудоустройство «ценным опытом» — рассказываю ниже.

Читать далее

Ближайшие события

Агентные системы для продакшена

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели8.6K

Всем привет! Сегодня разберём, как проектировать агента, который доезжает до продакшена и приносит пользу бизнесу: от вопросов на старте до стека и практик, без которых он развалится в эксплуатации.

Читать далее

Как мы собирали датасет для разработки ML-инструмента, помогающего спасать жизни

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели8.2K

Привет, Хабр! В этом посте речь пойдет о специфическом датасете, предназначенном для решения очень важной задачи — разработки ML-инструмента, помогающего своевременно выявлять предпосылки и предотвращать суициды. Мы с командой «Пситехлаб», специализирующейся на ИИ-решениях для психотерапии, собирали его по вечерам. Этот проект диссертационный, он не входит в мои обязанности в рамках работы в MWS AI, но опыт, приобретенный в компании, стал базой, без которой его бы не было.

Читать далее

LLM — это афера на доверии, которая длится 400 лет

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели22K

В 1623 году немец Вильгельм Шиккард создал первые известные чертежи механического калькулятора. Спустя двадцать лет Блез Паскаль разработал машину улучшенной конструкции, чтобы помочь справляться с огромным количеством утомительных арифметических расчётов, необходимых в его работе сборщика налогов.

Интерес к механическим вычислениям не ослабевал последующие века: поколения людей по всему миру продолжали дело Паскаля и Шиккарда, разделяя их убеждение, что перекладывание умственной нагрузки на машину принесёт облегчение.

Аферу на доверии можно разбить на три этапа:

Читать далее

Контролируемость цепочек рассуждений в больших языковых моделях

Время на прочтение13 мин
Охват и читатели4.6K

Команда AI for Devs подготовила перевод исследования OpenAI о контролируемости цепочек рассуждений в современных моделях. Авторы разбирают, почему наблюдение за CoT может быть ключевым инструментом безопасности, как масштабирование моделей и обучение с подкреплением влияют на контролируемость и какой «налог» приходится платить за более надёжный мониторинг.

Читать далее

Как запустить 4 независимые нейросети на одном GPU (16 ГБ) под FastAPI

Время на прочтение34 мин
Охват и читатели13K

Как поднять мультимодальный AI-сервис (OCR, ASR, LLM, TTS) на одной GPU 16GB без облачных API?

Разбираем пошагово:

Подготовка VPS (Ubuntu + CUDA + драйверы)

FastAPI-архитектура с PyTorch/Transformers

Управление памятью (без OOM-ошибок)

Продакшен: systemd + Nginx + HTTPS + домен

Тестирование в Swagger

Итог: локальный сервис "под ключ" с предсказуемыми расходами, полной приватностью данных и возможностью масштабирования.

Для кого: DevOps, Python-разработчики, AI-интеграторы, стартапы.

Исходники в репозитории, демо-видео, лайфхаки по разработке прямо на сервере!

Читать далее

Джентльменский набор LLM-инженера: гайд по экосистеме языковых моделей

Уровень сложностиПростой
Время на прочтение20 мин
Охват и читатели17K

Каждый, кто хоть раз вводил pip install transformers, наблюдал, как терминал начинает безостановочно выводить простыню зависимостей: pytorch, accelerate, bitsandbytes, peft и многие, многие другие. Но если PyTorch является фундаментом, настоящим Атлантом, на плечах которого держатся тензорные вычисления, то какую роль играют его помощники?

В этой статье мы проведём ревизию джентльменского набора LLM инженера. Для этого мы изучим функционал, методы работы и даже заглянем в исходный код таких библиотек, как PyTorch, Transformers, Accelerate, Bitsandbytes, PEFT и Unsloth. Эти знания позволят вам видеть за списком импортов не просто названия, а четкую структуру, на которой держится ваше приложение.

Читать далее

Как я заменил BI-дашборд на AI-чат: архитектура RAG-системы для 600K записей

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели12K

После 10 лет внедрения BI-систем (Qlik Sense, Power BI, Data Lens) я понял одну вещь: дашборд — это не решение. Это данные для решения. А между данными и решением — пропасть, которую преодолевает человек.

В этой статье покажу, как построил RAG-систему с чат-интерфейсом для базы из 600 000 записей техники из Федресурса. Без философии — только архитектура, код и грабли.

Читать далее
1
23 ...

Вклад авторов