Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 116,12
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

Как дообучать локальные LLM в 2026 году: практическое руководство

Уровень сложностиСредний
Время на прочтение19 мин
Охват и читатели16K

В 2026 году дообучение локальных LLM перестало быть задачей «для тех, у кого есть кластер и бюджет». Снижение требований к VRAM, развитие QLoRA и появление инструментов вроде Unsloth сделали возможным запуск полноценного fine-tuning на обычной потребительской видеокарте. Это меняет практику: теперь модель можно адаптировать под свои задачи без облаков и внешних API, контролируя и данные, и поведение.

В статье разбирается весь процесс — от момента, когда вообще стоит задуматься о дообучении, до подготовки датасета, настройки обучения и оценки результата. Без абстракций и с фокусом на реальных ограничениях: память, время, качество данных и то, как не получить на выходе модель, которая «что-то выучила», но работать с ней невозможно.

Открыть материал

Уроки прошлого: чему нас учит история автоматизации в промышленности

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели12K

Вы боитесь потерять работу?

Вопрос звучит почти банально, но за последние несколько лет страх увольнения вырос до уровня скримера из фильма ужасов. И это не только ваше ощущение. Практически каждый человек с работой так или иначе боится её потерять. Я слышу это ежедневно — в комментариях к статьям, в консультациях, в соцсетях, даже в разговорах с друзьями. Никто не чувствует себя в безопасности.

Почему?

Причин много. Но одна из них — постоянный фон из Big Tech и медиа, которые последние годы повторяют одно и то же: ИИ идет за вашими рабочими местами. И на этот раз «новая версия» искусственного интеллекта не пощадит никого.

Это правда?

Я много работаю с ИИ. И уже 15 лет объясняю людям, почему ИИ не должен автоматически означать конец их профессии.

Давайте попробуем спокойно соединить точки. Картина получается не истеричная — но отрезвляющая.

Читать далее

Что я вынес из AMA с инженером Anthropic: 12 инсайтов про Claude Code, которые нигде не написаны

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели9K

20 000 заявок, тобрали меньше 2%. Я оказался в числе участников хакатона Anthropic, где инженеры компании в живом AMA рассказывали то, что не попадает в документацию.

Skills вместо агентов. Opus 4.7, который читает ваши инструкции настолько буквально, что ломает привычные workflow. Memory-слой поверх встроенного. Verification-паттерны для продакшена. И ещё 8 конкретных приёмов, которые я проверил на своих проектах.

Без воды, без “10 промптов для продуктивности”. Только то, что реально меняет работу с Claude Code.

Читать далее

Почему Cluely и другие плохо слышат русских айтишников: разбор того, как Whisper ломается и что мы сделали с этим

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

В январе я купил подписки на Cluely, Final Round AI и Sensei. Хотел посмотреть как они справляются с русским айти-собесами, раз уж все три заявляют о поддержке русского. Подключил по очереди к тестовому звонку в Телемосте (сомневаюсь, что платформа имела роль, но все же), прогнал одну и ту же запись: Senior Python backend разработчик, 45 минут, стек FastAPI + PostgreSQL + Kafka + Kubernetes. Обычный русский спикер, если важно - из Москвы, с речью проблем не было, нормальный микрофон

Все три выдали транскрипт и все три провалились, как неожиданно..

"Кафка" в половине случаев становилась "как-то" или "кофта". "Кубернетис" превращался в "губер нет тест". "Сабскрайбер патерн" - в "саб скрайп патерн". "Middleware для CSRF" - "мидл-вер для си эс эр эф" - это еще норм

Проблема не в том, что человек говорил по-русски, и не в том, что Whisper не умеет русский (сноска: хорошо не умеет). Whisper умеет русский нормально, около 9.8% WER на Common Voice. Проблема в другом: русскоязычный айтишник не говорит ни на чистом русском, ни на чистом английском. Он говорит на гибриде: русская грамматика плюс английские термины плюс своеобразное произношение этих терминов плюс местами свой жаргон вроде "гошечки" и "крудошлёпа"

Этот гибрид ни один из популярных STT не держит. Потому что его в тренировочных данных почти нет

Разбираю ниже, как устроена эта проблема, что с ней делают конкуренты (почти ничего), и что сделали мы

Читать далее

ИИ-колонизация: как Испания превращается в цифровую ферму для американских гигантов

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели13K

Недавно одной семье из Арагона (регион на северо-востоке Испании) компания Amazon дала всего четыре дня на то, чтобы те согласились продать свою землю. Обоснование? Земля нужна для строительства гигантского дата-центра, проект которого уже одобрило правительство.

Этот случай — классический симптом болезни стран с дешевой рабочей силой, таких как Испания. Вместо того чтобы заходить в экономику искусственного интеллекта как разработчик или владелец технологий, Испания превращается в обслуживающую платформу. Земля, энергия и вода раздаются региональными властями щедро и без лишних вопросов.

И это не исключение из правил, это — паттерн, который мы видим по всей стране. В городе Талавера-де-ла-Рейна *Meta строит один из крупнейших дата-центров в Европе на участке в 190 гектаров. Инвестиции — почти миллиард долларов. А теперь внимание: по данным отраслевых аналитиков, это создаст всего несколько сотен прямых рабочих мест.

Представьте себе: 40 футбольных полей, забитых серверами. Да, пока идет стройка, будет какая-то движуха в местной экономике. Но на выходе мы получим огромную промышленную махину, которая жрет капитал и энергию, но почти не дает рабочих мест.

Оба проекта продвигаются властями как объекты «особого» или «общегосударственного» интереса. Логика везде одинаковая: ускорить бюрократию, перекроить зонирование земель, облегчить внедрение, а если надо — навязать его силой. Власти гарантируют наличие земли. И это не разовые поблажки: Испания буквально создает модель по привлечению таких инвестиций любой ценой. Сюжет, до боли знакомый многим поколениям испанцев.

Читать далее

$1.8 миллиарда, два брата и ноль проверок: как The New York Times попалась на AI-хайп

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели12K

Второго апреля я наткнулся на статью The New York Times про MEDVi — телехелс-стартап, который якобы вырос до $1.8 миллиарда с двумя сотрудниками и горой AI-инструментов. Честно? Я впечатлился. Сэм Альтман предсказывал компанию на миллиард с одним основателем — и вот она, пожалуйста. Мэттью Галлахер, 41 год, Лос-Анджелес, $20 тысяч стартового капитала, ChatGPT, Claude, Midjourney — и $401 миллион выручки за 2025 год.

Я уже начал набрасывать план статьи. «Вот оно, будущее. Смотрите, как AI меняет правила игры.»

А потом сделал то, что делаю всегда перед публикацией, — полез проверять факты. И статья превратилась в совершенно другую историю.

Читать далее

ChatGPT Images 2.0 — все, что нужно знать прямо сейчас. Сравнение с Nano Banana 2 и Nano Banana Pro

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели9.4K

21 апреля OpenAI выпустила gpt-image-2 - и это не просто новая версия генератора картинок. Модель поддерживает разрешения до 4K, значительно улучшенный рендеринг текста на десятках языков, Thinking Mode с reasoning и веб-поиском, а также мультишаговое редактирование.

Я разобрала, что реально изменилось и сравнила с Nano Banana 2 и Nano Banana Pro от Google - с ценами, скоростью и честным взглядом на то, где каждая модель выигрывает.

Читать далее

Как за 30 000р дообучить модель, которая работает на уровне GPT-5.4 — на задачах российских учителей

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели10K

В первой статье мы протестировали 30 нейросетей на задачах российских учителей — российские модели оказались последними. На 9 месте стоит наша: дообученная Qwen3.5-27B за 30 000 рублей, работающая локально, на уровне GPT-5.4 на образовательных задачах. Рассказываем, как сделали — включая провал 32B-версии.

Читать далее

Топ-6 лучших бесплатных нейросетей для генерации и редактирования кода

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели9.9K

Ещё пару лет назад «ИИ для кода» означало подсказку следующей строчки. Сегодня это агент, который сам открывает pull request, пока вы пьёте кофе.

Гонка больше не про автодополнение. Она про автономное кодирование. Рынок AI-инструментов для разработчиков вырос до $12.8 млрд в 2026 году - с $5.1 млрд в 2024-м. В январе 2026 года 90% разработчиков регулярно использовали хотя бы один AI-инструмент на работе.

Звучит как победа ИИ? Не торопитесь. Исследование METR показало: опытные разработчики с AI-инструментами выполняли задачи на 19% медленнее - при этом сами были уверены, что ускорились на 20%.

Так что добро пожаловать в топ инструментов, которые меняют то, как пишется код в 2026-м.

Приятного чтения!

Читать далее

Как из факапа родился продукт: история EasyDoc

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели6K

Привет, Хабр! Меня зовут Вадим Петросян, я директор по развитию бизнеса в ITFB Group. Почти десять лет я занимаюсь тем, что мы теперь называем Intelligent Document Processing (IDP). А началось всё с досадной подставы в договоре, которая влекла за собой большие расходы, но вместо этого подарила рынку одного из игроков в сфере OCR/IDP. Сегодня EasyDoc — это платформа №1 по версии CNews, работающая в крупнейших банках, пенсионных фондах и госорганах. А тогда, в 2016 году, мы просто не захотели платить 50% прибыли вендору за его движок. И решили сделать свой.

Читать кейс

785 статей. 26 доменов. Для агентов, не людей

Уровень сложностиСредний
Время на прочтение10 мин
Охват и читатели6.8K

Когда AI-агент пишет код в пустом проекте, первые 30-40% токенов он тратит на ориентацию — читает README, туториалы, API-reference. Ни один формат не отвечает на главный его вопрос: “какой паттерн скопировать и где грабли?”

Вторая проблема глубже: LLM знает “всё на свете”, но распределено это неравномерно. Статей пятилетней давности в интернете больше, чем свежих — и агент по умолчанию тянет меня в прошлое, предлагая устаревшие рецепты. Каждый раз гонять deep research — дорого, и результат всё равно испаряется с сессией.

Happyin Knowledge Space — 785 статей в 26 доменах, под MIT. Reference cards, не туториалы. Граф wiki-ссылок вместо vector DB. llms.txt на шести языках. Пишется по результатам моих реальных ресерчей — каждый deep research теперь становится карточкой в базе и не испаряется. Локально разворачивается за 5 минут, работает без серверов и без embedding-моделей.

Читать далее

Практическое руководство по Qwen: установка, настройка vLLM и работа через API

Время на прочтение8 мин
Охват и читатели19K

Разворачивать LLM на своих мощностях часто приходится не из-за любви к self-hosted решениям, а ради контроля над данными и предсказуемого инференса. И обычно этого еще требуют стандарты безопасности или архитектура внутренних инструментов компании.

В статье покажем, как поднять Qwen на своем облачном сервере через vLLM. На выходе получим стандартный OpenAI-совместимый API с авторизацией по токену и интерфейс Open WebUI для тестов. Детали внутри.

Читать далее

Волков бояться — uplift в прод не катить, или AUF 2.0

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели4.9K

Всем привет! Меня зовут Мельников Виктор, middle data scientist в Альфа-Банке в Управлении по разработке инструментов автоматизации моделирования.

Год назад вышла статья о первой open source библиотеке Альфа-Банка для автоматического построения uplift-моделей Automatic Uplift Framework или же, сокращённо, AUF🐺. В ней мы рассмотрели основной функционал библиотеки с примерами кода. Также в ней можно найти ссылку на ноутбук с примером кода на открытом датасете.

Прошел год, пришла пора рассказать о новшествах, а также о результатах применения библиотеки в Альфа-Банке. Также в конце будет ссылка на обновленный пример кода, с которым ты сможешь сразу начать строить uplift-модели быстро и качественно! Достаточно создать окружение с Python 3.8 и выполнить в нем команду pip install auf. Также доступен исходный код библиотеки на GitHub.

В статье начнём с разбора того, как AutoML помогает превратить сложный поиск инкрементального эффекта в эффективный промышленный процесс. Вспомним основы uplift-моделирования и на практических кейсах покажем, как автоматизация ускорила разработку, позволила внедрить автопереобучение в продакшн и успешно реализовать поддержку мультитритмента. Вы узнаете, в каких сценариях AUF приносит максимум пользы, с какими ограничениями можно столкнуться и как использовать библиотеку для решения задач вашего бизнеса.

Кроме прикладных кейсов, заглянем «под капот» архитектурных обновлений: от рефакторинга оптимизатора до продвинутой аналитики в стиле профи. Мы разберем новые режимы обучения, кастомизацию и инструменты глубокого анализа моделей, такие как оценка чувствительности сегментов и сравнение с моделями склонности. В завершение поделимся результатами масштабного рефакторинга кода, который сделал систему стабильнее, и расскажем, как наше видение «умных и свободных» моделей воплощается в жизнь прямо сейчас

Читать далее

Ближайшие события

KV-кэш, экспертное сообщество и критическое мышление

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели4.3K

Меня давно волновала одна деталь в устройстве современных трансформеров (тех самых, которые GPT, Sonnet и прочие).

Механизм внимания всегда работает только назад. От многих экспертов (включая курс Эндрю Ына на Курсере) я слышал такое объяснение: Слово не может ссылаться на слова, которые оно ещё не знает. Назвается это казуальностью (причинностью).

Но ведь в предложении “Зелёное яблоко лежит на столе” слово зелёное уже знает про слово “яблоко”, но не может на него сослаться. Непонятно

Провёл небольшой эксперимент и подключил нечеловеческий мозг.

Читать далее

Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели16K

Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp.

Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.

Читать далее

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели4.2K

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

Один твит про «лечение столбняка для дяди» — и автономный агент Lobstar Wilde переводит незнакомцу 5% всего предложения криптопроекта. Это не сценарий киберпанк-триллера, а реальность февраля 2026 года.

Если вы используете OpenClaw или любой другой фреймворк для self-hosted агентов, эта история касается вас напрямую. Почему одни инстансы раздают бюджет первым встречным, а другие остаются в безопасности?

Внутри статьи:

Анатомия 6 крупнейших провалов: от «Тахо за $1» в Chevrolet до разбитых витрин в Чикаго и краха GPT-5 на криптобирже.

Где у агента дыры: разбираем уязвимости на уровнях Input, Reasoning, Tools и Memory.

Архитектура выжившего: четыре конкретных принципа и конфиги, которые отделяют полезного помощника от «заряженного пистолета без предохранителя».

У меня на сервере сейчас крутится OpenClaw-агент. Он может читать, писать, перезагружать контейнеры, лезть в базы, выполнять shell-команды. У него куча прав. Но у него нет доступа к платёжным API. У него нет ключей от криптокошельков. У него нет возможности инициировать что-то, чего нельзя откатить одним git reset или docker restart.

Разбираемся, как не попасть на рекламный плакат с извинениями за разбитую инфраструктуру.

Читать далее

PicoClaw на Arduino Uno Q

Время на прочтение25 мин
Охват и читатели9K

Мода на ИИ-помощников, кажется, достигла своего пика. Даже далекие от этой темы люди начинают интересоваться, что это за OpenClaw такой и как бы его установить. Более прошаренные скупают Mac Mini M4 просто потому, что 16 Гб объединенной памяти + нейропроцессорные ядра позволяют гонять локальные модели, а само по себе устройство тихое и с небольшим энергопотреблением.

Если присмотреться получше, у OpenClaw есть не только достоинства, но и ощутимые недостатки. Речь даже не о безопасности, а банально о системных требованиях. В частности, базовый минимум — 2 Гб ОЗУ, а рекомендованное значение — вообще 4 Гб. Плюс CPU нужен хотя бы 4-поточный, иначе возможны проблемы при работе с параллельными задачами.

Вот тут на сцене появляются наши китайские товарищи из Sipeed. Да-да, те самые, которые делают миниатюрный NanoKVM (о нем мы рассказывали в конце 2025 года). «Подержите наше Tsingtao», — заявили они и выпустили PicoClaw — AI-ассистента, которому надо всего лишь 10 Мб ОЗУ и который работает на любом одноядерном CPU со скоростью 600 МГц. Сегодня мы глянем на это чудо китайской мысли внимательно и запустим его на Arduino Uno Q

Читать далее

Как ИИ трансформирует геймдев

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.7K

Останутся ли геймдизайнеры на улицы? Или не все так мрачно? Пособирав живой фидбэк, полазив на Реддите и Стакэксчейндже, ну и подключив голову я сделал пару кое-каких наблюдений. 

Читать далее

Как слить 250 миллионов долларов с помощью ChatGPT: мастер-класс от главы Krafton

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели7.6K

Помните историю Грасиэлы Дитор? Она уволила адвоката и доверила свою защиту в суде ChatGPT. Итог — иск против OpenAI на 10 миллионов. Но, как оказалось, это были только цветочки. Недавно разыгралась куда более сюрреалистичная драма, на фоне которой дело Дитор выглядит невинной шуткой.

Главный герой — Чанхан Ким, генеральный директор многомиллиардной корпорации Krafton. Человек с огромными ресурсами и властью. Но ему было мало. Он решил, что может перешагнуть через юридические нормы и здравый смысл, используя ИИ.

Это решение обошлось ему в 250 миллионов долларов прямых выплат, не считая гигантских судебных издержек и уничтоженной репутации.

Вот как это было.

Читать далее

Opus 4.7 — худший релиз в истории Anthropic?

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели14K

Сегодня Борис Черный выкатил тред о том, как выжать максимум из новой Opus 4.7 (там есть толковые мысли). Но вот о чем он забыл упомянуть: этот апдейт ломает всё, к чему вы привыкли.

Читать далее