Краткий эксперимент, проведённый в реальном времени.

Что это за модель?

Параметр

Значение

Назначение

Генерация и отладка кода

Кол‑во параметров

~80 млрд

Квантование

Q8 (8‑бит)

Размер

84 ГБ

Требования к памяти

≈ 84 ГБ VRAM (или эквивалентный объём RAM при работе без GPU)

Модель достаточно тяжёлая: без видеокарт с объемом памяти более 85Гб её запуск возможен, но при работе только на ОЗУ и CPU процесс будет «мучительно медленным».

Сценарий теста

Я попросил модель создать локальную копию большого форума – то есть написать парсер, который извлечёт структуру разделов, темы и сообщения. В задаче есть несколько «подводных камней», которые позволяют проверить, насколько модель умеет работать с реальными HTML‑страницами.

Шаг 1. Получение структуры форума

  1. Запрос: «Сделай парсинг главной страницы форума».

  2. Ответ модели: она попросила у меня фрагмент HTML‑кода главной страницы (это типичный «security check», чтобы убедиться, что мы действительно работаем с конкретным сайтом).

  3. Результат: за пару секунд модель сгенерировала скелет структуры форума (разделы → темы). Однако вложенность тем (подфорумы, подпапки) она сразу не распознала.

Как я помог модели

Я передал несколько дополнительных HTML‑фрагментов со своими комментариями, объяснив, где находятся вложенные категории. Это потребовало от меня базовых знаний HTML, но в итоге модель построила полную карту форума со всеми уровнями вложенности.

Tip: При работе с LLM‑моделями, ориентированными на код, иногда полезно «показывать» им пример, а не только описывать его словами.

Шаг 2. Выгрузка списка сообщений в JSON

Запрос:

«Используя полученную карту тем, создай JSON‑файл со всеми ответами в темах».

Результат: модель выдала JSON за 2‑3 секунды, но в нём оказались только первые сообщения каждой темы. Оказалось, что ответы могут быть разбиты на несколько страниц (пагинация), и модель не знала, как её обходить.

Как я исправил

Я дал один‑единственный HTML‑фрагмент, в котором была видна ссылка на следующую страницу. После этого модель сразу добавила логику пагинации, и за полчаса у меня появился готовый JSON‑файл со всеми темами и URL‑ами сообщений.

Шаг 3. Сбор полного текста сообщений

Задача: написать скрипт, который пройдёт по каждому URL‑у сообщения и выведет только текст (без лишних HTML‑тегов, рекламных блоков и т.п.).

Первый вариант скрипта сохранял полный HTML каждого сообщения, в результате получился огромный JSON‑файл (гигабайты данных). Я указал модели ошибку и показал, как выглядит нужный фрагмент кода (условный пример – <div class="post-body">…</div>).

Результат: модель переписала скрипт «на лету», теперь он сохраняет лишь чистый текст и вложения (изображения, ссылки).

Вот результат работы за 4 часа. Не быстро, так как для кажого запроса создается случайная пауза в несколько секунд, что бы сервер форума не напрягался.
Вот результат работы за 4 часа. Не быстро, так как для кажого запроса создается случайная пауза в несколько секунд, что бы сервер форума не напрягался.

Итоги

Показатель

Значение

Время на подготовку

~ 2 ч (без учёта ожидания вывода)

Количество готовых скриптов

3 (парсинг структуры, сбор всех URL, извлечение текста)

Качество кода

5 / 5 – все скрипты работают без доработок

Готовый результат

JSON‑файл, который легко превратить в таблицы SQL‑базы любого движка форума

Проблемы

При решении нетехнической задачи (логическая головоломка «Эйнштейна») модель «зависла» и не смогла дать ответ

Вывод: qwen3‑coder‑next отлично справляется с задачами, связанными с программированием и парсингом, но, как и большинство специализированных LLM, она может «обделаться», когда речь идёт о чисто логических задачах без контекста кода.

Заключение

Модель qwen3‑coder‑next:q8_0 демонстрирует высокую практичность в написании и отладке кода, особенно когда ей дают реальные примеры (HTML‑фрагменты, пояснения). При работе с большими объёмами данных стоит помнить о её требованиях к памяти, но если они покрыты, то модель способна сэкономить часы ручного труда.

Если вам нужен быстрый помощник для парсинга, генерации API‑клиентов или конвертации данных в SQL – qwen3‑coder‑next заслуживает внимания. А вот решать абстрактные логические головоломки ей пока лучше не пытаться.

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.
Вы используете нейросети в написании кода
52.46%Да, часто.32
34.43%Иногда.21
13.11%Нет, они пишут мусорный код.8
Проголосовал 61 пользователь. Воздержались 8 пользователей.