Как стать автором
Обновить

Вайб кодинг в 1С. Лучшие нейросети для генерации 1С кода

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров11K
Всего голосов 16: ↑14 и ↓2+15
Комментарии30

Комментарии 30

Странно сравнивать 4о и Gemini 2.5 Pro...сравнивай равных, например о3 тогда вместо 4о

Ну циферка 4 больше чем 3 :). Честно попробовал результат был не очень... Попробую ещё раз - спасибо

Лучше сейчас openai:gpt-4.1 использовать, это топовая ИИ на текущий момент

Правда не думаю что 1с она потянет, проблема ведь не в модели а в обучающих данных.

Хотите адекватный результат, включайте документацию в контекст, и кстати тесты на основе неизвестного языка будут гораздо полезнее и информативнее, ведь это исключит заученные готовые решения и позволит протестировать именно интеллектуальную составляющую и умение обучаться на основе контекста

Но это будет дорого.

Gemini сейчас лидер во всех бенчах по кодингу с отрывом

А почему взяли в сравнение именно модели общего назначения? Например, у Сбера есть специализированный GigaCode

https://works.sbertech.ru/products/giga-code

Спасибо. Ну я вначале описал почему модели выбрал такие - их используют для кодинга через OpenRouter по статистике... Сбер-а просто там нет, но честно вначале сбер очень удивил. GigaCode обязательно попробую, если впечатлит скорректирую стату...

GitHub Copilot в таблице сравнения явно лишний, т.к. это инструмент, а не модель.

Ну MS везде пиарит я не нашел какая именно там модель...

До 8 мая 2025 OpenAI GPT-4o была моделью по умолчанию в Copilot, теперь OpenAI GPT-4.1.

В копайлоте нет своих моделей. Там на выбор используются чужие модельки, те же самые Sonnet, Gemini и ChatGPT

Ну вот настало время писать статью - отнимет ли хлеб ИИ у 1С-ника...

Пока существуют проекты, где даже аналитики выдают в качестве постановки бессвязный поток сознания (а что уж говорить о постановщиках задач от бизнеса), то не отнимет

Там люди часто не могут задачу описать, а ты про выполнение уже)

Без примеров сгенерированного кода не считается. По своему опыту chatgpt/o4-mini-high лучше. Deepseek занимает второе место, а еще и нахаляву). Ну а остальные так себе (Claude не пробовал). Тот же код на 1С может даже пройти проверку на синтаксис, но будет бред в виде выдуманных функции в общих модулях.

Зы Попробовал 5 задачу. Gemini сразу куча ошибок на синтаксис. Copilot аналогично. Deepseek прошло проверку, но при исполнении ошибка. ChatGPT тоже сразу ошибка на синтаксис.

Ну gemini именно 2.5 pro experemental попробуй... чесслово - там Claude и Gemini прямо другой уровень. Да, ошибки бывают.

Я подозреваю, что код для 1С нужно править как минимум так же часто, как меняется законодательство, а править навайбкоженое с трудом могут и ИИ, и кожаные

А вот интересно, по блок-схеме алгоритма и набору тестов в JSON может какая-нибудь модель работающий код выдать?

Для начала я конечно взял статистику по другим языкам, с замечательного: https://openrouter.ai/rankings/programming

Это не статистика по языкам, а список самых популярных ИИ

4o без mini

планирую написать небольшой MCP сервер, для репозиториев 1С EDT, которому скормить контекст именно конкретного репозитория. Ну и выгрузку справки пожалуй тоже. Это всё сегментировать, залить в векторную БД и подключить как MCP к Curosor.

Направление мысли понятно и это было бы круто.

Но, прежде чем писать свой MCP и заливать в векторную базу, попробуйте готовые инструменты, которые именно это и делают: индексируют кодовую базу в папке проекта, раскладывая в векторную базу и затем умно подсовывают контекст в LLM, порекомендую два:

  • Augment Code

  • Zencoder

    оба являются расширением к VS Code. На моих задачах справляются лучше, чем Cursor и Windsurf (подозреваю именно благодаря «умному» контексту)

Спасибо. Я кратко посмотрел у меня просто контекст немного другой... полноценного вайбкодинга конечно не получится пока что. (метаданные и формы в XML), соответственно проект будет одного модуля а задача понимания кода сводится к понимаю метаданных

А что за NDA по 1С: Напарник? Вроде бы все, что требуется - зайти на code.1c.ai под учётной записью партнёра, сгенерировать ключ, и на этом все. Не видел никаких упоминаний об ограничениях.

Юзать можно - нельзя писать статьи, обсуждать публично и т.п.

Из собственных наблюдений тоже предпочитаю gemini и claude, а вот chatgpt отлично себя показывает в режиме поисковика. Кстати, могу еще рекомендовать grok, выдает неплохие результаты в контексте 1С.

В будущем ИИ пишет код, но останется, самая сложная часть - понять что делает существующий код.

Топчик обзор, от себя несколько наблюдений:

  1. У DeepSeek в свежем релизе подтянули поддержку русского языка; возможно, стоит прогнать его ещё раз — на простых алгоритмических тестах он стал заметно ближе к «середнячкам».

  2. Мы внутри команды добавляем в промпт кусочки метаданных (схема конфигурации, имена регистров) — это поднимает качество отклика примерно на четверть. Думаю, ваш MCP‑сервер с векторной БД даст схожий прирост, так что идея выглядит очень перспективно.

  3. Было бы интересно увидеть не только «оценку полезности», но и среднее время, которое разработчик тратит на доводку сгенерированного кода — в реальной работе этот показатель ощущается сильнее любых баллов.

Мы внутри команды добавляем в промпт кусочки метаданных (схема конфигурации, имена регистров) — это поднимает качество отклика примерно на четверть.

В формате XML или как-то ещё?

To be updated: o3 и Grok - не бредовые истории. Через них все примеры прогоню

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации