Комментарии 30
"Уай-б..."-кодинг
Странно сравнивать 4о и Gemini 2.5 Pro...сравнивай равных, например о3 тогда вместо 4о
Ну циферка 4 больше чем 3 :). Честно попробовал результат был не очень... Попробую ещё раз - спасибо
Лучше сейчас openai:gpt-4.1 использовать, это топовая ИИ на текущий момент
Правда не думаю что 1с она потянет, проблема ведь не в модели а в обучающих данных.
Хотите адекватный результат, включайте документацию в контекст, и кстати тесты на основе неизвестного языка будут гораздо полезнее и информативнее, ведь это исключит заученные готовые решения и позволит протестировать именно интеллектуальную составляющую и умение обучаться на основе контекста
Но это будет дорого.
А почему взяли в сравнение именно модели общего назначения? Например, у Сбера есть специализированный GigaCode
https://works.sbertech.ru/products/giga-code
GitHub Copilot в таблице сравнения явно лишний, т.к. это инструмент, а не модель.
Ну вот настало время писать статью - отнимет ли хлеб ИИ у 1С-ника...
Без примеров сгенерированного кода не считается. По своему опыту chatgpt/o4-mini-high лучше. Deepseek занимает второе место, а еще и нахаляву). Ну а остальные так себе (Claude не пробовал). Тот же код на 1С может даже пройти проверку на синтаксис, но будет бред в виде выдуманных функции в общих модулях.
Зы Попробовал 5 задачу. Gemini сразу куча ошибок на синтаксис. Copilot аналогично. Deepseek прошло проверку, но при исполнении ошибка. ChatGPT тоже сразу ошибка на синтаксис.
Я подозреваю, что код для 1С нужно править как минимум так же часто, как меняется законодательство, а править навайбкоженое с трудом могут и ИИ, и кожаные
А вот интересно, по блок-схеме алгоритма и набору тестов в JSON может какая-нибудь модель работающий код выдать?
Для начала я конечно взял статистику по другим языкам, с замечательного: https://openrouter.ai/rankings/programming
Это не статистика по языкам, а список самых популярных ИИ
4o-mini или o4-mini?
планирую написать небольшой MCP сервер, для репозиториев 1С EDT, которому скормить контекст именно конкретного репозитория. Ну и выгрузку справки пожалуй тоже. Это всё сегментировать, залить в векторную БД и подключить как MCP к Curosor.
Направление мысли понятно и это было бы круто.
Но, прежде чем писать свой MCP и заливать в векторную базу, попробуйте готовые инструменты, которые именно это и делают: индексируют кодовую базу в папке проекта, раскладывая в векторную базу и затем умно подсовывают контекст в LLM, порекомендую два:
Augment Code
Zencoder
оба являются расширением к VS Code. На моих задачах справляются лучше, чем Cursor и Windsurf (подозреваю именно благодаря «умному» контексту)
А что за NDA по 1С: Напарник? Вроде бы все, что требуется - зайти на code.1c.ai под учётной записью партнёра, сгенерировать ключ, и на этом все. Не видел никаких упоминаний об ограничениях.
Из собственных наблюдений тоже предпочитаю gemini и claude, а вот chatgpt отлично себя показывает в режиме поисковика. Кстати, могу еще рекомендовать grok, выдает неплохие результаты в контексте 1С.
В будущем ИИ пишет код, но останется, самая сложная часть - понять что делает существующий код.
Топчик обзор, от себя несколько наблюдений:
У DeepSeek в свежем релизе подтянули поддержку русского языка; возможно, стоит прогнать его ещё раз — на простых алгоритмических тестах он стал заметно ближе к «середнячкам».
Мы внутри команды добавляем в промпт кусочки метаданных (схема конфигурации, имена регистров) — это поднимает качество отклика примерно на четверть. Думаю, ваш MCP‑сервер с векторной БД даст схожий прирост, так что идея выглядит очень перспективно.
Было бы интересно увидеть не только «оценку полезности», но и среднее время, которое разработчик тратит на доводку сгенерированного кода — в реальной работе этот показатель ощущается сильнее любых баллов.
To be updated: o3 и Grok - не бредовые истории. Через них все примеры прогоню
Вайб кодинг в 1С. Лучшие нейросети для генерации 1С кода