Комментарии 13
Все станет гораздо интереснее, если включить агентный режим в Copilot-е. Немного настройки инструкций, и LLM-ка сама компилит, ошибки исправляет, юнит тесты создает и запускает, сломаные правит, логи анализирует, если надо, новые лог стейтменты добавляет, и так пока все не позеленеет. Но следить нужно - ее может унести в дебри.
Все станет интереснее, если вместо копилота использовать гигачат!
Да, это уже следующий уровень автоматизации. В рамках эксперимента я сознательно использовал обычный диалоговый режим, без дополнительных инструментов. Плюс Copilot — платный, поэтому в эксперимент он изначально не попал.
Копилот имеет триал на месяц, как раз на эксперимент. И там доступны модели специально обученные под написание кода, такие как opus, sonnet или codex. Режим планирования позволяет описывать и верифицировать алгоритм решения задачи до написания кода, а режим агента решает проблему компиляции, доступа к файлам проекта, выполнения тестов и использования внешнего тулинга. Ваш эксперимент с одной стороны конечно интересный, с другой методологически устарел на 4-5 поколений развития LLM ассистентов.
Возможно, с Copilot проект можно было бы реализовать быстрее.
Но задача эксперимента была в другом — посмотреть, насколько далеко можно зайти, работая именно в диалоговом режиме с ChatGPT, без дополнительной автоматизации.
В этом смысле интересен был не только результат, но и сам процесс.
Это не вопрос автоматизации - для качественного ответа LLM нужен контекст, файлы проекта, вывод приложения, ресурсы для ui. Вставляя только отдельные куски вы тем сам снижаете результат. Это как проверять распознование изображения, показывая не фотографию слона целиком, а только снимок куска кожи 1х1 см.
Да, согласен — чем больше контекста есть у модели, тем лучше результат.
В моём случае как раз было интересно посмотреть, насколько это работает в более ограниченном сценарии: через диалог и передачу кода фрагментами, без прямого доступа к проекту.
В таком режиме ограничения действительно ощущаются, но при этом оказалось, что даже так можно довести задачу до рабочего результата.
Что за модели-то? В бесплатной и платной версии?
Opus 4.6 при нормальном взаимодействии с ним, для такой задачи сразу же выкатил бы MVP с базовым функционалом.
КМК, если бы вы задали координаты (скан 3d модели головы или 3-мерный массив координат), то ИИ смог бы точнее построить проект. Но не совсем понял, что за бинауральная голова, надо будет посмотреть)
Здесь немного другая задача :-)
Речь не про моделирование геометрии головы, а про запись звука. Бинауральная голова — это физический макет с микрофонами в «ушах», который позволяет записывать звук так, как его воспринимает человек.
В статье как раз про софт для работы с таким устройством: запись, воспроизведение и калибровка.
А идея использовать ИИ для доработки самой модели головы интересная — нужно будет попробовать.

Как я написал Qt-приложение, почти не написав код