Филатов Антон @positroid
Web-архитектор
Information
- Rating
- 1,958-th
- Location
- Липецк, Липецкая обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Backend Developer, Software Architect
Lead
PHP
Symfony
Elasticsearch
CMS «1С-Bitrix»
Web-архитектор
Php / symfony. После ревью и тестов да, доходит
Тогда мы про разное, вы про автодополнение в коде / подсказки в чате, я - про агентский режим работы и выполнения задач. Этот режим появился только в конце прошлой осени.
Пробовал до Cursor, долго и муторно, а результаты те же, если не хуже.
Возвращаться к этому не вижу смысла, мои задачи вполне решаются сразу, основной вопрос только в формулировании понятных требований. Из-за контекста проблемы если и возникают, то крайне редко (опять же если речь про Sonnet 3.7 или GPT-4.1, 4o ленив сам по себе, сколько контекста ему не давай).
Вы пропустили самое забавное)
А в целом промпт авторства Дениса Ширяева, это компиляция всех известных хаков на момент его формирования (кажется, тогда 4o только вышла еще). Часть уже устарела и современные ллм и без них справляются
А вы пробовали? По полугодовому опыту использования могу сказать что такой проблемы нет.
Несомненно, это так, но с третьей стороны - ручной сбор всего нужного контекста и написание подробнейшего ТЗ для чата - это просто максимум рутины, отобьет любое желание этим заниматься, особенно при невысоких результатах. К тому же придется потом в обратную сторону из чата переносить изменения в проект - а если это не 1 сплошной файл, а 10 файлов с небольшими изменениями в разных местах?
Тем более что вместо этой рутины задачу за то же время можно и самому сделать, преимущества Cursor в том, что рутиной становится только ревью сгенерированного кода и слежение за процессом, чтобы ллм не увело в сторону.
Это очень небольшая часть этих IDE, если очень кратко - то они обеспечивают поиск и сбор релевантного контекста, цикличный вызов ллм для решения задачи и применение ответов ллм непосредственно к проекту - т.е. на выходе вы получаете не код в чате, а внесенные правки непосредственно в проект.
Нет, потому что вам вручную придется собирать весь контекст для решения задачи и потом также вручную переносить код из чата в проект. В качестве альтернативы можно подождать, пока эти возможности не допилят в ваших IDE, но по опыту что JetBrains, что Microsoft с этим сильно отстают.
Еще вариант - продолжать кодить в своих IDE, но к ИИ обращаться через AI-powered IDE, открытом на базе того же проекта.
Попробуйте этот промпт подавать на вход в начале чата до своей задачи - там есть ряд хаков, которые помогают от ленивости модели. В идеале - попробуйте найти возможность пообщаться конкретно с GPT-4.1 или Sonnet 3.7 - это лучшие модели для кодинга сейчас, они слушаются инструкций гораздо лучше чем 4o, он достаточно ленив, в этом вы правы.
Ну и не забывайте, что ллм нужен контекст для решения задачи, если перечитать ваши просьбы к ЛЛМ и представить что вы ничего не знаете про свой проект - у вас бы получилось понять что нужно и как именно написать внутреннюю реализацию (если да - ок)?
Конкретно с ASP.NET не работал, возможно там навыки моделей чуть хуже, но в рамках Cursor и 4.1 или Sonnet 3.7 на PHP с одного промпта (промпт для Cursor - это до 25 вызовов агентов) получить 1000+ строк работающего кода (DTO, Entity, репозитории, сервисы, контроллеры) в 10+ файлах - норма.
Ну нет, обычные бизнесовые задачи по перекладываю json или внедрению локальной (для кодовой базы) фичи тоже успешно решаются без тз на уровне системного аналитика.
Я больше про то, что для успешного выполнения задача должна быть: а - конкретной и б - локализованной в коде, пусть для изучения агенту нужно будет прочитать несколько десятков файлов, но изменения должны вноситься в идеале в небольшое их количество (даже до 10 файлов - справляется). И так для каждой итерации.
Ну и хотя бы верхнеуровневое описание структуры проекта и кодовой базы - маст хэв.
Спасибо. Каюсь, пытался узнать эту информацию у 4o, но он меня уверил, что это невозможно и кешируется ответ на конкретный промпт)
Для задачи перевода я бы все же скользящее окно с суммаризацией использовал, возможно словарем имён собственных, чтобы не получить разные вариации "Думбльдоров" в разных местах. В остальном кажется что подавать весь оригинал на вход проще, но не оптимальнее.
Если правильно понимаю - это будет все же какой-то из вариантов квантования (т.е. сжатая модель, качество на единицы процентов хуже чем у оригинальной - точно не знаю, но на lmarena модели должны быть полноценные, на какое место встанет V3 в INT4 неизвестно).
Но в остальном да, запустить инференс можно и на оперативке без GPU, вопрос только зачем) Все фронтир модели вполне доступны если не бесплатно, то за весьма гуманный прайс.
Вижу приемлемыми только кейсы с конфиденциальностью данных / офлайн работой или тюнингом под свои задачи.
Инструментария полно, но вот завернутого в конкретно нужный вам продукт - придется поискать. Базово можно скормить фото тому же 4o в ChatGPT (в том числе бесплатному) и попросить что хотите - соответствие будет не 100%, но все же достаточно близко из-за его мультимодальности
Для "нормальной" - топ модель из опенсорсных - DeepSeek-V3-0324, делит 1 место в проприетарными моделями по кодингу - Минимум: 2× NVIDIA A100 80GB, или 4× RTX 3090/4090 (24GB). Т.е. ноутбук - никакой, да и обычный ПК с большой натяжкой, вам нужен сервер. Это будет примерно уровень 4o.
Из менее требовательного - Llama-4-Maverick-17B-128E-Instruct, она на 18 месте на lmarena и требует 1× NVIDIA A100 80GB или 2× RTX 3090/4090 (по 24 GB). Здесь уровень модели примерно GPT-4.
Что-то еще менее требовательное - только для решения простеньких задач либо дообучение на какой-то свой набор типовых.
У человеков контекстное окно сильно меньше 1M, это же не мешает работать на больших проектах? Так же и с LLM - есть векторные индексы, есть RAG. Текущего объема контекста хватает для решения декомпозированных задач, которые не затрагивают весь проект (а ля "отрефакторь мне всё" или "замени вот этот сервис на другой", если изменения должны затронуть вообще весь проект).
Качество самих моделей еще есть куда подтягивать, но контекст в 1m (да и 128к) не является ограничением для использования в больших проектах
Прошивка для esp32cam на сях c управлением драйвером двигателей, светодиодом, http сервером и работой с bluetooth подойдет? Веб есть, конечно, но опосредованно.
Или интеграция этого же устройства в home assistant?
Или телеграм-бот на php для ведения бюджета на гугл таблицах с полной историей всех промптов к ИИ (тогда еще Sonnet 3.5 в Cursor). С текущими моделями написалось бы и побыстрее и с меньшим количеством ошибок, а с момента написания бота прошло всего 3 месяца. Здесь местами треш, конечно, но пользуюсь 3 месяца без нареканий и доработок.
Все это не слишком большие проекты, но написаны на 90+% вайбкодингом (бот в качестве челленджа на 100% включая документацию и тесты).
Кеш разве будет работать на задаче перевода? У нас же входные данные меняются, даже если это касается только последней строки про "переведи отсюда до сюда" - изменилось "отсюда" - кеш не валиден, плати полную стоимость.
Да, переводы это не та сфера, где нужен длинный контекст) Вряд ли в конце книги будет что-то такое, что может повлиять на корректный перевод начала книги и наоборот.
Стоимость можно оптимизировать, разбивая все на куски с пересечением, или после каждого куска делать суммаризацию и подавать на вход вместе с следующим, но в лоб решения задачи длинного вывода, пожалуй, не знаю.
Как будто корявая формулировка, которая в наследство досталась от старых моделей. 16к должно быть ограничением только на generate - ограничение на сообщение модели, которое она пишет в ответ (output).
Справедливости ради и письма с электронки, и скриншоты любых веб-страничек и даже отправленных в переписках изображений давно и успешно подшивать умеют.
Про локальное не в курсе, по опыту ничего подобного не замечал, локальные модельки совсем тупые, они вряд ли хоть что-то приемлемое могли бы выдать.
Почему еще может быть разница - разные системные промпты в cursor и antrophic. В клоде учетки не имею, но на моделях OpenAI разницы между ChatGPT и курсором не замечаю
Да не нужно это все, есть векторные индексы кодовой базы, есть RAG, есть декомпозиция задачи и поиск по проекту. Человек же не держит в голове целиком всю эту кодовую базу - он примерно представляет что поискать и в каких файлах найти связанную логику.
И не поверите, ИИ делает ровно то же самое (через агентов в условном cursor/windsurf/etc) - вы открываете легаси проект на миллион строк кода и словесную задачу - ИИ ищет какие файлы эта задача задействует, шерстит их и "понимает", что и где нужно сделать для реализации.
Никаких внушительных затрат - 20$ в месяц по подписке. Да, качество местами хромает - но оно и с текущими моделями уже на достаточном уровне, а выхода на плато по развитию еще не видно.
Нет, всё это можно найти, 4.1 можно бесплатно использовать через cursor или windsurf, например (ограниченное время). Для меня "реально работают" все модели начиная наверное с GPT-4 (не 4o) - они тоже выдают хороший код, 4.1 кардинально ничего не меняет, но поддерживает 1m контекст и хорошо работает как агент, в этом его прелесть.
Что такое
безумиенормально? Дайте стек и пример задачи, попробуем разобраться. У каждого понятие о нормальности разное) Если мы про кодинг - то модели по моим ощущениям на уровне джуна/мидла в зависимости от задачи/конкретного языка и тп.