gpt-4o-mini для сложных задач не годится, а дипсик анонсировали как модель на уровне o1 – так что не удивително.
Claude у меня в бесплатной версии, поэтому на задачах 1-в-1 по сложности как на OpenAI моделях я ее не проверял, но в моменты когда они не справляются с отладкой, Соннет часто выручает и находит проблему с первой попытки, даже прошлая 3.5
>опять реклама каналов, дизлайк Удивительно много подобных одноклеточных комментариев, даже не про рекламу, а в целом. Будто не Хабр, а прости господи, D*F. И это часто, судя по состоянию кармы авторов, просто тролли.
>нормальные статьи уходят в минус Даже если не уходят – просто не вылезают в +10 и остаются незамеченными в ленте. Но тут ничего не поделаешь, как мне кажется. Относится можно филосовски, принять и забыть. В любом случае, статья проиндексируется поисковиками и если контент действительно полезный, кому-то вылезет в поиске и поможет.
Генерированный нейрошлак скорее всего тонет быстрее, чем вы его видите – спасибо комьюнити-фильтру :) Вы наверное говорите про обычный низкопробный копирайтинг, с ним конечно сложнее.
Анализ в статье получился довольно поверхностный. Автор больше сравнивает не сами модели, а сервисы, построенные вокруг них.
От себя добавлю: для генерации кода и отладки лучше всего работают модели OpenAI – o3-mini-high для задач на потоке и o1 как тяжелая артиллерия. Но с творчеством у них слабовато – это заметно по интерфейсам, которые они предлагают. Так что их стоит использовать скорее для бэкенда. Sonnet последней версии, даже в бесплатном варианте, часто выручает там, где модели OpenAI не справляются с отладкой, плюс у него отличный вкус к интерфейсам. Недавно удивил свежий Grok 3 – пока мало тестировал его на коде, но для творческих задач и поиска он кажется лучшим вариантом на сегодня.
А что касается DeepSeek – его единственная прелесть в том, что он бесплатный и при этом практически безлимитный. Но качество хромает, и смысла в нем мало, если есть хотя бы базовая подписка на OpenAI.
Все просто. Чем больше инструментов, тем больше идей рождается. Софт плодит софт – как кролики. Простая арифметика: больше рук с AI = больше шансов что-то наделать.
Согласен что на большом контексте может начать глючить – это факт.
Но, во-первых 3к это довольно много, часто можно сузить контекст. Во-вторых, и на 3к-контекст выдает нормально, зависит от модели: те же O1-O3-mini-high читают и дают полностью переписанными файлы на сотни строк (да, больше 300), при необходимости и на тысячу-полторы. Так что утверждение сомнительное, зависит от модели которую используете.
Я пишу про snap2txt что это утилита для создания контекста. Где его использовать, в Cursor или в AI-чате – уже за пределами задач этой утилиты.
Конкретно утилита создает текстовый файл со структурой проекта, именами и содержимым файлов которые нужно передать в контекст. Это регулируется игнорлистом или вайтлистом. Потом этот файл с нужным контекстом можно использовать в композере Курсора или во внешнем чате. Плюс Курсора в этом случае в том, что он сразу отредактирует нужные файлы и при необходимости даст команды, например для миграций при изменении модели.
В UI Курсора есть опция натыкать нужные файлы вручную, но это неудобно если вам нужно, например, содержимое несколько каталогов или почти весь проект без каких-то конкретных файлов. Проще сунуть ему в контекст 1 файл, чем 10 или даже 3.
Файл же с контекстом я обновляю вручную запуском моей утилиты, в зависимости от задачи.
Все так. Нейронки это инструмент которым нужно уметь пользоваться, а не очередная "замена" программистам.
Нет, твой.
Судя по вашему богатому опыту, сложные задачи это что-то вроде отладки ассемблера на перфокартах. Я конечно же ничего такого не имею в виду :)
gpt-4o-mini для сложных задач не годится, а дипсик анонсировали как модель на уровне o1 – так что не удивително.
Claude у меня в бесплатной версии, поэтому на задачах 1-в-1 по сложности как на OpenAI моделях я ее не проверял, но в моменты когда они не справляются с отладкой, Соннет часто выручает и находит проблему с первой попытки, даже прошлая 3.5
>опять реклама каналов, дизлайк
Удивительно много подобных одноклеточных комментариев, даже не про рекламу, а в целом. Будто не Хабр, а прости господи, D*F. И это часто, судя по состоянию кармы авторов, просто тролли.
>нормальные статьи уходят в минус
Даже если не уходят – просто не вылезают в +10 и остаются незамеченными в ленте. Но тут ничего не поделаешь, как мне кажется. Относится можно филосовски, принять и забыть. В любом случае, статья проиндексируется поисковиками и если контент действительно полезный, кому-то вылезет в поиске и поможет.
Дай бог здоровья коммунистам, без их идей у нас было бы намного меньше поводов для смеха.
>Плановая экономика: что пошло не так?
>что пошло не так?
>Плановая экономика
Может, но зависит от хаба :)
Генерированный нейрошлак скорее всего тонет быстрее, чем вы его видите – спасибо комьюнити-фильтру :) Вы наверное говорите про обычный низкопробный копирайтинг, с ним конечно сложнее.
Ну есть же тематические хабы + тут бы конечно помог черный список по тегам (типа #ai) – странно что у Хабра этого нет.
>окунуться в мир, где нет нейросетей
Этого мира больше нет.
В целом идея может и имеет здравое зерно, но непонятно как в предлагаемой конфигурации сортировать AI-slop (про который автор пишет) от жемчужин.
Прошел мимо.
Анализ в статье получился довольно поверхностный. Автор больше сравнивает не сами модели, а сервисы, построенные вокруг них.
От себя добавлю: для генерации кода и отладки лучше всего работают модели OpenAI – o3-mini-high для задач на потоке и o1 как тяжелая артиллерия. Но с творчеством у них слабовато – это заметно по интерфейсам, которые они предлагают. Так что их стоит использовать скорее для бэкенда. Sonnet последней версии, даже в бесплатном варианте, часто выручает там, где модели OpenAI не справляются с отладкой, плюс у него отличный вкус к интерфейсам. Недавно удивил свежий Grok 3 – пока мало тестировал его на коде, но для творческих задач и поиска он кажется лучшим вариантом на сегодня.
А что касается DeepSeek – его единственная прелесть в том, что он бесплатный и при этом практически безлимитный. Но качество хромает, и смысла в нем мало, если есть хотя бы базовая подписка на OpenAI.
Да, для точечных задач вполне хватает Дипсика и бесплатного чатика. Но вот их продвинутые модели в подписке – это где реально можно развернуться.
Очень остроумная аналогия с Газпромом – сами придумали?
Предлагаю вам другую, на подумать: сколько было сайтов в интернете в 2008 и сколько сечас? И почему так получилось? Ответы можете оставить себе :)
Все просто. Чем больше инструментов, тем больше идей рождается. Софт плодит софт – как кролики. Простая арифметика: больше рук с AI = больше шансов что-то наделать.
А кто-то находит в этом психотерапевта, попробуйте – вдруг поможет :)
Зависит от того как ставишь задачу :) Тут как и с живым человеком (мид/пре-мид).
Согласен что на большом контексте может начать глючить – это факт.
Но, во-первых 3к это довольно много, часто можно сузить контекст. Во-вторых, и на 3к-контекст выдает нормально, зависит от модели: те же O1-O3-mini-high читают и дают полностью переписанными файлы на сотни строк (да, больше 300), при необходимости и на тысячу-полторы. Так что утверждение сомнительное, зависит от модели которую используете.
Я пишу про snap2txt что это утилита для создания контекста. Где его использовать, в Cursor или в AI-чате – уже за пределами задач этой утилиты.
Конкретно утилита создает текстовый файл со структурой проекта, именами и содержимым файлов которые нужно передать в контекст. Это регулируется игнорлистом или вайтлистом. Потом этот файл с нужным контекстом можно использовать в композере Курсора или во внешнем чате. Плюс Курсора в этом случае в том, что он сразу отредактирует нужные файлы и при необходимости даст команды, например для миграций при изменении модели.
В UI Курсора есть опция натыкать нужные файлы вручную, но это неудобно если вам нужно, например, содержимое несколько каталогов или почти весь проект без каких-то конкретных файлов. Проще сунуть ему в контекст 1 файл, чем 10 или даже 3.
Файл же с контекстом я обновляю вручную запуском моей утилиты, в зависимости от задачи.