Pull to refresh
24
0
Sergei Vorniches @eaterman99

Суперпользователь

Send message

Все так. Нейронки это инструмент которым нужно уметь пользоваться, а не очередная "замена" программистам.

Судя по вашему богатому опыту, сложные задачи это что-то вроде отладки ассемблера на перфокартах. Я конечно же ничего такого не имею в виду :)

gpt-4o-mini для сложных задач не годится, а дипсик анонсировали как модель на уровне o1 – так что не удивително.

Claude у меня в бесплатной версии, поэтому на задачах 1-в-1 по сложности как на OpenAI моделях я ее не проверял, но в моменты когда они не справляются с отладкой, Соннет часто выручает и находит проблему с первой попытки, даже прошлая 3.5

>опять реклама каналов, дизлайк
Удивительно много подобных одноклеточных комментариев, даже не про рекламу, а в целом. Будто не Хабр, а прости господи, D*F. И это часто, судя по состоянию кармы авторов, просто тролли.

>нормальные статьи уходят в минус
Даже если не уходят – просто не вылезают в +10 и остаются незамеченными в ленте. Но тут ничего не поделаешь, как мне кажется. Относится можно филосовски, принять и забыть. В любом случае, статья проиндексируется поисковиками и если контент действительно полезный, кому-то вылезет в поиске и поможет.

Дай бог здоровья коммунистам, без их идей у нас было бы намного меньше поводов для смеха.

>Плановая экономика: что пошло не так?

>что пошло не так?
>Плановая экономика

Генерированный нейрошлак скорее всего тонет быстрее, чем вы его видите – спасибо комьюнити-фильтру :) Вы наверное говорите про обычный низкопробный копирайтинг, с ним конечно сложнее.

Ну есть же тематические хабы + тут бы конечно помог черный список по тегам (типа #ai) – странно что у Хабра этого нет.

>окунуться в мир, где нет нейросетей
Этого мира больше нет.

В целом идея может и имеет здравое зерно, но непонятно как в предлагаемой конфигурации сортировать AI-slop (про который автор пишет) от жемчужин.

Анализ в статье получился довольно поверхностный. Автор больше сравнивает не сами модели, а сервисы, построенные вокруг них.

От себя добавлю: для генерации кода и отладки лучше всего работают модели OpenAI – o3-mini-high для задач на потоке и o1 как тяжелая артиллерия. Но с творчеством у них слабовато – это заметно по интерфейсам, которые они предлагают. Так что их стоит использовать скорее для бэкенда. Sonnet последней версии, даже в бесплатном варианте, часто выручает там, где модели OpenAI не справляются с отладкой, плюс у него отличный вкус к интерфейсам. Недавно удивил свежий Grok 3 – пока мало тестировал его на коде, но для творческих задач и поиска он кажется лучшим вариантом на сегодня.

А что касается DeepSeek – его единственная прелесть в том, что он бесплатный и при этом практически безлимитный. Но качество хромает, и смысла в нем мало, если есть хотя бы базовая подписка на OpenAI.

Да, для точечных задач вполне хватает Дипсика и бесплатного чатика. Но вот их продвинутые модели в подписке – это где реально можно развернуться.

Очень остроумная аналогия с Газпромом – сами придумали?

Предлагаю вам другую, на подумать: сколько было сайтов в интернете в 2008 и сколько сечас? И почему так получилось? Ответы можете оставить себе :)

Все просто. Чем больше инструментов, тем больше идей рождается. Софт плодит софт – как кролики. Простая арифметика: больше рук с AI = больше шансов что-то наделать.

А кто-то находит в этом психотерапевта, попробуйте – вдруг поможет :)

Зависит от того как ставишь задачу :) Тут как и с живым человеком (мид/пре-мид).

Согласен что на большом контексте может начать глючить – это факт.

Но, во-первых 3к это довольно много, часто можно сузить контекст. Во-вторых, и на 3к-контекст выдает нормально, зависит от модели: те же O1-O3-mini-high читают и дают полностью переписанными файлы на сотни строк (да, больше 300), при необходимости и на тысячу-полторы. Так что утверждение сомнительное, зависит от модели которую используете.

Я пишу про snap2txt что это утилита для создания контекста. Где его использовать, в Cursor или в AI-чате – уже за пределами задач этой утилиты.

Конкретно утилита создает текстовый файл со структурой проекта, именами и содержимым файлов которые нужно передать в контекст. Это регулируется игнорлистом или вайтлистом. Потом этот файл с нужным контекстом можно использовать в композере Курсора или во внешнем чате. Плюс Курсора в этом случае в том, что он сразу отредактирует нужные файлы и при необходимости даст команды, например для миграций при изменении модели.

В UI Курсора есть опция натыкать нужные файлы вручную, но это неудобно если вам нужно, например, содержимое несколько каталогов или почти весь проект без каких-то конкретных файлов. Проще сунуть ему в контекст 1 файл, чем 10 или даже 3.

Файл же с контекстом я обновляю вручную запуском моей утилиты, в зависимости от задачи.

Information

Rating
Does not participate
Location
Lisboa, Португалия
Registered
Activity