Обновить
23
0
Sergei Vorniches@eaterman99

Суперпользователь

Отправить сообщение

Ключевой фактор эффективной разработки с нейронками не огромные промпты с просьбой быть "экспертом в Angular", а четкая постановка задачи, как для джуна и правильный стек, включая выбор модели. Джаваскрипт, да еще и ангулярный, для основы приложения ну никак не подходит – вы в этом убедитесь, когда попробуете сделать что-то для реального мира, а не вики-браузер.

Кстати, Копайлот все еще отвратительно работает как агент – эффективнее носить контекст руками в чатик, а лучше пользоваться Курсором с Клауде Соннетом.

Все так. Нейронки это инструмент которым нужно уметь пользоваться, а не очередная "замена" программистам.

Судя по вашему богатому опыту, сложные задачи это что-то вроде отладки ассемблера на перфокартах. Я конечно же ничего такого не имею в виду :)

gpt-4o-mini для сложных задач не годится, а дипсик анонсировали как модель на уровне o1 – так что не удивително.

Claude у меня в бесплатной версии, поэтому на задачах 1-в-1 по сложности как на OpenAI моделях я ее не проверял, но в моменты когда они не справляются с отладкой, Соннет часто выручает и находит проблему с первой попытки, даже прошлая 3.5

>опять реклама каналов, дизлайк
Удивительно много подобных одноклеточных комментариев, даже не про рекламу, а в целом. Будто не Хабр, а прости господи, D*F. И это часто, судя по состоянию кармы авторов, просто тролли.

>нормальные статьи уходят в минус
Даже если не уходят – просто не вылезают в +10 и остаются незамеченными в ленте. Но тут ничего не поделаешь, как мне кажется. Относится можно филосовски, принять и забыть. В любом случае, статья проиндексируется поисковиками и если контент действительно полезный, кому-то вылезет в поиске и поможет.

Дай бог здоровья коммунистам, без их идей у нас было бы намного меньше поводов для смеха.

>Плановая экономика: что пошло не так?

>что пошло не так?
>Плановая экономика

Генерированный нейрошлак скорее всего тонет быстрее, чем вы его видите – спасибо комьюнити-фильтру :) Вы наверное говорите про обычный низкопробный копирайтинг, с ним конечно сложнее.

Ну есть же тематические хабы + тут бы конечно помог черный список по тегам (типа #ai) – странно что у Хабра этого нет.

>окунуться в мир, где нет нейросетей
Этого мира больше нет.

В целом идея может и имеет здравое зерно, но непонятно как в предлагаемой конфигурации сортировать AI-slop (про который автор пишет) от жемчужин.

Прошел мимо.

Анализ в статье получился довольно поверхностный. Автор больше сравнивает не сами модели, а сервисы, построенные вокруг них.

От себя добавлю: для генерации кода и отладки лучше всего работают модели OpenAI – o3-mini-high для задач на потоке и o1 как тяжелая артиллерия. Но с творчеством у них слабовато – это заметно по интерфейсам, которые они предлагают. Так что их стоит использовать скорее для бэкенда. Sonnet последней версии, даже в бесплатном варианте, часто выручает там, где модели OpenAI не справляются с отладкой, плюс у него отличный вкус к интерфейсам. Недавно удивил свежий Grok 3 – пока мало тестировал его на коде, но для творческих задач и поиска он кажется лучшим вариантом на сегодня.

А что касается DeepSeek – его единственная прелесть в том, что он бесплатный и при этом практически безлимитный. Но качество хромает, и смысла в нем мало, если есть хотя бы базовая подписка на OpenAI.

Да, для точечных задач вполне хватает Дипсика и бесплатного чатика. Но вот их продвинутые модели в подписке – это где реально можно развернуться.

Очень остроумная аналогия с Газпромом – сами придумали?

Предлагаю вам другую, на подумать: сколько было сайтов в интернете в 2008 и сколько сечас? И почему так получилось? Ответы можете оставить себе :)

Все просто. Чем больше инструментов, тем больше идей рождается. Софт плодит софт – как кролики. Простая арифметика: больше рук с AI = больше шансов что-то наделать.

А кто-то находит в этом психотерапевта, попробуйте – вдруг поможет :)

Зависит от того как ставишь задачу :) Тут как и с живым человеком (мид/пре-мид).

Согласен что на большом контексте может начать глючить – это факт.

Но, во-первых 3к это довольно много, часто можно сузить контекст. Во-вторых, и на 3к-контекст выдает нормально, зависит от модели: те же O1-O3-mini-high читают и дают полностью переписанными файлы на сотни строк (да, больше 300), при необходимости и на тысячу-полторы. Так что утверждение сомнительное, зависит от модели которую используете.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность