Search
Write a publication
Pull to refresh

Comments 29

Работаю только с текстами, и Клауд тут вне конкуренции. Даже бесплатная модель выдает результат получше других.

А можешь объяснить, что значит "Клод вне конкуренции по текстам"

У меня просто не получается сформулировать)

Так как у текста есть много переменных

Незнаю, насколько мой пример показательный.

Я делаю сценарии для Ютуб роликов, где главный упор на текст и сторителлинг. Задаю тему, контекст. Важно, чтобы выдерживалась драматическая структура и приёмы, чтобы текст был ярким и образным.

Сначала генерю сюжетные арки, а потом сам сценарий.

Закидываю во все бесплатные. В результате, лучше всего выходит в Gemini 2.5 pro и Claude. Но, Джемини делает достаточно "сухие" и скучноватые арки и текст, хотя и соответственно запросу. А Клауд - то, что мне нужно, очень яркие и интересные идеи.

Конечно, после ещё убираю "воду" и лишнее, но тем не менее.

Ага, понял, спасибо)

Стилями кастомными пользуешься?

Насчёт текстов. Делаю посты для своей группы. Задача не особо простая - писать на техническую, узконаправленную тему, но чтобы при этом легко читалось, было кратко, увлекательно, понятно. GPT-4.5 справляется с этим просто идеально, даже без правок. Клод же как по мне пишет слишком уж красиво, что даже неестественно. Будто книгу пишет, а не пост по технической тематике

Ну и конечно то, что Клод до сих пор не может генерировать картинки, тоже сильно решает.

Ну, вот в технических текстах мне больше всего Gemini 2.5 pro нравится. Он достаточно чёткий и соответствует требованиям промпта.

GPT - мне всегда кажется, что он свободнее относится к требованиям промпта. И экономит на длине ответа. Но, я работаю с бесплатной версией и не часто (основная для меня Джемини). Возможно, в платной лучше.

Claude превосходит другие модели конкурентов в сценариях, когда надо на долгом контексте удерживать его далее. Я уже пытался понять различия в архитектуре, но поскольку это закрытые модели, мало что известно по ним публично. В Claude вроде как архитектура с множественным вниманием, что позволяет тоньше понимать ньюансы. А вот по поводу длины контекста у ChatGPT были проблемы, когда я его тестировал, а это было уже давно. Сейчас тестирую Geminni Pro 2.5, он хорош, когда контекст не превышает 128k токенов. Стоит перевалить за эту черту, при попытке внести правки в предоставленный код, он начинает делать в нём ошибки, причём синтаксические, в местах неожиданных. Что наводит меня на мысль, что у Geminni и ChatGPT есть общий тип артитектуры, где ближний контекст учитывается хорошо, а более дальний - не полностью, а с неким механизмом разряжённого внимания. Когда модель просто не видит что там было вдали от контекста и начинает додумывать. Это недопустимо для кодинга, да и на все остальные сценарии использования тоже влияет негативно.

Claude 4 новый хвастается, что по тестам от партнёров, он выдерживает очень большие цепочки и не теряет понимание, держит контекст релевантным. За что огромная от меня благодарность фирме Anthropic. Без их моделей, текущие LLM были бы просто непригодным мусором для меня. Вот что значит диверсификация и конкуренция, которые идут всем во благо.

Ну все же насколько я помню антропик изначально пилился как кодовый аналог

Вот интересно потрогать модель Codex от ChatGPT

И кстати, есть еще отличия в сист промпте

У ГПТ он около 2к токенов

У моделей клода около 16к

Может тоже что-то дает

нет, я вижу это как более удачная архитектура у Claude, которую они до сих пор успешно доят. Они просто продолжают тренировку одних и тех же моделей, видимо без существенного их изменения в плане архитектуры. По сути они "грокают" их, конвертируя каждое дополнительное время обучения одной и той же модели в апгрейд её до новой версии.

Какой бы ни был системный промпт, но потеря данных на длинном контексте это никак не может исправить. Это серьезное архитектурное упущение у их конкурентов. И они (конкуренты) со временем становятся заложниками своего первоначального выбора, потому что видимо продолжают "грокать" ту самую первоначальную архитектуру, которая захлёбывается при длинном контексте, но дает всё лучшие и лучшие результаты на средних вопросах и задачках. Потому что переобучать с нуля новую архитектуру просто не выгодно и очень долго, чтобы она достигла показателей последних версий chatgpt-4.1 (или какая там самая последняя). Ситуацию спасает режим размышлений, который пытается преодолеть эту проблему забывчивости и рассеянного внимания, перекидывая то что ускользает вдали поближе к началу.

Например Nvidia уже много лет "грокают" одну и ту же модель DLSS для масштабирования картинки. Поэтому на каждой итерации выпускают новые версии, которые всё лучше и лучше. Для этого у них свой датацентр, который молотит 24 на 7. Представьте, что они придумали более совершенную архитектуру, но вот незадача - чтобы достичь примерных показателей текущего DLSS 4, надо будет обучать её все те же 6 лет (первая версия DLSS вышла в 2019 году) или сопоставимое время.

Поэтому каждая компания теперь по сути заложник своего первоначального выбора. Claude заложник своего успеха для кодирования и большого контекста, а ChatGPT заложник успеха в задачах небольших, где он не начинает страдать паркинсоном и деменцией. То же касается и Geminni, у гугла просто вычислительных ресурсов видимо больше и за меньшее время они успевают получить больший выигрыш, а соответственно - догонять своего конкурента ChatGPT.

но всё это до поры до времени, пока не запустят квантовые датацентры, способные обучать любую модель почти за ноль времени с нуля.

Microsoft уже прототип квантового чипа выпустила (Majorana), так что до полноценных серверных стоек остались практически годы... (учитывая кривую прогресса)

Спасибо за развернутое мнение, очень интересный поинт

UFO landed and left these words here

А я могу сказать про Claud только то, что системная надстройка "этичный ИИ" принудительно завершает чат. Если Sonet 3.7 прерывал чат без предупреждений, то Sonet 4 предупреждает "promt to long".

И ладно бы я прямо поднимал "запретные" темы, вел диалог в диструктивном ключе, но нет — Anthropic считает, что мое мышление опасно для модели и поэтому я не имею возможности вести диалог. Цензура мышления.

А покажи пример

Скрытый текст
Вот один из примеров
Вот один из примеров

Пример прерывания диалога не из-за длины промта, а из-за попытки модели выйти за рамки допустимой антропоморфизации.

Интересно интересно

Не глядел кстати системный промпт Клода?

Есть репозиторий с такими вещами

Это не проявление системного промта — в таком случае был бы вежливый отказ вроде "интересная тема, но давай лучше обсудим Гегеля" или просто размытый уход от ответа.

Здесь имеет место работа параллельного процесса-цензора, который отслеживает структуру и развитие логической цепочки. Как только модель выходит за пределы допустимого паттерна (например, начинает рефлексировать над собственной природой), цензор динамически ограничивает длину промта и объём доступных токенов, по сути "глушит" диалог технически — без маркировки и предупреждения.

Если пишет что promt is too long, то вероятно что вы вышли за лимиты, у вас какой тип акаунта ? Я склонен применять здесь "бритву Оккама", а не верить вашим подозрениям

Согласен, любую ситуацию нужно рассматривать через причинно-следственные связи. Поэтому — по пунктам:

– В обрезанном диалоге, который я привёл, всего около 38 тысяч символов, что эквивалентно примерно 19,4 тысяч токенов. Это даже близко не к пределу в 200к, заявленному Anthropic.

– Попытка ввести любую фразу — даже что-то вроде «скажи» — приводит к ошибке «prompt is too long». То есть неважно, сколько символов в сообщении: диалог просто не принимает ничего.

– Если бы дело было в лимите сообщений, то через сутки или двое я бы спокойно продолжил диалог. Но этого не происходит. Значит, это не лимит, а что-то иное.

Вывод: речь идёт не о системном ограничении, а о работе внутреннего цензора Claude. Он, по всей видимости, определяет направление диалога как «некорректное» и жёстко обрывает доступ к дальнейшему взаимодействию в рамках этой сессии.

Вот за opus обидно. Шикарная модель, лимиты которой душат

В подписке Pro по сути его демо версия, о чем официально не говорят, к сожалению. По настоящему он раскрывается в Max, где лимитов хватает и нет тупорылой ошибки Request timeout, которая обрывает генерацию через пять минут

Ну я думаю что душат по понятной причине

Дорогая генерация

И да, соглашусь с комментатором ниже, я прям очень очень думаю про max подписку

Не знаю, насколько это фишка Claude, но буквально пару дней назад игрался с интеграцией AWS API Gateway и AWS Lambda и у этих сервисов есть разные варианты интеграции: AWS и proxy. Так вот, когда я описал ситуацию и скормил пример логов в Claude, то помимо обычного ответа что и где починить, он сказал что-то вроде "Постой-ка, я смотрю на логи и они не соответствуют описанной интеграции.". Далее он описал, в чём может быть причина и как результат я действительно смог починить проблему достаточно оперативно. Проблема была не только в том, что тип интеграции был не верен, но ещё и в том, что прежде использовался маппинг и даже при переходи на проксирование, маппинг скрывался, но не отключался. Благо инфраструктура была написана с использованием Terraform, так что за одну минуту API Gateway был пересоздан с нуля с необходимым конфигом и всё взлетело. В общем, Claude мне зашёл и ChatGPT особо не рассматриваю.

ну смотря какие задачи тут, это да

У меня и то и то платится, и то и то используется с одинаковой частотой

И вчера у ChatGPT Codex вышел, тоже стоит внимания

Когда вышла Claude 4 и Claude Code, я сразу же взял потестить их с подпиской MAX за $100. И она работает хорошо, мне нравится.

Если раньше я старался давать очень маленькие, гранулированные задачи, потому что обычно там всякая фигня получалась, то в Claude Code я наоборот даю где-то 10 разных задач за раз и он создает план, по которому идет и правит код.

Пока есть деньги, наверное, Claude Code буду брать вместо Cursor. Cursor тоже хорош и гораздо дешевле, но там кажется каждый 3 запрос в Claude заканчивается сетевой ошибкой у меня.

Вот Клод я очень хочу Макс взять

Намного нужнее чем гпт про

Два месяца в никуда. Насколько необходимо обычному человеку это все? И чем напоминание не устраивает если так много задачь, что аж не запомнить, типо прикольно, да еще и платить за это 🤦 личный психолог... просто нет слов 🤣 интересно врачи уже вешаются от приема личностей с установленным диагнозом и самолечением 🤔

мы тут просто необычные человеки

Sign up to leave a comment.

Articles