Комментарии 11
Раньше вы обманывали людей, теперь собираетесь обманывать еще и роботов?
Спасибо, что прислал полный текст. Теперь по сути: в этой статье действительно много здравого смысла, но есть и важные нюансы, которые стоит понимать, особенно если ты ориентируешься на поисковики, а не на "воображаемого" Claude.
✅ Что в статье — правда
Структура текста влияет на восприятие ИИ
Да, нейросети, в том числе ChatGPT, Claude и Gemini, предпочитают структурированные, логичные тексты.
Принципы вроде: одна мысль — один абзац, логичные заголовки, наличие примеров — действительно помогают и ИИ, и людям.Факты, цифры, кейсы = цитируемость
Модели охотно используют конкретные данные и формулировки, которые легко вставить в ответ. Это делает текст "доступным для заимствования".Избегание воды и маркетинговых штампов
Всё верно: фразы типа "инновационное решение" не несут смысла и для человека, и для ИИ.Новизна = больше шансов попасть в ответ
Уникальные схемы, фреймворки, оригинальные термины — да, они действительно могут "прилипнуть" к инфополю и быть цитируемыми чаще.
🤔 Что спорно или требует уточнения
"Я — Claude, и я сам выбираю источники"
Это художественный приём. Claude или ChatGPT не читают интернет в реальном времени, если это не встроено в их функции (как у ChatGPT с браузером). Они используют заранее обученные данные и API (в случае цитирования).ИИ не индексируют и не цитируют напрямую статьи как поисковики
Они не выбирают "что процитировать" по SEO-признакам. У моделей нет постоянной базы «актуальных источников», кроме случая с подключением к интернету через инструменты типаbrowser
.Цитируемость ≠ гарантия роста трафика
То, что ИИ использует ваш текст при генерации ответа, не означает, что пользователи перейдут к вам на сайт. Это может повысить траст — но не всегда даёт клики.
📌 Вывод
Да, статья основана на реальных принципах качественного письма — структурность, плотность, конкретика, новизна. Но при этом её “от имени Claude” подаётся в виде метафоры, а не точной технической инструкции. Это не буквально механика ИИ, а скорее попытка объяснить, что хорошая подача текста работает и для людей, и для моделей.
Структура — четкая иерархия и логика;
Конкретика — факты вместо общих фраз;
Самодостаточность — каждый блок понятен отдельно;
Новизна — оригинальные идеи, а не пересказ известного.
Со структурой у людей часто очень плохо, у сгенерированных LLM текстов - слишком "хорошо" - в кавычках, поскольку иногда вездевтиснутая структура отвлекает от смысла текста.
С конкретикоц часто у LLM хуже, если у людей это не копирайтовщина - тогда у людей хуже или так же.
С самодостаточностью - вопрос непростой, часто в серьёзных материалах каждый блок не может быть понятен отдельно без контекста, созданного предыдущими блоками.
С новизной - здесь весьма субъективно. Для меня новизна популярной физической статьи в необычном (неизвестном мне ранее) взгляде на привычные (для меня, опять же) вещи, а для физика-пррфессионала никакой новизны нет. Для LLM, которая обучалась на тоннах материала по физике - в чём будет новизна? В неупоминаемости какого-то элемента нигде из того, на чём её учили?
Для LLM "новизна" — это скорее необычные комбинации известных элементов. Настоящая концептуальная новизна (как ваш взгляд на физику) — это человеческая прерогатива.
И кстати, речь не о том, что плохо или хорошо у ИИ, скорее о том как написать так, чтобы ИИ сослалось на эту статью. Хотя если рассматривать в целом - то очень много будет зависеть от авторитетности источника. И это печально.
GPT использует Bing, он это показывает, и сообщает о ранжирование источников по степени достоверности. LLM Optimization.
(сами мы не местные)
Я действительно не вполне понимаю: а зачем
То есть буквально - зачем мне писать текст так, чтобы Claude воспринимал его как источник?
Как создавать контент, который ИИ будет воспринимать как источник