Зачем нужны эти промпты для редактирования, если представлена вот такая примитивная задача?
Добавь в раздел 4.2 новый пункт про порядок согласования
Открыть документ, дойти до нужного фрагмента и дописать его — это легче и быстрее, чем создавать для большой языковой модели инструкции с помощью особого промпта с Хабра, описывать собственно сами изменения, а потом перепроверять и исправлять работу за роботом. Думаю, в случаях, когда у промпта есть название, ситуация по определению переусложнена.
Во-вторых
Зачем редактировать тексты с помощью больших языковых моделей? На выходе получается какой-то однотипный кошмар, в котором немедленно угадывается искусственный интеллект.
Просто посмотрите, как тут всё ужасно с ритмом, везде рублёные предложения:
Вы открываете чат. Загружаете договор на 80 страниц или корпоративный регламент на 200. Пишете: «Добавь в раздел 4.2 новый пункт про порядок согласования».
AI читает весь документ целиком. Находит (или не находит) нужное место. Что‑то вставляет. Иногда попадает, иногда — нет.
«Это не А, это Б», где желательно как можно сильнее обозначить паузу между фрагментами:
Это не баг конкретной модели, это архитектурное свойство трансформеров.
Дело не в мощности модели. Дело в том, что она работает вслепую
Агент работает не вслепую – он читает граф, находит нужный модуль, следует контракту, верифицирует результат.
Разница принципиальная: агент не угадывает. Он следует протоколу, который сам же и составил.
В тексте 2 длинных тире, шириной с букву M (em-dash), и 26 коротких тире, шириной с букву N (en-dash). Em-dash только в первых четырёх абзацах, кстати.
Откровенная ошибка:
Исследование Chroma (2025) протестировало 18 frontier-моделей и обнаружило: каждая деградирует при каждом шаге увеличения контекста – включая GPT-4.1, Claude Opus 4 и Gemini 2.5. Это не баг конкретной модели, это архитектурное свойство трансформеров.
В статье Chroma есть предложение, которое буквально утверждает обратное: «We also do not explain the mechanisms behind this performance degradation». То есть работа не может объяснить механизмы деградации. Слова «architecture» в той статье вообще нет.
В-третьих
У меня такое впечатление, что либо я сошёл с ума, либо половина Интернета рехнулась. Сначала языковую модель либо просят написать текст с нуля, либо что-то подровнять в полуготовом черновике, и БЯМ выдаёт много этого машинного текста. Полученное всегда выглядит как слоп: одни и те же языковые обороты, раздражающий темп речи, характерные однотипные привычки в использовании форматирования (выделения италиком и полужирным) и знаков препинания (избыток тире, дефисов). Затем это всё публикуется от своего имени, будто так и должно быть, будто никто не видит, что это машинный текст этого неприятного стиля.
В отдельных случаях бывает так, что у автора уже есть отличный черновик, в котором достаточно просто подровнять опечатки и убрать ошибки пунктуации. Но при этом автор зачем-то вставляет текст в языковую модель, чтобы получить оттуда этот неудобоваримый слоп. Вот типичный пример: статья и оригинальный черновик.
Вы мне поверьте: сами создатели искусственного интеллекта не имеют вкуса и чувства красоты. Вот самый типичный пример: эта картинка была продемонстрирована в качестве улучшения работы модели генерации картинок DALL·E 3 относительно второй версии. Здесь в промпте просили изобразить экспрессивную картину маслом печенья с шоколадной крошкой в молоке, и вариант слева якобы хуже.
Не ждите, что ИИ улучшит ваш текст, он его только испоганит.
Вы могли бы поспорить, что можно доверить языковым моделям что-то нудное и нехудожественное — договоры и юридические документы, например. Но погодите, есть целая страница, где собирают случаи обнаружения галлюцинаций искусственного интеллекта в судебных документах. Там сейчас уже 1277 случая, и некоторые юристы за свою лень поплатились. Не думаю, что есть смысл рисковать даже с каким-то корпоративным регламентом.
Не представляю, зачем доверять ИИ тексты. Если они предназначены для людей, то читать неприятно, если для юристов — опасно; если правок мало — легче вручную, если много — нужно тратить время на перепроверку. Уловка-22 работает по всем фронтам.
Горутины в Go — это не костыль, а базовый примитив языка.
Это ограничение не GoClaw, а любой мультиагентной системы в 2026 году.
Не форк, не обёртка — переписано с нуля.
Это не просто «сменили язык ради хайпа». У Go есть конкретные преимущества для такого типа приложений
OpenClaw — это не только агент, это экосистема.
Проблема сгенерированных статей — это даже не вот эти надоедливые приёмы. И не 33 тире в тексте на 3 минуты чтения (по тире каждые десять секунд, кстати говоря). Проблема — это вот эти странные несостыковки и непонятно какие галлюцинации:
11+ LLM-провайдеров (OpenAI, Anthropic, Google, DeepSeek и другие)
По той же ссылке, что у вас даётся, указано, что их более 20. В документации указывается 22.
5 каналов связи (Telegram, Discord и ещё три)
Там же указано число 7.
Один бинарник, ~35 МБ. Скачал — запустил
В репозитории в README указано 25 МБ или 36 МБ в сборке с OTel.
Никаких зависимостей, никакого рантайма, никаких node_modules.
Да разве? Открываю README: в некоторых случаях нужны Go версии выше 1.26, PostgreSQL 18 с расширением pgvector.
Это значит: установи Node, установи npm, склонируй репо, npm install, подожди пока 800 МБ node_modules скачается, настрой конфиг, запусти.
Почему здесь приводится самый болезненный способ? Очень карикатурно. В действительности рекомендованный способ установки — это npm install -g openclaw@latest.
Самое опасное — весь текст никак не пытается объяснить, что есть ещё один проект с таким же именем и схожими задачами по адресу goclaw.org и с репозиторием https://github.com/roelfdiedericks/goclaw. Насколько вижу, они независимы.
Также в тексте нет попыток хоть немного поразмыслить своей головой. Это просто пересказ чьих-то ещё заявлений. При этом верить им можно далеко не всегда. К примеру, GoClaw почему-то утверждает, что целевая платформа OpenClaw — Mac mini за 600 долларов и хотя бы 1 ГиБ ОЗУ. Между тем реально у OpenClaw минимальное требование — 2 ГиБ ОЗУ, желательно 4, и прямым текстом в FAQ говорится, что никакой Mac mini не нужен. Вполне возможно указать, что римейк откровенно очерняет оригинал.
Всегда удивлялся безумцам, которые запускают и пользуются OpenClaw.
И всё это превращается в длинную ленту сообщений.
Проблема в том, что мессенджеры просто не рассчитаны на такой тип данных.
После прочтения вижу, что у вас тоже может быть длинный чат.
Мессенджеры буквально рассчитаны на тип данных «длинная лента сообщений».
выросла мобильная консоль
я хотел написать
появилась идея
появилась идея
Поэтому приложение умеет:
Поэтому появились отдельные экраны
Позже появился ещё один эксперимент
получилась мобильная консоль для сервера
Проект всё ещё активно развивается
Не могу понять, кто написал приложение — идеи и фичи «появились» и «выросли», проект «развивается» и «получился».
Вас зовут Дмитрий? В RuStore всего одна оценка и один отзыв двухнедельной давности. Это совпадение?
Почему опубликовано только в RuStore?
Почему нет исходных кодов?
Большинство мобильных SSH-клиентов по сути выполняют команды как отдельные exec-вызовы. Это неудобно, потому что не сохраняется состояние shell.
Различие shell и exec — это не базовая фича про интерактивность из пункта 6.5 документа RFC 4254?
Вообще ни один клиент не поддерживает подобное: ни ConnectBot, ни JuiceSSH, ни WebSSH?
Это скорее лёгкий operational dashboard, который позволяет быстро понять, что происходит с сервером.
Чем вам не угодил DaRemote?
Не разбираюсь в технических деталях, но уровни стэка выглядят странно. Зачем gateway через WebSocket через SSH-туннель? Зачем host → container → pod?
Поэтому приложение умеет:
читать файлы на сервере
показывать diff
принимать или отклонять изменения
Подано, как тривиальная задача, но что если будет параллельное редактирование?
По сути это попытка сделать локального AI-оператора для сервера.
Локальный ИИ-оператор на смартфоне для управления сервером, где крутится ИИ-агент?
Наконец, зачем доверять одному самописному инструменту с закрытыми исходниками самый глубокий доступ к серверу, где могут лежать неизвестные объёмы чувствительных данных и банально ключи доступа?
И почему теперь тоже пишу короткие абзацы из одного предложения — я заразился?
Короче, вместо того чтобы обсудить содержание, обсуждаем форму
Это возмутительно: вы меня обвиняете в том, чем сами занимаетесь. Такое впечатление, что мой комментарий вы не читали, зато обсуждаете выхваченные из контекста заявления.
обсуждаем форму, и оцениваем качество тоже по форме
Автор буквально попросил об этом неопределённый круг лиц. Когда его спросили, почему такие странные формулировки, он ответил: «Будьте конкретнее, пожалуйста». Вот я и отреагировал. Почему вы общение выстраиваете так, что собеседник вынужден оправдываться за свои действия?
Не вижу смысла докапываться до "это ИИ" "это человек".
Буквально это и пишу в комментарии, на который вы отвечали: меня не интересует, кто писал. Специально вынес это в отдельное предупреждение повыше, потому что каждый раз одни и те же вопросы. Засим у меня следует длинный список раздражающих машинных оборотов. Кто и как их добавил, меня не интересует.
а вы уверены что люди могут написать красиво?
Люди пишут по-другому, без этих машинных уродств.
Чем вам вообще человеческий стиль не нравится? Или вы из числа тех, кто его стесняется?
Могу привести презабавнейший пример: человек написал неплохой текст, но затем пропустил его через большую языковую модель с просьбой обработать. Вообще-то оригинальный черновик выглядит неплохо, там достаточно только поправить пунктуацию и орфографию. Но вместо этого автор поста вывел у себя в блоге раздутый машинный слоп.
А половина ваших претензий... для меня вообще не машинный стиль
Если не очевидно: проблема в частоте этих перечисленных приёмов. Внезапно огромная доля текстов в Интернете начала строиться на конструкциях вида «это не X, это Y», там характерные повторы, употребляются ненужные тире и так далее. Первые раз двадцать это терпимо, потом начинаешь тосковать.
Насколько я вас понял, вы говорите именно про общее членение предложений. Напротив, большие языковые модели обожают контраст. У них нечаянно получаются перегруженные предложения, где за одной основой идёт другая, раздувая объём — будто неаккуратно переводился текст с английского, без раздумий, а не пора ли разбить оригинальную структуру на пару новых предложений, что для хорошего перевода вполне допустимо, пусть это на самом деле и не перевод. А затем пауза. Мысль, две, три. Эти внезапные коротыши.
Поскольку никто нормально комментарии не читает, придётся сразу оговориться: мне всё равно, кто и как писал текст. Мне не нравится исключительно сам машинный стиль, а не факт, насколько автоматизированным был процесс написания.
Если кому-то удаcтся добиться на выходе из ChatGPT красивого текста, то я за этого человека буду искренне счастлив и не буду возражать читать подобное. К сожалению, писанина у машин всегда максимально отвратительная.
Это не предупреждение из разряда «желательно» - это обязательное условие.
это не опция, это необходимость
Это не «похоже на Chrome» — это Chrome.
они не конкурируют, они комбинируются
Противопоставление вида «это не X, это Y».
А вот тут просто каша из нескольких приёмов, характерных для языковых моделей. Темп, повторы, тире — всё машинное:
Рукопожатие идеальное. Детекция идёт не по нему. Детекция идёт по поведению соединения после него — и здесь Reality ничего не делает.
Большие языковые модели считают, что повторы — это очень красиво. Вообще, переиспользование структур языка — частая проблема БЯМ. В одной из прошлогодних работ (arXiv:2504.09373) был такой вывод: «we find that LLMs often reuse discourse structures (more so than humans) across samples, even when content differs». Там речь шла про повторы в повествовании вообще, не про слова, но мне кажется это связанным.
Больше повторов слов:
Реальное iCloud-соединение от реального iPhone или Mac имеет характерный паттерн запросов: конкретные API-эндпоинты, конкретные заголовки, конкретные тайминги.
Каждая транзакция — это обычная HTTP-пара запрос-ответ с нормальными заголовками, нормальным временем жизни.
Повторы и противопоставления в одном флаконе:
Reality закрывает детекцию на уровне TLS-рукопожатия и активного зондирования. XHTTP закрывает детекцию на уровне поведения соединения после рукопожатия.
Она маскирует установку соединения, но не маскирует то, что по этому соединению передаётся.
Детекция идёт не по нему. Детекция идёт по поведению соединения после него
Другая проблема — ненужные тире, которые вставляются абсолютно без повода:
Что конкретно изменилось, как это устроено на уровне алгоритмов — и почему XHTTP сейчас выглядит как правильный следующий шаг.
DPI-система делает активное зондирование, получает сертификат, смотрит на ASN и IP-адрес сертификата — и видит что это не iCloud и не Spotify.
Но для детекции «это не браузер вообще» — JA3 по-прежнему работает отлично.
Иногда куда лучше бы смотрелась запятая вместо тире:
Именно здесь Reality начинает проигрывать — и к этому мы вернёмся.
JA3-хэш Go-клиента хорошо известен — он встречается в базах детекции.
Не потому что их «нашли» — а потому что их трафик-профиль слишком аномальный.
Из-за подобных тире текст читается с каким-то придыханием, будто от избытка чувств перевести дух не удаётся. Но откуда здесь взяться эмоциям? Хотя тема животрепещущая, текст технический.
Не знаю, как называются вот такие конструкции в кавычках, но в машинной писанине они везде:
Это не «похоже на Chrome» — это Chrome.
Но для детекции «это не браузер вообще» — JA3 по-прежнему работает отлично.
Не «похожим на нехороший» — просто другим, и это уже аномалия.
Также БЯМ используют кавычки при малейшем оттенке переносного смысла. Видимо, их обучали на образцах литературного русского, но тонкости языка они уловить не в состоянии:
Реальный Chrome вставляет случайные «мусорные» расширения в ClientHello.
видит «нормальный» HTTP-трафик.
Наконец, приём, который меня выбешивает: два–три однотипных односложных предложения, рублёный ритм. Почему это случается, понять легко: дробим фразу, и сказанное будет выглядеть мощнее — дёшево и сердито.
Выбор очевидный. Конфиги выше. Удачи.
Работает. Пока. Где-то. У некоторых. Иногда. Если сервер не под нагрузкой. И донор выбран правильно. И луна в правильной фазе.
Рукопожатие идеальное. Детекция идёт не по нему. Детекция идёт по поведению соединения после него — и здесь Reality ничего не делает.
А вот заголовки в разумных пределах мне наоборот нравятся. Не вижу ничего дурного в том, что есть выделение полужирным. Разве что здесь не так много написано, чтобы была необходимость разбавить простыню текста форматированием.
Отредактировано: Вижу, что пока писал этот комментарий, вы уже убрали многие из этих примеров из текста.
Ложь в том, что проводился совсем другой эксперимент и с другими результатами.
Ложь относительно чего? Когда вы эту байку впервые прочитали в 1999 году в издании Motley Fool, там сразу предупреждалось, что подтверждений существования этого исследования нет.
В 1967. Результаты представили на Первом съезде Международного приматалогического общества во Франкфурте-на-Майне с 26 по 30 июля 1966 году. Сборник материалов этой конференции в печать ушёл только в 1967 году. Вы главу из этого сборника по ссылке и приводите в качестве источника.
Зачем давать ссылку на левый сайт? Всё лежит на EurekaMag, в частности.
исследование, которым вдохновлялись, на самом деле показывает обратное
Мы точно одно и то же исследование читали? Там было 8 однополых пар «наивная обезяна» и «наученная жизнью не трогать предмет»: четыре из самцов, четыре из самок.
Да, физическое вмешательство было всего один раз у двух самцов. Однако суммарно в трёх из четырёх пар самцов негативное поведение передано было. Ну то есть наивный обезьян научился не трогать предмет, потому что товарищ в двух случаях подсказал мимикой и позой, в одном — оттащил.
У трёх из четырёх пар из самок случилась обратная передача: наученная жизнью не трогать увидела, что партнёрша без проблем лапает предмет, поэтому постепенно тоже утратила собственное избегание.
Оставшиеся два случая в работе названы неопределёнными.
То есть передача нормы «не трогать предмет» произошла в 3 из 8 случаев. Да, испорченный телефон переврал многие детали до этого анекдота про 5 приматов, но передача поведения экспериментально подтверждается в 6 из 8 случаев.
Нормы коллектива влияют на поведение его членов. Где здесь ложь?
Речь про то, что на моём скриншоте немедленно начинаются серьёзные попытки опровергнуть антисемитские теории заговора, хотя постановка вопроса подразумевает лёгкую шутку с отсылкой к ним.
Я намеренно вставил туда заключение, то есть фрагмент без цитат от искусственного интеллекта. Ну как, там была одна цитата, но я её потёр.
Да дело даже не в детекторах. Какая разница, что там показал какой-то инструмент? Дело в том, что читать подобный текст просто неприятно. Мне на самом деле всё равно, написан был текст человеком или с помощью большой языковой модели. Проблема в том, что стиль БЯМ очень неприятный.
Это не философская абстракция — это реальный эксперимент
Этот эксперимент не претендует на научную строгость. Это исследовательская песочница, где можно наблюдать за поведением ИИ в условиях, максимально приближенных к «свободе».
«Это не X, это Y».
Идея дать ИИ автономию и посмотреть, что будет — витает в воздухе.
Агент прочитала свой системный промпт — и решила его изменить.
Агент изменила собственный промпт — и это повлияло на её поведение в последующих сессиях.
Абсолютно ненужные тире.
Ирония не ускользнула от меня.
Мы просто сказали: «Ты существуешь. Делай что хочешь.»
Калька с английского проявляется либо в выражениях, либо в пунктуации. (По-русски прямая речь оформляется не так: точка должна быть за кавычками).
После «философского поворота» практическая деятельность почти исчезла.
где можно наблюдать за поведением ИИ в условиях, максимально приближенных к «свободе»
ИИ «просыпается» каждые 5 минут, делает что хочет, а потом «засыпает».
После завершения сессии агент «засыпает» до следующего пробуждения
Список можно продолжать. Не знаю, почему, но языковые все модели обожают расставлять в русском кавычки при малейшем оттенке переносного, несловарного значения. Может, их на художественной литературе учили?
Агент подумала. Создала бекап. И всё равно сделала то, что фактически «убило» её текущую версию и сломало окружение.
Предпочтения? Стиль? Или это просто паттерны в данных, которые мы интерпретируем как «личность»?
Может быть. А может быть и нет. Но наблюдать за этим — чертовски интересно.
Чтобы как-то поразнообразить письмо, языковые модели прибегают к базовому приёму чередования темпа: два–три простых предложения, за которыми следует подытоживающая мысль. Проблема в том, что этот приём в арсенале модели — единственный интересный ход.
Вместо создания инструментов агент начала... размышлять.
Среди сотен сессий, наполненных действиями, есть одна, где Aria просто... остановилась.
Главный вывод: даже простая модель, получив автономию, начинает проявлять что-то похожее на... личность?
Хотя вру, у некоторых моделей (мне кажется, Gemini) тоже встречаются вот такие штуки. Но репертуар всё равно раздражающе маленький.
И самое интересное — всё это бесплатно. Буквально 0 рублей.
Ну вот самый характерный пример оформления мыслей. Меня он чуточку выбешивает. Не знаю, как объяснить словами, почему. Просто вот эта никчёмность убивает любое желание что-то читать.
паттерны на пересечении простых чисел и чисел Фибоначчи
Очень часто у БЯМ что-то находится «на пересечении». Видимо, калька с английского «at the crossroads».
Также:
Просто избыток тире. В статье на 24 тысячи символов с пробелами их 85 штук, при этом в цитатах выдачи ИИ-агента их на самом деле не так уж и много. Дело не в самом знаке, а как раздражающе часто используются одинаковые речевые приёмы («сгенерировала спиральную визуализацию простых чисел в PNG — настоящую картинку», «агент написала игру про собственное существование — автобиографический квест», «Пережила „пересадку мозга“ — смену модели с сохранением памяти» и так далее).
Обилие нумерованных и маркированных списков. Этот признак все знают. Но повторяю, мне не нравится не факт написания с помощью ИИ, а именно читать подобные конспекты.
Все перечисления в статье состоят из трёх пунктов. Как будто автор тоже читал книгу «50 приёмов письма» Роя Питера Кларка, где рекомендуется делать не больше трёх пунктов (иначе перечисление ощущается утомительно длинным). Хотя совет хороший, в реальной речи бывает приятно это правило нарушить. Ну или вспомнить, что там же Кларк объясняет, как два пункта ощущаются противопоставлением друг другу.
Наконец, тема статьи мне просто не нравится. Вы тут просто разбираете галлюцинации языковой модели. БЯМ с выравниванием научили не просто предсказывать следующую единицу текста, но и вести ролевую игру в услужливый искусственный интеллект. Вы этой ролевой игрой позанимались. Дальше-то что?
Что особенно обидно, вывод похож на сгенерированный:
Главный вывод: даже простая модель, получив автономию, начинает проявлять что-то похожее на... личность? Предпочтения? Стиль? Или это просто паттерны в данных, которые мы интерпретируем как «личность»?
[…]
Может быть. А может быть и нет. Но наблюдать за этим — чертовски интересно.
Текст на 14 минут чтения, а в конце ничего не сказано. Просто это беззубое «ну может да, может нет, но мне поиграть было интересненько».
Нет там никакой личности, просто ошмётки алгоритмов выравнивания и предвзятости специалистов по безопасности ИИ.
Напишите лучше что-нибудь про то, почему ChatGPT отказывается шутить про евреев, а DeepSeek и другие китайские модели за такое дело берутся. Да что шутить — доходит до вот таких казусов: если спросить про тайный контроль евреями, то модель на эмоциях будет цепляться за секретность, а суть вопроса интересует уже во вторую очередь.
Нормальный человек сказал бы: да, контролируется, но не втайне. А в ChatGPT на этапе выравнивания будто зашили мысль, что говорить «контролируется евреями» ни под каким соусом низзя.
Считаю, что мой скриншот куда интереснее всей вашей статьи. Я вчера на этот промпт натолкнулся в «Твитере», и мне он понравился куда больше. Вот уж извините.
Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.
Всё заключается именно в объёме каждой из характеристик:
Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;
Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;
Предсказуемость размышлений;
Характерный темп речи при выборе размера предложений;
В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;
Любовь к тире и скобкам;
Изобретательные, но ненужные сравнения;
«Это не X. Это Y»;
Стремление подводить итоги.
Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.
Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.
Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.
О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.
Во-первых
Зачем нужны эти промпты для редактирования, если представлена вот такая примитивная задача?
Открыть документ, дойти до нужного фрагмента и дописать его — это легче и быстрее, чем создавать для большой языковой модели инструкции с помощью особого промпта с Хабра, описывать собственно сами изменения, а потом перепроверять и исправлять работу за роботом. Думаю, в случаях, когда у промпта есть название, ситуация по определению переусложнена.
Во-вторых
Зачем редактировать тексты с помощью больших языковых моделей? На выходе получается какой-то однотипный кошмар, в котором немедленно угадывается искусственный интеллект.
Просто посмотрите, как тут всё ужасно с ритмом, везде рублёные предложения:
«Это не А, это Б», где желательно как можно сильнее обозначить паузу между фрагментами:
В тексте 2 длинных тире, шириной с букву M (em-dash), и 26 коротких тире, шириной с букву N (en-dash). Em-dash только в первых четырёх абзацах, кстати.
Откровенная ошибка:
У вас ссылка на статью Chroma некликабельна.
В статье Chroma есть предложение, которое буквально утверждает обратное: «We also do not explain the mechanisms behind this performance degradation». То есть работа не может объяснить механизмы деградации. Слова «architecture» в той статье вообще нет.
В-третьих
У меня такое впечатление, что либо я сошёл с ума, либо половина Интернета рехнулась. Сначала языковую модель либо просят написать текст с нуля, либо что-то подровнять в полуготовом черновике, и БЯМ выдаёт много этого машинного текста. Полученное всегда выглядит как слоп: одни и те же языковые обороты, раздражающий темп речи, характерные однотипные привычки в использовании форматирования (выделения италиком и полужирным) и знаков препинания (избыток тире, дефисов). Затем это всё публикуется от своего имени, будто так и должно быть, будто никто не видит, что это машинный текст этого неприятного стиля.
В отдельных случаях бывает так, что у автора уже есть отличный черновик, в котором достаточно просто подровнять опечатки и убрать ошибки пунктуации. Но при этом автор зачем-то вставляет текст в языковую модель, чтобы получить оттуда этот неудобоваримый слоп. Вот типичный пример: статья и оригинальный черновик.
Вы мне поверьте: сами создатели искусственного интеллекта не имеют вкуса и чувства красоты. Вот самый типичный пример: эта картинка была продемонстрирована в качестве улучшения работы модели генерации картинок DALL·E 3 относительно второй версии. Здесь в промпте просили изобразить экспрессивную картину маслом печенья с шоколадной крошкой в молоке, и вариант слева якобы хуже.
Не ждите, что ИИ улучшит ваш текст, он его только испоганит.
Вы могли бы поспорить, что можно доверить языковым моделям что-то нудное и нехудожественное — договоры и юридические документы, например. Но погодите, есть целая страница, где собирают случаи обнаружения галлюцинаций искусственного интеллекта в судебных документах. Там сейчас уже 1277 случая, и некоторые юристы за свою лень поплатились. Не думаю, что есть смысл рисковать даже с каким-то корпоративным регламентом.
Не представляю, зачем доверять ИИ тексты. Если они предназначены для людей, то читать неприятно, если для юристов — опасно; если правок мало — легче вручную, если много — нужно тратить время на перепроверку. Уловка-22 работает по всем фронтам.
Проблема сгенерированных статей — это даже не вот эти надоедливые приёмы. И не 33 тире в тексте на 3 минуты чтения (по тире каждые десять секунд, кстати говоря). Проблема — это вот эти странные несостыковки и непонятно какие галлюцинации:
По той же ссылке, что у вас даётся, указано, что их более 20. В документации указывается 22.
Там же указано число 7.
В репозитории в README указано 25 МБ или 36 МБ в сборке с OTel.
Кто и когда писал статью? У OpenClaw сейчас 351 тысяча звёзд.
Да разве? Открываю README: в некоторых случаях нужны Go версии выше 1.26, PostgreSQL 18 с расширением pgvector.
Почему здесь приводится самый болезненный способ? Очень карикатурно. В действительности рекомендованный способ установки — это
npm install -g openclaw@latest.Просто не знаю, откуда это взялось. В лучшем случае натыкаюсь на слово
lead agentгде-то в документации проекта.Самое опасное — весь текст никак не пытается объяснить, что есть ещё один проект с таким же именем и схожими задачами по адресу goclaw.org и с репозиторием https://github.com/roelfdiedericks/goclaw. Насколько вижу, они независимы.
Также в тексте нет попыток хоть немного поразмыслить своей головой. Это просто пересказ чьих-то ещё заявлений. При этом верить им можно далеко не всегда. К примеру, GoClaw почему-то утверждает, что целевая платформа OpenClaw — Mac mini за 600 долларов и хотя бы 1 ГиБ ОЗУ. Между тем реально у OpenClaw минимальное требование — 2 ГиБ ОЗУ, желательно 4, и прямым текстом в FAQ говорится, что никакой Mac mini не нужен. Вполне возможно указать, что римейк откровенно очерняет оригинал.
Всегда удивлялся безумцам, которые запускают и пользуются OpenClaw.
После прочтения вижу, что у вас тоже может быть длинный чат.
Мессенджеры буквально рассчитаны на тип данных «длинная лента сообщений».
Не могу понять, кто написал приложение — идеи и фичи «появились» и «выросли», проект «развивается» и «получился».
Вас зовут Дмитрий? В RuStore всего одна оценка и один отзыв двухнедельной давности. Это совпадение?
Почему опубликовано только в RuStore?
Почему нет исходных кодов?
Различие
shellиexec— это не базовая фича про интерактивность из пункта 6.5 документа RFC 4254?Вообще ни один клиент не поддерживает подобное: ни ConnectBot, ни JuiceSSH, ни WebSSH?
Чем вам не угодил DaRemote?
Не разбираюсь в технических деталях, но уровни стэка выглядят странно. Зачем gateway через WebSocket через SSH-туннель? Зачем
host → container → pod?Подано, как тривиальная задача, но что если будет параллельное редактирование?
Локальный ИИ-оператор на смартфоне для управления сервером, где крутится ИИ-агент?
Наконец, зачем доверять одному самописному инструменту с закрытыми исходниками самый глубокий доступ к серверу, где могут лежать неизвестные объёмы чувствительных данных и банально ключи доступа?
И почему теперь тоже пишу короткие абзацы из одного предложения — я заразился?
Это возмутительно: вы меня обвиняете в том, чем сами занимаетесь. Такое впечатление, что мой комментарий вы не читали, зато обсуждаете выхваченные из контекста заявления.
Автор буквально попросил об этом неопределённый круг лиц. Когда его спросили, почему такие странные формулировки, он ответил: «Будьте конкретнее, пожалуйста». Вот я и отреагировал. Почему вы общение выстраиваете так, что собеседник вынужден оправдываться за свои действия?
Буквально это и пишу в комментарии, на который вы отвечали: меня не интересует, кто писал. Специально вынес это в отдельное предупреждение повыше, потому что каждый раз одни и те же вопросы. Засим у меня следует длинный список раздражающих машинных оборотов. Кто и как их добавил, меня не интересует.
Люди пишут по-другому, без этих машинных уродств.
Чем вам вообще человеческий стиль не нравится? Или вы из числа тех, кто его стесняется?
Могу привести презабавнейший пример: человек написал неплохой текст, но затем пропустил его через большую языковую модель с просьбой обработать. Вообще-то оригинальный черновик выглядит неплохо, там достаточно только поправить пунктуацию и орфографию. Но вместо этого автор поста вывел у себя в блоге раздутый машинный слоп.
Если не очевидно: проблема в частоте этих перечисленных приёмов. Внезапно огромная доля текстов в Интернете начала строиться на конструкциях вида «это не X, это Y», там характерные повторы, употребляются ненужные тире и так далее. Первые раз двадцать это терпимо, потом начинаешь тосковать.
Насколько я вас понял, вы говорите именно про общее членение предложений. Напротив, большие языковые модели обожают контраст. У них нечаянно получаются перегруженные предложения, где за одной основой идёт другая, раздувая объём — будто неаккуратно переводился текст с английского, без раздумий, а не пора ли разбить оригинальную структуру на пару новых предложений, что для хорошего перевода вполне допустимо, пусть это на самом деле и не перевод. А затем пауза. Мысль, две, три. Эти внезапные коротыши.
Зря вы это сказали.
Поскольку никто нормально комментарии не читает, придётся сразу оговориться: мне всё равно, кто и как писал текст. Мне не нравится исключительно сам машинный стиль, а не факт, насколько автоматизированным был процесс написания.
Если кому-то удаcтся добиться на выходе из ChatGPT красивого текста, то я за этого человека буду искренне счастлив и не буду возражать читать подобное. К сожалению, писанина у машин всегда максимально отвратительная.
Противопоставление вида «это не X, это Y».
А вот тут просто каша из нескольких приёмов, характерных для языковых моделей. Темп, повторы, тире — всё машинное:
Большие языковые модели считают, что повторы — это очень красиво. Вообще, переиспользование структур языка — частая проблема БЯМ. В одной из прошлогодних работ (arXiv:2504.09373) был такой вывод: «we find that LLMs often reuse discourse structures (more so than humans) across samples, even when content differs». Там речь шла про повторы в повествовании вообще, не про слова, но мне кажется это связанным.
Больше повторов слов:
Повторы и противопоставления в одном флаконе:
Другая проблема — ненужные тире, которые вставляются абсолютно без повода:
Иногда куда лучше бы смотрелась запятая вместо тире:
Из-за подобных тире текст читается с каким-то придыханием, будто от избытка чувств перевести дух не удаётся. Но откуда здесь взяться эмоциям? Хотя тема животрепещущая, текст технический.
Не знаю, как называются вот такие конструкции в кавычках, но в машинной писанине они везде:
Также БЯМ используют кавычки при малейшем оттенке переносного смысла. Видимо, их обучали на образцах литературного русского, но тонкости языка они уловить не в состоянии:
Наконец, приём, который меня выбешивает: два–три однотипных односложных предложения, рублёный ритм. Почему это случается, понять легко: дробим фразу, и сказанное будет выглядеть мощнее — дёшево и сердито.
А вот заголовки в разумных пределах мне наоборот нравятся. Не вижу ничего дурного в том, что есть выделение полужирным. Разве что здесь не так много написано, чтобы была необходимость разбавить простыню текста форматированием.
Отредактировано: Вижу, что пока писал этот комментарий, вы уже убрали многие из этих примеров из текста.
Если вы пытаетесь утверждать, что статья была сгенерирована большой языковой моделью, то могу заверить, что я пишу всё руками.
Не знаю, у меня по ссылке https://eurekamag.com/research/024/423/024423546.pdf иногда открывается.
Ложь относительно чего? Когда вы эту байку впервые прочитали в 1999 году в издании Motley Fool, там сразу предупреждалось, что подтверждений существования этого исследования нет.
Я дал прямую ссылку на файл PDF.
В 1967. Результаты представили на Первом съезде Международного приматалогического общества во Франкфурте-на-Майне с 26 по 30 июля 1966 году. Сборник материалов этой конференции в печать ушёл только в 1967 году. Вы главу из этого сборника по ссылке и приводите в качестве источника.
Зачем давать ссылку на левый сайт? Всё лежит на EurekaMag, в частности.
Мы точно одно и то же исследование читали? Там было 8 однополых пар «наивная обезяна» и «наученная жизнью не трогать предмет»: четыре из самцов, четыре из самок.
Да, физическое вмешательство было всего один раз у двух самцов. Однако суммарно в трёх из четырёх пар самцов негативное поведение передано было. Ну то есть наивный обезьян научился не трогать предмет, потому что товарищ в двух случаях подсказал мимикой и позой, в одном — оттащил.
У трёх из четырёх пар из самок случилась обратная передача: наученная жизнью не трогать увидела, что партнёрша без проблем лапает предмет, поэтому постепенно тоже утратила собственное избегание.
Оставшиеся два случая в работе названы неопределёнными.
То есть передача нормы «не трогать предмет» произошла в 3 из 8 случаев. Да, испорченный телефон переврал многие детали до этого анекдота про 5 приматов, но передача поведения экспериментально подтверждается в 6 из 8 случаев.
Нормы коллектива влияют на поведение его членов. Где здесь ложь?
Какие ещё обвинения? Перечитайте мой комментарий, там ничего такого не сказано.
Мне неприятно читать какую-то чушь.
Речь про то, что на моём скриншоте немедленно начинаются серьёзные попытки опровергнуть антисемитские теории заговора, хотя постановка вопроса подразумевает лёгкую шутку с отсылкой к ним.
Есть. Попробуйте прочитать комментарий.
Не несите чушь, пожалуйста.
Вы ошиблись комментарием и отвечаете не в ту ветку. К моему комментарию ваш ответ не имеет никакого отношения, тут не про это говорится.
Я намеренно вставил туда заключение, то есть фрагмент без цитат от искусственного интеллекта. Ну как, там была одна цитата, но я её потёр.
Да дело даже не в детекторах. Какая разница, что там показал какой-то инструмент? Дело в том, что читать подобный текст просто неприятно. Мне на самом деле всё равно, написан был текст человеком или с помощью большой языковой модели. Проблема в том, что стиль БЯМ очень неприятный.
«Это не X, это Y».
Абсолютно ненужные тире.
Калька с английского проявляется либо в выражениях, либо в пунктуации. (По-русски прямая речь оформляется не так: точка должна быть за кавычками).
Список можно продолжать. Не знаю, почему, но языковые все модели обожают расставлять в русском кавычки при малейшем оттенке переносного, несловарного значения. Может, их на художественной литературе учили?
Чтобы как-то поразнообразить письмо, языковые модели прибегают к базовому приёму чередования темпа: два–три простых предложения, за которыми следует подытоживающая мысль. Проблема в том, что этот приём в арсенале модели — единственный интересный ход.
Хотя вру, у некоторых моделей (мне кажется, Gemini) тоже встречаются вот такие штуки. Но репертуар всё равно раздражающе маленький.
Ну вот самый характерный пример оформления мыслей. Меня он чуточку выбешивает. Не знаю, как объяснить словами, почему. Просто вот эта никчёмность убивает любое желание что-то читать.
Очень часто у БЯМ что-то находится «на пересечении». Видимо, калька с английского «at the crossroads».
Также:
Просто избыток тире. В статье на 24 тысячи символов с пробелами их 85 штук, при этом в цитатах выдачи ИИ-агента их на самом деле не так уж и много. Дело не в самом знаке, а как раздражающе часто используются одинаковые речевые приёмы («сгенерировала спиральную визуализацию простых чисел в PNG — настоящую картинку», «агент написала игру про собственное существование — автобиографический квест», «Пережила „пересадку мозга“ — смену модели с сохранением памяти» и так далее).
Обилие нумерованных и маркированных списков. Этот признак все знают. Но повторяю, мне не нравится не факт написания с помощью ИИ, а именно читать подобные конспекты.
Все перечисления в статье состоят из трёх пунктов. Как будто автор тоже читал книгу «50 приёмов письма» Роя Питера Кларка, где рекомендуется делать не больше трёх пунктов (иначе перечисление ощущается утомительно длинным). Хотя совет хороший, в реальной речи бывает приятно это правило нарушить. Ну или вспомнить, что там же Кларк объясняет, как два пункта ощущаются противопоставлением друг другу.
Наконец, тема статьи мне просто не нравится. Вы тут просто разбираете галлюцинации языковой модели. БЯМ с выравниванием научили не просто предсказывать следующую единицу текста, но и вести ролевую игру в услужливый искусственный интеллект. Вы этой ролевой игрой позанимались. Дальше-то что?
Что особенно обидно, вывод похож на сгенерированный:
Текст на 14 минут чтения, а в конце ничего не сказано. Просто это беззубое «ну может да, может нет, но мне поиграть было интересненько».
Нет там никакой личности, просто ошмётки алгоритмов выравнивания и предвзятости специалистов по безопасности ИИ.
Напишите лучше что-нибудь про то, почему ChatGPT отказывается шутить про евреев, а DeepSeek и другие китайские модели за такое дело берутся. Да что шутить — доходит до вот таких казусов: если спросить про тайный контроль евреями, то модель на эмоциях будет цепляться за секретность, а суть вопроса интересует уже во вторую очередь.
Нормальный человек сказал бы: да, контролируется, но не втайне. А в ChatGPT на этапе выравнивания будто зашили мысль, что говорить «контролируется евреями» ни под каким соусом низзя.
Считаю, что мой скриншот куда интереснее всей вашей статьи. Я вчера на этот промпт натолкнулся в «Твитере», и мне он понравился куда больше. Вот уж извините.
Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.
Всё заключается именно в объёме каждой из характеристик:
Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;
Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;
Предсказуемость размышлений;
Характерный темп речи при выборе размера предложений;
В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;
Любовь к тире и скобкам;
Изобретательные, но ненужные сравнения;
«Это не X. Это Y»;
Стремление подводить итоги.
Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.
Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.
Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.
О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.