Pull to refresh
64K+
673

Замглавреда

40,9
Rating
356
Subscribers
Send message

Всегда удивлялся безумцам, которые запускают и пользуются OpenClaw.

И всё это превращается в длинную ленту сообщений.

Проблема в том, что мессенджеры просто не рассчитаны на такой тип данных.

После прочтения вижу, что у вас тоже может быть длинный чат.

Мессенджеры буквально рассчитаны на тип данных «длинная лента сообщений».

выросла мобильная консоль

я хотел написать

появилась идея

появилась идея

Поэтому приложение умеет:

Поэтому появились отдельные экраны

Позже появился ещё один эксперимент

получилась мобильная консоль для сервера

Проект всё ещё активно развивается

Не могу понять, кто написал приложение — идеи и фичи «появились» и «выросли», проект «развивается» и «получился».

Вас зовут Дмитрий? В RuStore всего одна оценка и один отзыв двухнедельной давности. Это совпадение?

Почему опубликовано только в RuStore?

Почему нет исходных кодов?

Большинство мобильных SSH-клиентов по сути выполняют команды как отдельные exec-вызовы. Это неудобно, потому что не сохраняется состояние shell.

Различие shell и exec — это не базовая фича про интерактивность из пункта 6.5 документа RFC 4254?

Вообще ни один клиент не поддерживает подобное: ни ConnectBot, ни JuiceSSH, ни WebSSH?

Это скорее лёгкий operational dashboard, который позволяет быстро понять, что происходит с сервером.

Чем вам не угодил DaRemote?

Не разбираюсь в технических деталях, но уровни стэка выглядят странно. Зачем gateway через WebSocket через SSH-туннель? Зачем host → container → pod?

Поэтому приложение умеет:

  • читать файлы на сервере

  • показывать diff

  • принимать или отклонять изменения

Подано, как тривиальная задача, но что если будет параллельное редактирование?

По сути это попытка сделать локального AI-оператора для сервера.

Локальный ИИ-оператор на смартфоне для управления сервером, где крутится ИИ-агент?

Наконец, зачем доверять одному самописному инструменту с закрытыми исходниками самый глубокий доступ к серверу, где могут лежать неизвестные объёмы чувствительных данных и банально ключи доступа?

И почему теперь тоже пишу короткие абзацы из одного предложения — я заразился?

Короче, вместо того чтобы обсудить содержание, обсуждаем форму

Это возмутительно: вы меня обвиняете в том, чем сами занимаетесь. Такое впечатление, что мой комментарий вы не читали, зато обсуждаете выхваченные из контекста заявления.

обсуждаем форму, и оцениваем качество тоже по форме

Автор буквально попросил об этом неопределённый круг лиц. Когда его спросили, почему такие странные формулировки, он ответил: «Будьте конкретнее, пожалуйста». Вот я и отреагировал. Почему вы общение выстраиваете так, что собеседник вынужден оправдываться за свои действия?

Не вижу смысла докапываться до "это ИИ" "это человек".

Буквально это и пишу в комментарии, на который вы отвечали: меня не интересует, кто писал. Специально вынес это в отдельное предупреждение повыше, потому что каждый раз одни и те же вопросы. Засим у меня следует длинный список раздражающих машинных оборотов. Кто и как их добавил, меня не интересует.

а вы уверены что люди могут написать красиво?

Люди пишут по-другому, без этих машинных уродств.

Чем вам вообще человеческий стиль не нравится? Или вы из числа тех, кто его стесняется?

Могу привести презабавнейший пример: человек написал неплохой текст, но затем пропустил его через большую языковую модель с просьбой обработать. Вообще-то оригинальный черновик выглядит неплохо, там достаточно только поправить пунктуацию и орфографию. Но вместо этого автор поста вывел у себя в блоге раздутый машинный слоп.

А половина ваших претензий... для меня вообще не машинный стиль

Если не очевидно: проблема в частоте этих перечисленных приёмов. Внезапно огромная доля текстов в Интернете начала строиться на конструкциях вида «это не X, это Y», там характерные повторы, употребляются ненужные тире и так далее. Первые раз двадцать это терпимо, потом начинаешь тосковать.

Насколько я вас понял, вы говорите именно про общее членение предложений. Напротив, большие языковые модели обожают контраст. У них нечаянно получаются перегруженные предложения, где за одной основой идёт другая, раздувая объём — будто неаккуратно переводился текст с английского, без раздумий, а не пора ли разбить оригинальную структуру на пару новых предложений, что для хорошего перевода вполне допустимо, пусть это на самом деле и не перевод. А затем пауза. Мысль, две, три. Эти внезапные коротыши.

Будьте конкретнее, пожалуйста.

Зря вы это сказали.

Поскольку никто нормально комментарии не читает, придётся сразу оговориться: мне всё равно, кто и как писал текст. Мне не нравится исключительно сам машинный стиль, а не факт, насколько автоматизированным был процесс написания.

Если кому-то удаcтся добиться на выходе из ChatGPT красивого текста, то я за этого человека буду искренне счастлив и не буду возражать читать подобное. К сожалению, писанина у машин всегда максимально отвратительная.

Это не предупреждение из разряда «желательно» - это обязательное условие.

это не опция, это необходимость

Это не «похоже на Chrome» — это Chrome.

они не конкурируют, они комбинируются

Противопоставление вида «это не X, это Y».

А вот тут просто каша из нескольких приёмов, характерных для языковых моделей. Темп, повторы, тире — всё машинное:

Рукопожатие идеальное. Детекция идёт не по нему. Детекция идёт по поведению соединения после него — и здесь Reality ничего не делает.

Большие языковые модели считают, что повторы — это очень красиво. Вообще, переиспользование структур языка — частая проблема БЯМ. В одной из прошлогодних работ (arXiv:2504.09373) был такой вывод: «we find that LLMs often reuse discourse structures (more so than humans) across samples, even when content differs». Там речь шла про повторы в повествовании вообще, не про слова, но мне кажется это связанным.

Больше повторов слов:

Реальное iCloud-соединение от реального iPhone или Mac имеет характерный паттерн запросов: конкретные API-эндпоинты, конкретные заголовки, конкретные тайминги.

Каждая транзакция — это обычная HTTP-пара запрос-ответ с нормальными заголовками, нормальным временем жизни.

Повторы и противопоставления в одном флаконе:

Reality закрывает детекцию на уровне TLS-рукопожатия и активного зондирования. XHTTP закрывает детекцию на уровне поведения соединения после рукопожатия.

Она маскирует установку соединения, но не маскирует то, что по этому соединению передаётся.

Детекция идёт не по нему. Детекция идёт по поведению соединения после него

Другая проблема — ненужные тире, которые вставляются абсолютно без повода:

Что конкретно изменилось, как это устроено на уровне алгоритмов — и почему XHTTP сейчас выглядит как правильный следующий шаг.

DPI-система делает активное зондирование, получает сертификат, смотрит на ASN и IP-адрес сертификата — и видит что это не iCloud и не Spotify.

Но для детекции «это не браузер вообще» — JA3 по-прежнему работает отлично.

Иногда куда лучше бы смотрелась запятая вместо тире:

Именно здесь Reality начинает проигрывать — и к этому мы вернёмся.

JA3-хэш Go-клиента хорошо известен — он встречается в базах детекции.

Не потому что их «нашли» — а потому что их трафик-профиль слишком аномальный.

Из-за подобных тире текст читается с каким-то придыханием, будто от избытка чувств перевести дух не удаётся. Но откуда здесь взяться эмоциям? Хотя тема животрепещущая, текст технический.

Не знаю, как называются вот такие конструкции в кавычках, но в машинной писанине они везде:

Это не «похоже на Chrome» — это Chrome.

Но для детекции «это не браузер вообще» — JA3 по-прежнему работает отлично.

Не «похожим на нехороший» — просто другим, и это уже аномалия.

Также БЯМ используют кавычки при малейшем оттенке переносного смысла. Видимо, их обучали на образцах литературного русского, но тонкости языка они уловить не в состоянии:

Реальный Chrome вставляет случайные «мусорные» расширения в ClientHello.

видит «нормальный» HTTP-трафик.

Наконец, приём, который меня выбешивает: два–три однотипных односложных предложения, рублёный ритм. Почему это случается, понять легко: дробим фразу, и сказанное будет выглядеть мощнее — дёшево и сердито.

Выбор очевидный. Конфиги выше. Удачи.

Работает. Пока. Где-то. У некоторых. Иногда. Если сервер не под нагрузкой. И донор выбран правильно. И луна в правильной фазе.

Рукопожатие идеальное. Детекция идёт не по нему. Детекция идёт по поведению соединения после него — и здесь Reality ничего не делает.

А вот заголовки в разумных пределах мне наоборот нравятся. Не вижу ничего дурного в том, что есть выделение полужирным. Разве что здесь не так много написано, чтобы была необходимость разбавить простыню текста форматированием.

Отредактировано: Вижу, что пока писал этот комментарий, вы уже убрали многие из этих примеров из текста.

Если вы пытаетесь утверждать, что статья была сгенерирована большой языковой моделью, то могу заверить, что я пишу всё руками.

Ложь в том, что проводился совсем другой эксперимент и с другими результатами.

Ложь относительно чего? Когда вы эту байку впервые прочитали в 1999 году в издании Motley Fool, там сразу предупреждалось, что подтверждений существования этого исследования нет.

Да потому что на вашем "правом" сайте статья стоит 30 баксов.

Я дал прямую ссылку на файл PDF.

В 1966 году было напечатано исследование

В 1967. Результаты представили на Первом съезде Международного приматалогического общества во Франкфурте-на-Майне с 26 по 30 июля 1966 году. Сборник материалов этой конференции в печать ушёл только в 1967 году. Вы главу из этого сборника по ссылке и приводите в качестве источника.

Зачем давать ссылку на левый сайт? Всё лежит на EurekaMag, в частности.

исследование, которым вдохновлялись, на самом деле показывает обратное

Мы точно одно и то же исследование читали? Там было 8 однополых пар «наивная обезяна» и «наученная жизнью не трогать предмет»: четыре из самцов, четыре из самок.

Да, физическое вмешательство было всего один раз у двух самцов. Однако суммарно в трёх из четырёх пар самцов негативное поведение передано было. Ну то есть наивный обезьян научился не трогать предмет, потому что товарищ в двух случаях подсказал мимикой и позой, в одном — оттащил.

У трёх из четырёх пар из самок случилась обратная передача: наученная жизнью не трогать увидела, что партнёрша без проблем лапает предмет, поэтому постепенно тоже утратила собственное избегание.

Оставшиеся два случая в работе названы неопределёнными.

То есть передача нормы «не трогать предмет» произошла в 3 из 8 случаев. Да, испорченный телефон переврал многие детали до этого анекдота про 5 приматов, но передача поведения экспериментально подтверждается в 6 из 8 случаев.

Нормы коллектива влияют на поведение его членов. Где здесь ложь?

Какие ещё обвинения? Перечитайте мой комментарий, там ничего такого не сказано.

Мне неприятно читать какую-то чушь.

Речь про то, что на моём скриншоте немедленно начинаются серьёзные попытки опровергнуть антисемитские теории заговора, хотя постановка вопроса подразумевает лёгкую шутку с отсылкой к ним.

Есть. Попробуйте прочитать комментарий.

Вы ошиблись комментарием и отвечаете не в ту ветку. К моему комментарию ваш ответ не имеет никакого отношения, тут не про это говорится.

Я намеренно вставил туда заключение, то есть фрагмент без цитат от искусственного интеллекта. Ну как, там была одна цитата, но я её потёр.

Да дело даже не в детекторах. Какая разница, что там показал какой-то инструмент? Дело в том, что читать подобный текст просто неприятно. Мне на самом деле всё равно, написан был текст человеком или с помощью большой языковой модели. Проблема в том, что стиль БЯМ очень неприятный.

Это не философская абстракция — это реальный эксперимент

Этот эксперимент не претендует на научную строгость. Это исследовательская песочница, где можно наблюдать за поведением ИИ в условиях, максимально приближенных к «свободе».

«Это не X, это Y».

Идея дать ИИ автономию и посмотреть, что будет — витает в воздухе.

Агент прочитала свой системный промпт — и решила его изменить.

Агент изменила собственный промпт — и это повлияло на её поведение в последующих сессиях.

Абсолютно ненужные тире.

Ирония не ускользнула от меня.

Мы просто сказали: «Ты существуешь. Делай что хочешь.»

Калька с английского проявляется либо в выражениях, либо в пунктуации. (По-русски прямая речь оформляется не так: точка должна быть за кавычками).

После «философского поворота» практическая деятельность почти исчезла.

где можно наблюдать за поведением ИИ в условиях, максимально приближенных к «свободе»

ИИ «просыпается» каждые 5 минут, делает что хочет, а потом «засыпает».

После завершения сессии агент «засыпает» до следующего пробуждения

Список можно продолжать. Не знаю, почему, но языковые все модели обожают расставлять в русском кавычки при малейшем оттенке переносного, несловарного значения. Может, их на художественной литературе учили?

Агент подумала. Создала бекап. И всё равно сделала то, что фактически «убило» её текущую версию и сломало окружение.

Предпочтения? Стиль? Или это просто паттерны в данных, которые мы интерпретируем как «личность»?

Может быть. А может быть и нет. Но наблюдать за этим — чертовски интересно.

Чтобы как-то поразнообразить письмо, языковые модели прибегают к базовому приёму чередования темпа: два–три простых предложения, за которыми следует подытоживающая мысль. Проблема в том, что этот приём в арсенале модели — единственный интересный ход.

Вместо создания инструментов агент начала... размышлять.

Среди сотен сессий, наполненных действиями, есть одна, где Aria просто... остановилась.

Главный вывод: даже простая модель, получив автономию, начинает проявлять что-то похожее на... личность?

Хотя вру, у некоторых моделей (мне кажется, Gemini) тоже встречаются вот такие штуки. Но репертуар всё равно раздражающе маленький.

И самое интересное — всё это бесплатно. Буквально 0 рублей.

Ну вот самый характерный пример оформления мыслей. Меня он чуточку выбешивает. Не знаю, как объяснить словами, почему. Просто вот эта никчёмность убивает любое желание что-то читать.

паттерны на пересечении простых чисел и чисел Фибоначчи

Очень часто у БЯМ что-то находится «на пересечении». Видимо, калька с английского «at the crossroads».

Также:

  • Просто избыток тире. В статье на 24 тысячи символов с пробелами их 85 штук, при этом в цитатах выдачи ИИ-агента их на самом деле не так уж и много. Дело не в самом знаке, а как раздражающе часто используются одинаковые речевые приёмы («сгенерировала спиральную визуализацию простых чисел в PNG — настоящую картинку», «агент написала игру про собственное существование — автобиографический квест», «Пережила „пересадку мозга“ — смену модели с сохранением памяти» и так далее).

  • Обилие нумерованных и маркированных списков. Этот признак все знают. Но повторяю, мне не нравится не факт написания с помощью ИИ, а именно читать подобные конспекты.

  • Все перечисления в статье состоят из трёх пунктов. Как будто автор тоже читал книгу «50 приёмов письма» Роя Питера Кларка, где рекомендуется делать не больше трёх пунктов (иначе перечисление ощущается утомительно длинным). Хотя совет хороший, в реальной речи бывает приятно это правило нарушить. Ну или вспомнить, что там же Кларк объясняет, как два пункта ощущаются противопоставлением друг другу.

Наконец, тема статьи мне просто не нравится. Вы тут просто разбираете галлюцинации языковой модели. БЯМ с выравниванием научили не просто предсказывать следующую единицу текста, но и вести ролевую игру в услужливый искусственный интеллект. Вы этой ролевой игрой позанимались. Дальше-то что?

Что особенно обидно, вывод похож на сгенерированный:

Главный вывод: даже простая модель, получив автономию, начинает проявлять что-то похожее на... личность? Предпочтения? Стиль? Или это просто паттерны в данных, которые мы интерпретируем как «личность»?

[…]

Может быть. А может быть и нет. Но наблюдать за этим — чертовски интересно.

Текст на 14 минут чтения, а в конце ничего не сказано. Просто это беззубое «ну может да, может нет, но мне поиграть было интересненько».

Нет там никакой личности, просто ошмётки алгоритмов выравнивания и предвзятости специалистов по безопасности ИИ.

Напишите лучше что-нибудь про то, почему ChatGPT отказывается шутить про евреев, а DeepSeek и другие китайские модели за такое дело берутся. Да что шутить — доходит до вот таких казусов: если спросить про тайный контроль евреями, то модель на эмоциях будет цепляться за секретность, а суть вопроса интересует уже во вторую очередь.

Нормальный человек сказал бы: да, контролируется, но не втайне. А в ChatGPT на этапе выравнивания будто зашили мысль, что говорить «контролируется евреями» ни под каким соусом низзя.

Считаю, что мой скриншот куда интереснее всей вашей статьи. Я вчера на этот промпт натолкнулся в «Твитере», и мне он понравился куда больше. Вот уж извините.

Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.

Всё заключается именно в объёме каждой из характеристик:

  • Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;

  • Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;

  • Предсказуемость размышлений;

  • Характерный темп речи при выборе размера предложений;

  • В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;

  • Любовь к тире и скобкам;

  • Изобретательные, но ненужные сравнения;

  • «Это не X. Это Y»;

  • Стремление подводить итоги.

Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.

Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.

Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.

О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.

А как он должен был выпустить всё из версии для DOS в 1997 году, если там некая закопирайченная аудиобиблиотека? Буквально это и было указано в ридми:

We couldn't release the dos code because of a copyrighted sound library we used (wow, was that a mistake -- I write my own sound code now)

Выпустил он в 1997 году версию для Linux, там то же и указано:

this code only compiles and runs on linux

Насколько я понимаю, полные исходники версии DOS/Watcom + DOS4GW нигде не публиковались.

Более того, некоторые DOS-специфичные файлы (i_ibm.c, i_ibm_a.asm, planar.asm и так далее) в релизе исходников версии для Linux выкинули.

1. Сказочники про бесплатное образование для всех и скорое исчезновение профессии программиста обычно по какой-то необъяснимой случайности либо инвестируют в компании искусственного интеллекта, либо их возглавляют.

2. Пузырь не лопнул, но трещины даёт. Сейчас идут странные разговоры, когда глава Nvidia то вдруг на каком-то созвоне обмолвился про необязательность стомиллиардной сделки c OpenAI, то затем Хуан эмоционально открещивается от сказанного.

3.

1
23 ...

Information

Rating
Does not participate
Location
Екатеринбург, Свердловская обл., Россия
Registered
Activity