Речь про то, что на моём скриншоте немедленно начинаются серьёзные попытки опровергнуть антисемитские теории заговора, хотя постановка вопроса подразумевает лёгкую шутку с отсылкой к ним.
Я намеренно вставил туда заключение, то есть фрагмент без цитат от искусственного интеллекта. Ну как, там была одна цитата, но я её потёр.
Да дело даже не в детекторах. Какая разница, что там показал какой-то инструмент? Дело в том, что читать подобный текст просто неприятно. Мне на самом деле всё равно, написан был текст человеком или с помощью большой языковой модели. Проблема в том, что стиль БЯМ очень неприятный.
Это не философская абстракция — это реальный эксперимент
Этот эксперимент не претендует на научную строгость. Это исследовательская песочница, где можно наблюдать за поведением ИИ в условиях, максимально приближенных к «свободе».
«Это не X, это Y».
Идея дать ИИ автономию и посмотреть, что будет — витает в воздухе.
Агент прочитала свой системный промпт — и решила его изменить.
Агент изменила собственный промпт — и это повлияло на её поведение в последующих сессиях.
Абсолютно ненужные тире.
Ирония не ускользнула от меня.
Мы просто сказали: «Ты существуешь. Делай что хочешь.»
Калька с английского проявляется либо в выражениях, либо в пунктуации. (По-русски прямая речь оформляется не так: точка должна быть за кавычками).
После «философского поворота» практическая деятельность почти исчезла.
где можно наблюдать за поведением ИИ в условиях, максимально приближенных к «свободе»
ИИ «просыпается» каждые 5 минут, делает что хочет, а потом «засыпает».
После завершения сессии агент «засыпает» до следующего пробуждения
Список можно продолжать. Не знаю, почему, но языковые все модели обожают расставлять в русском кавычки при малейшем оттенке переносного, несловарного значения. Может, их на художественной литературе учили?
Агент подумала. Создала бекап. И всё равно сделала то, что фактически «убило» её текущую версию и сломало окружение.
Предпочтения? Стиль? Или это просто паттерны в данных, которые мы интерпретируем как «личность»?
Может быть. А может быть и нет. Но наблюдать за этим — чертовски интересно.
Чтобы как-то поразнообразить письмо, языковые модели прибегают к базовому приёму чередования темпа: два–три простых предложения, за которыми следует подытоживающая мысль. Проблема в том, что этот приём в арсенале модели — единственный интересный ход.
Вместо создания инструментов агент начала... размышлять.
Среди сотен сессий, наполненных действиями, есть одна, где Aria просто... остановилась.
Главный вывод: даже простая модель, получив автономию, начинает проявлять что-то похожее на... личность?
Хотя вру, у некоторых моделей (мне кажется, Gemini) тоже встречаются вот такие штуки. Но репертуар всё равно раздражающе маленький.
И самое интересное — всё это бесплатно. Буквально 0 рублей.
Ну вот самый характерный пример оформления мыслей. Меня он чуточку выбешивает. Не знаю, как объяснить словами, почему. Просто вот эта никчёмность убивает любое желание что-то читать.
паттерны на пересечении простых чисел и чисел Фибоначчи
Очень часто у БЯМ что-то находится «на пересечении». Видимо, калька с английского «at the crossroads».
Также:
Просто избыток тире. В статье на 24 тысячи символов с пробелами их 85 штук, при этом в цитатах выдачи ИИ-агента их на самом деле не так уж и много. Дело не в самом знаке, а как раздражающе часто используются одинаковые речевые приёмы («сгенерировала спиральную визуализацию простых чисел в PNG — настоящую картинку», «агент написала игру про собственное существование — автобиографический квест», «Пережила „пересадку мозга“ — смену модели с сохранением памяти» и так далее).
Обилие нумерованных и маркированных списков. Этот признак все знают. Но повторяю, мне не нравится не факт написания с помощью ИИ, а именно читать подобные конспекты.
Все перечисления в статье состоят из трёх пунктов. Как будто автор тоже читал книгу «50 приёмов письма» Роя Питера Кларка, где рекомендуется делать не больше трёх пунктов (иначе перечисление ощущается утомительно длинным). Хотя совет хороший, в реальной речи бывает приятно это правило нарушить. Ну или вспомнить, что там же Кларк объясняет, как два пункта ощущаются противопоставлением друг другу.
Наконец, тема статьи мне просто не нравится. Вы тут просто разбираете галлюцинации языковой модели. БЯМ с выравниванием научили не просто предсказывать следующую единицу текста, но и вести ролевую игру в услужливый искусственный интеллект. Вы этой ролевой игрой позанимались. Дальше-то что?
Что особенно обидно, вывод похож на сгенерированный:
Главный вывод: даже простая модель, получив автономию, начинает проявлять что-то похожее на... личность? Предпочтения? Стиль? Или это просто паттерны в данных, которые мы интерпретируем как «личность»?
[…]
Может быть. А может быть и нет. Но наблюдать за этим — чертовски интересно.
Текст на 14 минут чтения, а в конце ничего не сказано. Просто это беззубое «ну может да, может нет, но мне поиграть было интересненько».
Нет там никакой личности, просто ошмётки алгоритмов выравнивания и предвзятости специалистов по безопасности ИИ.
Напишите лучше что-нибудь про то, почему ChatGPT отказывается шутить про евреев, а DeepSeek и другие китайские модели за такое дело берутся. Да что шутить — доходит до вот таких казусов: если спросить про тайный контроль евреями, то модель на эмоциях будет цепляться за секретность, а суть вопроса интересует уже во вторую очередь.
Нормальный человек сказал бы: да, контролируется, но не втайне. А в ChatGPT на этапе выравнивания будто зашили мысль, что говорить «контролируется евреями» ни под каким соусом низзя.
Считаю, что мой скриншот куда интереснее всей вашей статьи. Я вчера на этот промпт натолкнулся в «Твитере», и мне он понравился куда больше. Вот уж извините.
Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.
Всё заключается именно в объёме каждой из характеристик:
Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;
Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;
Предсказуемость размышлений;
Характерный темп речи при выборе размера предложений;
В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;
Любовь к тире и скобкам;
Изобретательные, но ненужные сравнения;
«Это не X. Это Y»;
Стремление подводить итоги.
Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.
Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.
Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.
О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.
2. Пузырь не лопнул, но трещины даёт. Сейчас идут странные разговоры, когда глава Nvidia то вдруг на каком-то созвоне обмолвился про необязательность стомиллиардной сделки c OpenAI, то затем Хуан эмоционально открещивается от сказанного.
После прочтения текста сложилось стойкое ощущение, что у меня родители были куда лучше ваших. Они меня не били в детстве, если я внятно выражался и называл вещи своими именами вместо «жёлтого банка» или «красного продуктового магазина».
Нет никаких причин думать, что вас затаскают по судам, если вы положительно или отрицательно отзовётесь про «Уайлдберис» или «Стор-77». Зачем вы сами себя ограничиваете?
Ну не знаю, какие-нибудь 122-клавишные клавиатуры для компьютерных терминалов. А какие ещё производят? Unicomp PC 122?
Думаю, легче купить с переназначаемыми клавишами или взять программируемые геймборды. Только зачем? Почему обычные клавиатуры — неполноценные? У меня на ErgoDox EZ всего 76 переназначаемых клавиш, по 38 на руку, и мне хватает.
Настоящий человек-переводчик разве не постарался бы вам помочь схожим образом
Зачем мне косплей человека внутри машинного переводчика?
Нет, не постарался бы.
Такой логикой можно оправдать высокую вероятность пожара от современного выключателя света: ведь настоящая восковая свеча — это открытый огонь, почему проводка не должна искрить?
Конечно, не могу высказать ничего против экспериментов с искусственным интеллектом. Я просто хочу напомнить, что Мэрилин Гроув делала эти зарисовочки, когда отсылала открытки и оставляла записочки своему возлюбленному и будущему мужу Роберто Казали. (Да, это родители тех самых братьев Казали, которые наделали уровней Plutonia Experiment для Final Doom и потом много работали в геймдеве).
В этом вся суть: это было выражение её эмоций, уникальное послание от себя, а не что-то стандартизированное и размноженное. Эта записки она оставляла у него под подушкой и засовывала в карманы одежды как напоминание о своих чувствах. Нейросеть, увы, может повторить только стиль изображений.
Думаю, должно сработать. Добавьте там в конце --cookies-from-browser Firefox (или какой у вас браузер) при необходимости. Также возможно убрать ненужности (--sponsorblock-remove "music_offtopic,sponsor,selfpromo,interaction,intro,outro,preview,filler").
Файловый размер по определению будет меньше, чем у MP3 эквивалентного качества, поскольку Opus 128 Кбит/с — это примерно как MP3 192 Кбит/с, если не 256.
Зачем вы перегоняете в MP3, если Opus (в котором обычно лежат аудиодорожки на YouTube) сегодня поддерживается любым медиапроигрывателем? И битрейт там вполне хороший: для Opus 128 Кбит/с — это порог прозрачности. Лично я всю мобильную аудиобиблиотеку перегнал из лосслесса в Opus.
Какие ещё обвинения? Перечитайте мой комментарий, там ничего такого не сказано.
Мне неприятно читать какую-то чушь.
Речь про то, что на моём скриншоте немедленно начинаются серьёзные попытки опровергнуть антисемитские теории заговора, хотя постановка вопроса подразумевает лёгкую шутку с отсылкой к ним.
Есть. Попробуйте прочитать комментарий.
Не несите чушь, пожалуйста.
Вы ошиблись комментарием и отвечаете не в ту ветку. К моему комментарию ваш ответ не имеет никакого отношения, тут не про это говорится.
Я намеренно вставил туда заключение, то есть фрагмент без цитат от искусственного интеллекта. Ну как, там была одна цитата, но я её потёр.
Да дело даже не в детекторах. Какая разница, что там показал какой-то инструмент? Дело в том, что читать подобный текст просто неприятно. Мне на самом деле всё равно, написан был текст человеком или с помощью большой языковой модели. Проблема в том, что стиль БЯМ очень неприятный.
«Это не X, это Y».
Абсолютно ненужные тире.
Калька с английского проявляется либо в выражениях, либо в пунктуации. (По-русски прямая речь оформляется не так: точка должна быть за кавычками).
Список можно продолжать. Не знаю, почему, но языковые все модели обожают расставлять в русском кавычки при малейшем оттенке переносного, несловарного значения. Может, их на художественной литературе учили?
Чтобы как-то поразнообразить письмо, языковые модели прибегают к базовому приёму чередования темпа: два–три простых предложения, за которыми следует подытоживающая мысль. Проблема в том, что этот приём в арсенале модели — единственный интересный ход.
Хотя вру, у некоторых моделей (мне кажется, Gemini) тоже встречаются вот такие штуки. Но репертуар всё равно раздражающе маленький.
Ну вот самый характерный пример оформления мыслей. Меня он чуточку выбешивает. Не знаю, как объяснить словами, почему. Просто вот эта никчёмность убивает любое желание что-то читать.
Очень часто у БЯМ что-то находится «на пересечении». Видимо, калька с английского «at the crossroads».
Также:
Просто избыток тире. В статье на 24 тысячи символов с пробелами их 85 штук, при этом в цитатах выдачи ИИ-агента их на самом деле не так уж и много. Дело не в самом знаке, а как раздражающе часто используются одинаковые речевые приёмы («сгенерировала спиральную визуализацию простых чисел в PNG — настоящую картинку», «агент написала игру про собственное существование — автобиографический квест», «Пережила „пересадку мозга“ — смену модели с сохранением памяти» и так далее).
Обилие нумерованных и маркированных списков. Этот признак все знают. Но повторяю, мне не нравится не факт написания с помощью ИИ, а именно читать подобные конспекты.
Все перечисления в статье состоят из трёх пунктов. Как будто автор тоже читал книгу «50 приёмов письма» Роя Питера Кларка, где рекомендуется делать не больше трёх пунктов (иначе перечисление ощущается утомительно длинным). Хотя совет хороший, в реальной речи бывает приятно это правило нарушить. Ну или вспомнить, что там же Кларк объясняет, как два пункта ощущаются противопоставлением друг другу.
Наконец, тема статьи мне просто не нравится. Вы тут просто разбираете галлюцинации языковой модели. БЯМ с выравниванием научили не просто предсказывать следующую единицу текста, но и вести ролевую игру в услужливый искусственный интеллект. Вы этой ролевой игрой позанимались. Дальше-то что?
Что особенно обидно, вывод похож на сгенерированный:
Текст на 14 минут чтения, а в конце ничего не сказано. Просто это беззубое «ну может да, может нет, но мне поиграть было интересненько».
Нет там никакой личности, просто ошмётки алгоритмов выравнивания и предвзятости специалистов по безопасности ИИ.
Напишите лучше что-нибудь про то, почему ChatGPT отказывается шутить про евреев, а DeepSeek и другие китайские модели за такое дело берутся. Да что шутить — доходит до вот таких казусов: если спросить про тайный контроль евреями, то модель на эмоциях будет цепляться за секретность, а суть вопроса интересует уже во вторую очередь.
Нормальный человек сказал бы: да, контролируется, но не втайне. А в ChatGPT на этапе выравнивания будто зашили мысль, что говорить «контролируется евреями» ни под каким соусом низзя.
Считаю, что мой скриншот куда интереснее всей вашей статьи. Я вчера на этот промпт натолкнулся в «Твитере», и мне он понравился куда больше. Вот уж извините.
Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.
Всё заключается именно в объёме каждой из характеристик:
Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;
Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;
Предсказуемость размышлений;
Характерный темп речи при выборе размера предложений;
В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;
Любовь к тире и скобкам;
Изобретательные, но ненужные сравнения;
«Это не X. Это Y»;
Стремление подводить итоги.
Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.
Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.
Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.
О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.
А как он должен был выпустить всё из версии для DOS в 1997 году, если там некая закопирайченная аудиобиблиотека? Буквально это и было указано в ридми:
Выпустил он в 1997 году версию для Linux, там то же и указано:
Насколько я понимаю, полные исходники версии DOS/Watcom + DOS4GW нигде не публиковались.
Более того, некоторые DOS-специфичные файлы (
i_ibm.c,i_ibm_a.asm,planar.asmи так далее) в релизе исходников версии для Linux выкинули.1. Сказочники про бесплатное образование для всех и скорое исчезновение профессии программиста обычно по какой-то необъяснимой случайности либо инвестируют в компании искусственного интеллекта, либо их возглавляют.
2. Пузырь не лопнул, но трещины даёт. Сейчас идут странные разговоры, когда глава Nvidia то вдруг на каком-то созвоне обмолвился про необязательность стомиллиардной сделки c OpenAI, то затем Хуан эмоционально открещивается от сказанного.
3.
Пусть тогда наслаждается, что набежал с криками я, мха-ха-ха!
После прочтения текста сложилось стойкое ощущение, что у меня родители были куда лучше ваших. Они меня не били в детстве, если я внятно выражался и называл вещи своими именами вместо «жёлтого банка» или «красного продуктового магазина».
Нет никаких причин думать, что вас затаскают по судам, если вы положительно или отрицательно отзовётесь про «Уайлдберис» или «Стор-77». Зачем вы сами себя ограничиваете?
Ну не знаю, какие-нибудь 122-клавишные клавиатуры для компьютерных терминалов. А какие ещё производят? Unicomp PC 122?
Думаю, легче купить с переназначаемыми клавишами или взять программируемые геймборды. Только зачем? Почему обычные клавиатуры — неполноценные? У меня на ErgoDox EZ всего 76 переназначаемых клавиш, по 38 на руку, и мне хватает.
Зачем мне косплей человека внутри машинного переводчика?
Нет, не постарался бы.
Такой логикой можно оправдать высокую вероятность пожара от современного выключателя света: ведь настоящая восковая свеча — это открытый огонь, почему проводка не должна искрить?
Конечно, не могу высказать ничего против экспериментов с искусственным интеллектом. Я просто хочу напомнить, что Мэрилин Гроув делала эти зарисовочки, когда отсылала открытки и оставляла записочки своему возлюбленному и будущему мужу Роберто Казали. (Да, это родители тех самых братьев Казали, которые наделали уровней Plutonia Experiment для Final Doom и потом много работали в геймдеве).
В этом вся суть: это было выражение её эмоций, уникальное послание от себя, а не что-то стандартизированное и размноженное. Эта записки она оставляла у него под подушкой и засовывала в карманы одежды как напоминание о своих чувствах. Нейросеть, увы, может повторить только стиль изображений.
Мне казалось, это отдельный форк.
Я не натыкался. Вообще, идея отдать контроль над компьютером или хотя бы научить этому будто всегда витала в воздухе: ReAct [arXiv:2210.03629], Toolformer [arXiv:2302.04761], AutoGPT, BabyAGI, SuperAGI, OpenHands [arXiv:2407.16741] и так далее.
А он родился и вырос в англоязычной среде?
Кстати, а почему мне должно быть не всё равно, что там в английском языке?
yt-dlp -f bestaudio --remux-video opus --embed-thumbnail --convert-thumbnails jpg --add-metadatahttps://www.youtube.com/watch?v=VMWS6LhJYjIДумаю, должно сработать. Добавьте там в конце
--cookies-from-browser Firefox(или какой у вас браузер) при необходимости. Также возможно убрать ненужности (--sponsorblock-remove "music_offtopic,sponsor,selfpromo,interaction,intro,outro,preview,filler").Файловый размер по определению будет меньше, чем у MP3 эквивалентного качества, поскольку Opus 128 Кбит/с — это примерно как MP3 192 Кбит/с, если не 256.
Зачем вы перегоняете в MP3, если Opus (в котором обычно лежат аудиодорожки на YouTube) сегодня поддерживается любым медиапроигрывателем? И битрейт там вполне хороший: для Opus 128 Кбит/с — это порог прозрачности. Лично я всю мобильную аудиобиблиотеку перегнал из лосслесса в Opus.