Pull to refresh

Comments 71

...Очепятки в тексте репортить, или они там специально наставлены, чтоб на АИ непохоже было? )

В тексте есть —, так что очевидно ИИ.

Коммент брадобрея!)

Ага, особенно там где примеры с ИИ явные

Нет, но если зарепортишь или укажешь, буду крайне признателен!

Нет, но душнила, много помнит но мало знает… :)

Вы можете тысячу раз рассказывать ему о себе и своих предпочтениях, но он никогда не сделает выводов на будущее. Каждый раз всё начинается заново, без учёта прошлых разговоров - только сейчас и здесь.

Ну ерунда же - для этого есть кнопка "начать новый чат". Если продолжать диалог в рамках одного чата - помнить будет (но может и забыть вдруг). Это же специально сделано, чтобы контекст не терялся.

Работа LLM хорошо демонстрируется старой игрой Акинатор

Нет! Внешний "вау-эффект" похож, но "под капотом" совсем другое. Я специально просил сравнить. Акинатор - это алгоритмизация, нейросетки работают принципиально иначе. Более того - ДипСик предложил попробовать сыграть в Акинатор на его вычислительных мощностях, чтобы сравнить - в итоге пшик! Топчется на одном месте, частенько игнорирует ответы и повторяется... Только случайно один раз получилось угадать (перебирал всё подряд, да ещё и с ошибочной интерпретацией вводных)

  • В тексте нет опечаток, пропущенных запятых или других мелких ошибок

Любой спеллчекер в любом поле ввода вам сейчас пометит ошибки. Запятые не пометит, но с запятыми и нейросети облажаются - гарантирую! ;)

Ну ерунда же - для этого есть кнопка "начать новый чат". Если продолжать диалог в рамках одного чата - помнить будет (но может и забыть вдруг). Это же специально сделано, чтобы контекст не терялся.

Вы правы что всегда можно запустить новый чат, но потребуется начинать сначала. Опять таки я говорю про первычный промт и то как работает шорт память и контекстное окно. Контекст вполне себе конечен

Вы правы что всегда можно запустить новый чат, но потребуется начинать сначала.

UPD: Не потребуется. Только что выяснил, что ChatGPT без спроса передаёт контекст из других чатов в рамках одного профиля и при это сам не понимает как это происходит))

Короче OpenAI следит за вами и цепляет ваше био к каждому чату...

Не передает напрямую контекст, часть метаданных и есть long-therm memory, но это немного другое. Опять таки я писал для обывателя, с легкой привязкой к chatgpt как к самому понятному. Но в условном grok это так явно не прокатит, особенно на локальных моделях квена

Работа LLM хорошо демонстрируется старой игрой Акинатор

Я не говорил что это так работает и что акинатор LLM. Я специально писал статью рассчитанную скорее на обывателей, а не гиков. Акинатор не было чем аналогия, причем дурацкая, но тем не менее уместная

Любой спеллчекер в любом поле ввода вам сейчас пометит ошибки. Запятые не пометит, но с запятыми и нейросети облажаются - гарантирую! ;)

Пометит простые ошибки и когда нет двусмысленности. Удачи с определяющими предложениями

А автор ни разу не пробовал просить модели сгенерировать текст в каком нибудь стиле ? Мне, например, нравится составлять краткие рассказы (или описывать канву сюжета) а потом просить deepseek написать/переписать в стиле какого нибудь писателя (почему то чатгпт в этой ипостаси не так хорош).

Очень классно получается. Сомневаюсь, что автор отличит такие тексты от написанных человеком. Если же просто написать запрос, то да, в ответе часто торчат ухИИ .

А автор ни разу не пробовал просить модели сгенерировать текст в каком нибудь стиле ?

Я давненько использую LLM и погружаюсь в них постоянно. Да, на первый взшляд красиво. Говно-луп (простите за выражение) нейроконтента уже раскрутился и я лично все больше и больше триггерюсь об него и привыкаю отличать

Если для вас вполне достаточно таких результатов, окей, значит пост просто не под ваш запрос

просто действительно, я в ваших примерах не вижу ничего такого что современные сети могли бы обойти. Реально попробуйте чтобы кто нибудь устроил вам слепой тест.

Я не давал специально такие примеры и в целом не давал примеры. Я лишь демонстрировал наглядно в чем отличие и особенности. Если вы считаете что на таком не ломается генерация и LLM не испытывают трудности (кидаться кучей статей не буду), хорошо!

Я не горжусь своими опечатками, ровно наоборот, и всячески, совершенно впрочем безуспешно, пытаюсь от них избавляться. Но, похоже, они - многочисленное единственное, что позволяет заподозрить в моих всегда и без исключения вручную написанных текстах неиишное происхождение. В отличие от "настоящих" (кстати, такие кавычки автозаменяются на упавший на бок Citroen в текстовых процессорах вроде MS Word, например, равно как дефисы заменяются на тире и тому подобные автозамены там присутствуют в ассортименте) литераторов, для меня это хобби, а любимый жанр - срач в каментах короткие повествования на околотехнические темы. Поэтому мне неинтересно перекладывать свое хобби на автоматику - смысл хобби в том, что это нравится делать самому, а не в том, имеет ли это какой-то практический смысл и осязаемую пользу. Когда этого вашего AI еще и не планировалось, кроме как в мечтах визионеров-фантастов, я уже использовал такие приемы форматирования текста, как

  • список из одного пункта

Поэтому меня уже несколько раз с категорической уверенностью обвиняли в том, что это не я пишу, а Искусственный Идиот. Спешу всех успокоить - естественных идиотов пока что еще 95%, то есть хватит их еще надолго, замена на искусственных идиотов не более чем поцстраховка на отдаленное будущее.

Добавят постпрцессинг с добавлением рандомных опечаток и всё, вы ничем уже не докажете, что вы челвоек :)

Текст выше собран мной, описан, добавлены примеры и тд. Но финальная вертска и заполнение 30% воды связками работа AI. Ну и естественно постпроцессинг. Но я лично так тексты пишу иногда даже дольше, но это чуть менее ресурсозатратно. Голый текст от AI без семантики, тезисов, примеров и кучи чего еще мне совесть не позволяет катить

Прекрасно понимаю, я даже как-то слегка стал гордиться легкой безграмотностью

В открытом доступе есть сайты, которые анализируют переданную картинку и сообщают, реальное это фото или сгенерировано ИИ и какой там процент сгенерированности. Есть ли подобные сервисы для текста? Всякие антиплагиаты похожесть и уникальность проверяют, сгенерированные с разными сидами текста должны быть "уникальными", но вот можно ли их математически как-то распознать как сгенериованные?

Для текста навалом. https://uncheck.ai/ https://www.zerogpt.com/ и сам gpt умеет. Правда как не странно лучше всего распознает claude 4.0 , мне даже анализ моих статей выкатывали тут на хабре, очень хороший технический анализ

А зачем? В чем принципиальная разница между ИИ и кожаным мешком, которому надо срочно высрать пару килобайт, чтобы закрыть ки-пи-ай за текущий месяц и получить свою пайку? Что одного читаешь, что другого, лишь невообразимая скука, полнейшая предсказуемость, одни и те же клише, один и тот же набор примитивных манипуляций, и нулевой смысловой поток по контуру сгенерированной халтурки. И тот и другой -- языковые модели, разница лишь в хардвэре, на котором они шуршат, и потребляемой мощности

Ну если для вас все вокруг генераторы бессмысленного текста, которые не дает вам ничего нового - что ж полагаю для вы уже слишком преисполнились

для вас все вокруг генераторы бессмысленного текста

Осторожно предположу, что ваш собеседник говорил не про не только лишь все, а про неопределенно значимый процент бессмысленного и беспощадного "копирайтинга", состоящего из, позвольте аллегорию, грязной, непригодной для питья воды, чуть более чем полностью. Про тот псевдоинформационный мусор, которыми неряшливо, как мусорные баки возле жилых домов в "дешевых" спальных районах, набиты довольно многие сайты ради повышения своего рейтинга в поисковой выдаче.

Возможно, я пишу беззлобно. Для меня лично 95% текста про управление тоже уже сливается и нахожу бессмысленным. Либо это одно и то же, либо просто пустое, без глубины

Если топикстартер имел в виду именно то, о чем вы упомянули, то я полностью с ним согласен. Однако в моем случае я не пишу пустое и иногда даже трачу слишком много времени на контент. Правда который потом не особо оправдывается к сожалению, ибо оказывается никто не любит тратить ресурс на погружение

Однако в моей случае это не так, поэтому я пишу. Я ничего оголтело не продаю, я не маркетолог или СММщик. Может блоггер по мелочи. Сейчас мы с ребятами энтузиастами тестируем гипотезу нужен ли рынку вменяемый курс, при этом мы не готовы выставлять себя инфоцыганами и писать кучу одинаковых и безликих текстов

Тем более эта статья заняла 7+ часов моего времени и некоторым в окружении была полезна

Простите, немного потерялся, поэтому подскажите пожалуйста, к чему этот комментарий?

В чем принципиальная разница между ИИ и кожаным мешком

Не, даже разжую - в чём конкретно ваша претензия к "авторству ИИ"? Т.е. если это настолько похоже на человека, то есть ли вам вообще разница - человек это писал или нейросеть?

И нет, я не адресую этот вопрос конкретно вам (для меня лично пока есть разница - к "человеческой генерации" у меня доверия побольше), я просто попытался переформулировать исходный коммент проще.

Не совсем понял вопрос к топикстартеру или мне, но отвечу. Для меня есть разница пока текст от AI не дает мне пользы. Мне и человеческие то редко ее дают, правда

Кстати да, ещё до появления чат-ботов в текущем виде, интернет был завален статьями копирайтеров. У меня ощущение, что с заменой кожаных мешков на бездушные машины ляпов стало меньше, стилистика текстов стала лучше.
Какие минусы, помимо того, что часть кожаных мешков потеряло заработок?

Статьи копирайтеров ладно, но неужели вы не замечаете как все вокруг вас пишут не сами текста и иногда просто выдают написанное условным copy.ai?

Конечно можно, я по статье как раз описывал все эти математические моменты про длину предложений, расположение пауз, спетецен дисперсии и тд

Для текстов есть. Но возникает сложность:
- русский язык популярные ресурсы не умеют распознавать
- разные сервисы используют разные алгоритм и дают разные оценки
- я тестировал на свое тексте (написанный мной) - сервис говорили, что 40-60% сгенерировано AI (особенно, если это портянка или повторяемый структурированный текста)

Поэтому, как и с genai - нужно использовать много других вариантов и все еще принимать решение самостоятельно

Подозреваю, что для всяких бюрократических документов будет большой процент сгенерированности показывать. Там принято лить воду неестественным для нормальных человеков языком и фразеологические обороты нечеловеческие использовать. Не удивлюсь, если даже ИИ перейдёт в спящий режим уже на половине документа.

Ахахх, возможно. Но все же основной фактор того что текст писан не человеком - это линейное структурное выверенное симметричное чистое повествование

Grok кстати, хорошо знает юридическую базу. И опять же, ниша которую вы указали, это прям очень специфическая. Есть база с юридическими кейсами, где вылезло, что использовали GenAI для подбора фактов (ложных :))

Ну для такого нужен все таки хороший RAG с очень жестким guardrails и фулл покрытый тестами после десятков жестких бенчмарков. А не как поступилии недавно с делом Кеннеди

А что с делом Кеннеди произошло?

 русский язык популярные ресурсы не умеют распознавать

Ну что значит не умеют. Я конечно даже не пытаюсь использовать аля yandexgpt, слишком меня печалит ее работа. Однако даже машинописный перевод условного Qwen отлично работает, особенно если файнтюнить на паре сотен твоих сообщений. Компилятивно конечно, но гораздо лучше чем в лоб генерит все остальное, даже с точки зрения идиосинкразии

Используй giga chat! Он лучше в текстах на русском )

Меня все его тесты крайне печалили и особенно то насколько слаб его ризонинг, даже не пытаюсь откровенно говоря его всерьез воспринимать

не, в reasoning он не умеет еще. Но сгенерировать текст, похожий на русский - вполне справляется

А, без? Что ж, я не изучал глубоко, меня РФ модели пока мало интересуют

разные сервисы используют разные алгоритм и дают разные оценки

Естественно. Поэтому я не привожу конкретный совет где писать, чем проверять и тд. Использовал ChatGPT лишь как популярную аналогию. Как-никак статья рассчитана на обывателя и я хочу на пальцах донести как это работает и почему

Вы который раз пишете про обывателя, но мы же на хабре, тут илита

P.S. в каждой шутке есть доля шутки

Полагаю раз читаю, обсуждают, значит кому-то надо. Естественно не так сильно надо как например статьи @vital_pavlenko, но все же

я тестировал на свое тексте (написанный мной) - сервис говорили, что 40-60% сгенерировано AI (особенно, если это портянка или повторяемый структурированный текста)

Да, потому что судя по твоим постам ты грамотный структурированный душнила обученный логическим конструкциям и привыкший писать равномерный текст без эмоций сугубо профессиональным сленгом. Это действительно похоже на отпечатки AI. Но все же ты пишешь потоково

Материал сильно смахивает на продукт ИИ, несмотря на множественные очевидные пропуски запятых. Читать не стал :(

Материал сделан лишь с точки зрения наполнения водой ИИ, а так мой. Рекомендую почитать хотя бы раздел с практикой, он достаточно занятный

У вас важный комментарий. Поделитесь признаками, которые указывают на ИИ-сгенерированный текст?

Много повторов одной и той же мысли в разных формулировках.

Речь про начало с теорией? Там да, я ее несколько раз по разному разжевываю

Если у вас есть предложение как исправить или просто можете указать почему что-то не очень и где, я буду рад поправить!

Но все же текст в основном (больше 80%) написан мной. Я очень компилятивно пишу текста. Я сперва собираю тезисную структуру, пишу драфты фраз и потом отдельно наполняю каждый раздел. У меня начинаются проблемы со связкой и переходами. А еще я малость малограмотный. Поэтому я решаю эти вопросы gen ai

Про правильные кавычки «“…”» (или «„…“») и разные виды тире (— и –) прямо «обидно» было. После во многом просветительской работы Артемия Лебедева по типографике и давней доступности русской раскладки Ильи Бирмана можно лишь сожалеть, что ещё не все это освоили, а ещё удивляться, что теперь типографски правильный русский или иноязычный текст будет (или может) выглядеть для кого-то как сгенерированный.

Хотя не все так пишут, конечно, и применение знаков при написании может меняться в зависимости от цели (как то: статья в журнал или быстрое сообщение в чат), но всё же, думаю, что перечисленные Вами особенности использования верных знаков никак не будут являться показателем генерации от LLM для тех, кто привык писать по правилам. А вот смешивание одного и другого, или такой стиль от того, кто не умеет этим пользоваться, вполне может косвенно на что-то указывать. Как и сейчас можно различить текст из Википедии по ударениям в словах или увидеть вставку в текст по отличающемуся форматированию вставки.

Соглашусь. «“…”» (или «„…“») и разные виды тире (— и –) это больше про один из типичных маркеров , не означает что это единственный и верный маркер. Но если сложить +- большинство особенностей, то можно достаточно безошибочно судить о том что писал gen ai

Недавно была исследовательская публикация о человекофикации тестов от ллм: https://arxiv.org/pdf/2506.07001v1

Говорят прям хорошо работает

На английском, разумеется

Ого, спасибо, как-то не думал про связку детектор <-> перефразировщик LLM. Очень жестко обходит детекторы. Но думается текст от этого лучше не становится

Специально использовать неправильный символ «-» только потому ChatGPT использует правильный — это конечно сильно 😄 Давайте теперь ещё и слова начнем писать с ошибками по этой же причине

Согласен, это достаточно нелепо, однако действительно триггерит людей

Давайте теперь ещё и слова начнем писать с ошибками по этой же причине

с ашипками же

Кстати, да, казаться лучше чем ИИ мы уже не можем (или скоро не сможем), остаётся только нарочито быть хуже ? 🤔

Ну да, всякий падонкаффский™ сленг, какое-то время назад бывший популярным в этих ваших интернетах - вполне пример.

Но не думаю что стоит писать на нем вразумительный контент

Наисанный чуть более чем полностью на луркоязе Лурк опровергает ваш тезис - многочисленные шикарные статьи по сугубо научным или техническим вопросам там часто полнее и понятнее, чем на педивикии.

Sign up to leave a comment.

Articles