Pull to refresh
624
5

Замглавреда

Send message

Это текст про самые простые методы выявления текстов от БЯМ. Писалось в пять предложений в чате для человека, который видел очевиднейшее творение ИИ, но ничего необычного не замечал. Затем объём немного разросся, и вот уже на чтение нужно минут десять. Возможно, кому-то ещё пригодится.

Я не сомневаюсь, что можно обмануть кого угодно, если постараться и подключить продвинутые техники промптинга, у названия которых даже перевода на русский нет. Но мне хотелось помочь выявить хотя бы самых ленивых копипастеров ChatGPT.

Кнопка превращения Хабра во что угодно находится в правом верхнем углу рядом с вашей аватаркой и носит название «Написать публикацию». Только написанием публикаций возможно определить облик Хабра.

Невозможно заставить остальных авторов что-то не делать. Внештатных модераторов Хабр, увы, не набирает. Эталона тематики тоже не завезли. У хабов есть только коротенькие текстовые описания, диапазон толкования которых широк. Поэтому бесплодны и бессмысленны все вот эти обсуждения уровня «сгиньте, вам на Хабре не место». Спорьте за тематику с модераторами, а не травите авторов — так хотя бы вероятность добиться желаемого выше.

На Хабре с самых первых дней были публикации на отвлечённые тематики. Дальнейшее развитие легко отследить по событиям. Производились попытки отделить от Хабра научпоп и развлекаловку, а позже — бизнес и менеджмент. Затеяли это всё десяток лет назад, но потом вернули обратно. Противники и критики были у каждой стадии отделения и слияния. Кто-то просил убрать часть хабов, кто-то требовал непременно вернуть офтоп на место.

Наконец, на Хабре читатель может вручную персонализировать ленту публикаций. Если вам так не нравится бизнес, лично я на вашем месте читал бы только выбранные хабы и попросил бы автора убрать хаб «Лайфхаки для гиков» у статьи. Остальные хабы касаются потока «Менеджмент».

Меня вообще озадачивает эта претензия про тематику. Никто не пользуется настраиваемой лентой, что ли? Почти никогда не вижу вопросов о выборе хабов у публикации — только требование не писать вообще.

Почему арестовали? Есть гораздо более простое и понятное объяснение.

Но я периодически делюсь подобными техническими тонкостями в коротких постах на своём Telegram-канале, поскольку формат Habr не всегда подходит для этого.

На Хабре уже больше года как заведён раздел «Посты», который буквально для таких коротких (до 1500 символов) публикаций и предназначен.

А в «Телеграме» у меня чат с мамой. С моей точки зрения, «Телеграм» для чтения и ведения блогов абсолютно не предназначен. Публикация в «Телеграме» выглядит как сообщение, нет возможности чередовать текст и изображения, есть куча разных ограничений, отсутствует РСС.

Зачем заводить и вести айтишные блоги в мессенджере, который ещё непонятно как индексируется поисковиками — загадка. С таким же успехом можно пытаться делиться опытом в «Снэпчате» или просить подписаться на аккаунт в «ТикТоке». Для меня каналы в «Телеграме» выглядят как очередное коллективное помешательство.

Например, одна кукла была феей с хрустальными крыльями.

Странно, мне казалось, что у Тируно крылья из кристаллов льда. Выглядит симпатично, разве что обычно на официальных артах и в косплее она босая.

Рейму тоже выглядит хорошо. Лично меня смущают чулки, которых в оригинале дизайнов не встречалось. Полагаю, тоже пожелание заказчика.

Переводчик-то тут при чём? Это вопрос автору оригинала:

It is well known that the sed and awk commands are Turing complete on their own

У меня нет никаких иллюзий, какой вывод будет у исследования биржи фриланса. Просто там это уж как-то совсем внаглую сделано, переход слишком откровенный — даже транслировать не хочется.

Это технически крайне тяжело. Детекторы существуют, но могут ошибаться. И вообще нужно правильно толковать их работу. К примеру, текст конституции США будет определён как результат генерации большой языковой модели по той простой причине, что БЯМ легко может процитировать этот документ.

Часто пытаются смотреть на ключевые слова и обороты, характерные для той или иной модели, структуру (некоторые БЯМ обожают разбивать всё на пункты) и общую грамматическую корректность текста.

Так они же фрилансеры?

Данных по фрилансерам из исследования я просто не приводил вообще. У «Апуорка» там какая-то забавная манипуляция вида «фрилансеры лучше штатников справляются с ИИ», которую мне транслировать кажется неинтересным и нечестным. Поэтому в новости есть результаты опросов только штатных работников и руководителей. В общем-то, не представляю, почему вы решили, что речь идёт по фрилансерах.

А вы что собирались увидеть-то? «Не понравилось, как выглядит и как влияет не производительность» размещено ещё до ката. Весь остальной объём посвящён объяснению, о чём эта фича вообще была. У меня ощущение, что вам (в отличие от меня) эта тема попросту глубоко неинтересна.

Языковая модель не знает, как она работает. Попробуйте ещё у неё спросить, как она отвечает на промпт. Начнётся полный бред «я планирую в несколько стадий, улучшаю, а только потом даю ответ», а не правильное «ничего не планирую, просто пытаюсь предсказать следующий токен по ходу генерации».

В данном случае модель расписывает понимание, как статистически наиболее вероятно понимался глагол «галлюцинировать». При этом модель несёт откровенный бред. Просто попробуйте вчитаться:

  • Сначала идёт утверждение, что БЯМ — это ИИ, поэтому галлюцинировать не может вовсе.

  • Затем модель обещает стараться не галлюцинировать. Странно. Зачем стараться избегать какого-то поведения, если физически на него не способен?

  • Под конец идёт попытка объяснить, почему галлюцинации возможны, и ещё одно обещание избегать галлюцинации.

    Кстати, здесь модель фактически признаёт, что галлюцинации неизбежны. Достаточно прочитать текст и задуматься о сказанном.

    • БЯМ говорит, что будет осторожнее с hypothetical statements. Ответы на подавляющее число вопросов выглядят как гипотетические утверждения. Что говорить о будущем, даже исторические исследования — это спекуляции и противоречивые источники.

    • Substantiate — это «to establish by proof or competent evidence», если верить Dictionary.com. Модель обещает быть осторожнее с заявлениями, которые можно охарактеризовать как unsubstantiated. Без интеграции с приложениями БЯМ физически не могут давать гиперссылки на источники, то есть «proof or competent evidence» невозможен.

Получается, что БЯМ противоречит сама себе — то есть уже галлюцинирует в 4 абзацах текста. Текст звучит хорошо, усыпляет ответственную за скептицизм часть мозга, поэтому вы в него не вчитывались и скопипастили мне его как доказательство.

Не надо, пожалуйста, копипастить мне (или куда угодно ещё) какие-то непонятные куски вывода ChatGPT как доказательство чего-либо. Языковая модель — не источник абсолютно никакой информации. Складно выглядящий текст не всегда является правильным.

Поражаться тут нечему. Сделано местами наивно.

  • «Не галлюцинируй» — это вишенка на торте. Ничего хорошего такое не даст. Чёткого определения галлюцинаций БЯМ до недавних пор не было, в датасетах это представлено плохо. Сами модели не понимают, что они делают и себя не осознают. Такое мог написать впервые знакомящийся с технологией разработчик, который про галлюцинации где-то услышал.

    Галлюцинации от системного промпта зависят слабо. Невозможно их вот так просто отменить.

    В целом в промпте важно не только то, что сказано, но и то, что не сказано. У меня сложилось ощущение, что лучше не просить «не сделать», а подобрать глагол без «не». Пример: «не переводи текст на уровне подстрочника» → «перевод должен звучать естественно, правильно передавай стиль оригинала». И вообще общаться с БЯМ лучше лаконично, аккуратно отмеряя каждое слово.

    Возможно, что из-за присутствия глагола «галлюцинировать» случится обратный эффект, и модель будет чуточку чаще галлюцинировать.

  • «Выдавай правильный JSON». Иногда JSON будет ломаться. Даже если давать на входе абсолютные требования «всегда делай вот это», БЯМ могут в крайне редких случаях «вот это» и не сделать. И личный опыт утверждает, что чем больше этих абсолютных требований, тем выше вероятность, что одно из них будет случайно нарушено.

    Странно, что не используется function calling самой OpenAI.

  • Прочие мелочи типа слова «пожалуйста» или восклицательного знака в «Ты режиссёр на съёмках кино!». Особая вежливость для БЯМ не требуется, их выравнивание уже задало им нужную роль, поэтому please — это впустую потраченный токен. Второй пример может увенчаться восклицательным знаком в первом предложении ответа или более возбуждённым стилем.

В целом написано типичным стилем «Ты %роль%, ты делаешь %задача%». То есть в общих чертах с соответствующей страницей поддержки OpenAI автор этих промптов был знаком, наверное. Но дальше начинаются эти странные детали.

Что за бред вы вообще несёте? 5 тысяч долларов за серверный процессор — очень недорого, поскольку конкурировать он пытается с вариантами x86 за 10–11 тысяч долларов. Это решение для крупных облаков. У провайдеров облачных решений оптимизировать код программисты найдутся.

В домашнем компьютере 192, 256 или 512 ядер из AmpereOne вам абсолютно ни к чему. Кстати, Ampere сейчас активно продвигает 64- и 128-ядерные комплекты разработчика на платформе Ampere Altra для сборки обычного десктопа. К примеру, материнские платы с предустановленными процессорами продаются в американском магазине ширпотребной компьютерной электроники Newegg за всего лишь 1,5 тысячи (64 ядра) или 2,5 тысячи (128 ядер) долларов.

Newegg.com

На основе такого некоторые реально собирают обычный десктоп для разработки под Arm. И держат его дома. И на нём греется кошка.

А это новость была не про ширпотребное «железо», а про процессоры для облаков.

В этой статье на момент выпуска было +68 при 700 просмотров

Счётчик просмотров для статей добавили где-то в первой половине десятых годов (2013?). Для старых публикаций счётчик начал отсчёт с нуля. Поскольку процентов 90 просмотров публикация получает в первые трое суток, за редкими исключениями (трафик из поисковиков, всплеск внимания по прямой ссылке) старые статьи имеют крайне небольшие значения просмотров.

Эта статья — одна из таких: она от 2011 года.

Вот это и есть проблема — получается вяло, неинтересно и похоже на выдачу БЯМ. Зачем делать то, что может машина?

Если хотите хороший текст про маркетинг и дизайн, то я бы предложил написать что-нибудь про историю 2009 года с провалившимся редизайном пачек сока Tropicana. Заодно получилось было бы частично приплести туда этот конспект про психологию цвета в маркетинге.

В итоге всякие противники Маска и несогласные с его политическими взглядами сейчас распространят призывы зайти в настройки и отключить, а потом получится модель, где их мнения представлены слабо.

Статья выглядит похоже на выдачу большой языковой модели. Они тоже обожают (вернее, дообучены) всё разбивать на маркированные и нумерованные списки из 2–3 элементов. Контент от БЯМ всегда вялый и незапоминающийся, но при этом полон общеизвестных знаний и без проявления характера — будто жуёшь мягкую пресную кашу на воде без соли и сахара. Понятно, что БЯМ не могут расставлять ссылки на источники без преобразования их в агента с дополнительными возможностями (поиск по Интернету, доступ к базе данных информации и так далее).

Если же текст написан самостоятельно, то это повод задуматься о качестве письма. Я тут никого не обвиняю, что статью писал ChatGPT — именно выглядит так, будто писал ChatGPT. И это тоже плохо.

Похоже на выдачу большой языковой модели. Они обожают разбивать текст на списки. При этом понятных фактов мало, текст низкокалорийный. Читаешь и будто вату жуёшь.

Information

Rating
Does not participate
Location
Екатеринбург, Свердловская обл., Россия
Registered
Activity