Обновить
665
69.4

Замглавреда

Отправить сообщение

Почему арестовали? Есть гораздо более простое и понятное объяснение.

Но я периодически делюсь подобными техническими тонкостями в коротких постах на своём Telegram-канале, поскольку формат Habr не всегда подходит для этого.

На Хабре уже больше года как заведён раздел «Посты», который буквально для таких коротких (до 1500 символов) публикаций и предназначен.

А в «Телеграме» у меня чат с мамой. С моей точки зрения, «Телеграм» для чтения и ведения блогов абсолютно не предназначен. Публикация в «Телеграме» выглядит как сообщение, нет возможности чередовать текст и изображения, есть куча разных ограничений, отсутствует РСС.

Зачем заводить и вести айтишные блоги в мессенджере, который ещё непонятно как индексируется поисковиками — загадка. С таким же успехом можно пытаться делиться опытом в «Снэпчате» или просить подписаться на аккаунт в «ТикТоке». Для меня каналы в «Телеграме» выглядят как очередное коллективное помешательство.

Например, одна кукла была феей с хрустальными крыльями.

Странно, мне казалось, что у Тируно крылья из кристаллов льда. Выглядит симпатично, разве что обычно на официальных артах и в косплее она босая.

Рейму тоже выглядит хорошо. Лично меня смущают чулки, которых в оригинале дизайнов не встречалось. Полагаю, тоже пожелание заказчика.

Переводчик-то тут при чём? Это вопрос автору оригинала:

It is well known that the sed and awk commands are Turing complete on their own

У меня нет никаких иллюзий, какой вывод будет у исследования биржи фриланса. Просто там это уж как-то совсем внаглую сделано, переход слишком откровенный — даже транслировать не хочется.

Это технически крайне тяжело. Детекторы существуют, но могут ошибаться. И вообще нужно правильно толковать их работу. К примеру, текст конституции США будет определён как результат генерации большой языковой модели по той простой причине, что БЯМ легко может процитировать этот документ.

Часто пытаются смотреть на ключевые слова и обороты, характерные для той или иной модели, структуру (некоторые БЯМ обожают разбивать всё на пункты) и общую грамматическую корректность текста.

Так они же фрилансеры?

Данных по фрилансерам из исследования я просто не приводил вообще. У «Апуорка» там какая-то забавная манипуляция вида «фрилансеры лучше штатников справляются с ИИ», которую мне транслировать кажется неинтересным и нечестным. Поэтому в новости есть результаты опросов только штатных работников и руководителей. В общем-то, не представляю, почему вы решили, что речь идёт по фрилансерах.

А вы что собирались увидеть-то? «Не понравилось, как выглядит и как влияет не производительность» размещено ещё до ката. Весь остальной объём посвящён объяснению, о чём эта фича вообще была. У меня ощущение, что вам (в отличие от меня) эта тема попросту глубоко неинтересна.

Языковая модель не знает, как она работает. Попробуйте ещё у неё спросить, как она отвечает на промпт. Начнётся полный бред «я планирую в несколько стадий, улучшаю, а только потом даю ответ», а не правильное «ничего не планирую, просто пытаюсь предсказать следующий токен по ходу генерации».

В данном случае модель расписывает понимание, как статистически наиболее вероятно понимался глагол «галлюцинировать». При этом модель несёт откровенный бред. Просто попробуйте вчитаться:

  • Сначала идёт утверждение, что БЯМ — это ИИ, поэтому галлюцинировать не может вовсе.

  • Затем модель обещает стараться не галлюцинировать. Странно. Зачем стараться избегать какого-то поведения, если физически на него не способен?

  • Под конец идёт попытка объяснить, почему галлюцинации возможны, и ещё одно обещание избегать галлюцинации.

    Кстати, здесь модель фактически признаёт, что галлюцинации неизбежны. Достаточно прочитать текст и задуматься о сказанном.

    • БЯМ говорит, что будет осторожнее с hypothetical statements. Ответы на подавляющее число вопросов выглядят как гипотетические утверждения. Что говорить о будущем, даже исторические исследования — это спекуляции и противоречивые источники.

    • Substantiate — это «to establish by proof or competent evidence», если верить Dictionary.com. Модель обещает быть осторожнее с заявлениями, которые можно охарактеризовать как unsubstantiated. Без интеграции с приложениями БЯМ физически не могут давать гиперссылки на источники, то есть «proof or competent evidence» невозможен.

Получается, что БЯМ противоречит сама себе — то есть уже галлюцинирует в 4 абзацах текста. Текст звучит хорошо, усыпляет ответственную за скептицизм часть мозга, поэтому вы в него не вчитывались и скопипастили мне его как доказательство.

Не надо, пожалуйста, копипастить мне (или куда угодно ещё) какие-то непонятные куски вывода ChatGPT как доказательство чего-либо. Языковая модель — не источник абсолютно никакой информации. Складно выглядящий текст не всегда является правильным.

Поражаться тут нечему. Сделано местами наивно.

  • «Не галлюцинируй» — это вишенка на торте. Ничего хорошего такое не даст. Чёткого определения галлюцинаций БЯМ до недавних пор не было, в датасетах это представлено плохо. Сами модели не понимают, что они делают и себя не осознают. Такое мог написать впервые знакомящийся с технологией разработчик, который про галлюцинации где-то услышал.

    Галлюцинации от системного промпта зависят слабо. Невозможно их вот так просто отменить.

    В целом в промпте важно не только то, что сказано, но и то, что не сказано. У меня сложилось ощущение, что лучше не просить «не сделать», а подобрать глагол без «не». Пример: «не переводи текст на уровне подстрочника» → «перевод должен звучать естественно, правильно передавай стиль оригинала». И вообще общаться с БЯМ лучше лаконично, аккуратно отмеряя каждое слово.

    Возможно, что из-за присутствия глагола «галлюцинировать» случится обратный эффект, и модель будет чуточку чаще галлюцинировать.

  • «Выдавай правильный JSON». Иногда JSON будет ломаться. Даже если давать на входе абсолютные требования «всегда делай вот это», БЯМ могут в крайне редких случаях «вот это» и не сделать. И личный опыт утверждает, что чем больше этих абсолютных требований, тем выше вероятность, что одно из них будет случайно нарушено.

    Странно, что не используется function calling самой OpenAI.

  • Прочие мелочи типа слова «пожалуйста» или восклицательного знака в «Ты режиссёр на съёмках кино!». Особая вежливость для БЯМ не требуется, их выравнивание уже задало им нужную роль, поэтому please — это впустую потраченный токен. Второй пример может увенчаться восклицательным знаком в первом предложении ответа или более возбуждённым стилем.

В целом написано типичным стилем «Ты %роль%, ты делаешь %задача%». То есть в общих чертах с соответствующей страницей поддержки OpenAI автор этих промптов был знаком, наверное. Но дальше начинаются эти странные детали.

Что за бред вы вообще несёте? 5 тысяч долларов за серверный процессор — очень недорого, поскольку конкурировать он пытается с вариантами x86 за 10–11 тысяч долларов. Это решение для крупных облаков. У провайдеров облачных решений оптимизировать код программисты найдутся.

В домашнем компьютере 192, 256 или 512 ядер из AmpereOne вам абсолютно ни к чему. Кстати, Ampere сейчас активно продвигает 64- и 128-ядерные комплекты разработчика на платформе Ampere Altra для сборки обычного десктопа. К примеру, материнские платы с предустановленными процессорами продаются в американском магазине ширпотребной компьютерной электроники Newegg за всего лишь 1,5 тысячи (64 ядра) или 2,5 тысячи (128 ядер) долларов.

Newegg.com

На основе такого некоторые реально собирают обычный десктоп для разработки под Arm. И держат его дома. И на нём греется кошка.

А это новость была не про ширпотребное «железо», а про процессоры для облаков.

В этой статье на момент выпуска было +68 при 700 просмотров

Счётчик просмотров для статей добавили где-то в первой половине десятых годов (2013?). Для старых публикаций счётчик начал отсчёт с нуля. Поскольку процентов 90 просмотров публикация получает в первые трое суток, за редкими исключениями (трафик из поисковиков, всплеск внимания по прямой ссылке) старые статьи имеют крайне небольшие значения просмотров.

Эта статья — одна из таких: она от 2011 года.

Вот это и есть проблема — получается вяло, неинтересно и похоже на выдачу БЯМ. Зачем делать то, что может машина?

Если хотите хороший текст про маркетинг и дизайн, то я бы предложил написать что-нибудь про историю 2009 года с провалившимся редизайном пачек сока Tropicana. Заодно получилось было бы частично приплести туда этот конспект про психологию цвета в маркетинге.

В итоге всякие противники Маска и несогласные с его политическими взглядами сейчас распространят призывы зайти в настройки и отключить, а потом получится модель, где их мнения представлены слабо.

Статья выглядит похоже на выдачу большой языковой модели. Они тоже обожают (вернее, дообучены) всё разбивать на маркированные и нумерованные списки из 2–3 элементов. Контент от БЯМ всегда вялый и незапоминающийся, но при этом полон общеизвестных знаний и без проявления характера — будто жуёшь мягкую пресную кашу на воде без соли и сахара. Понятно, что БЯМ не могут расставлять ссылки на источники без преобразования их в агента с дополнительными возможностями (поиск по Интернету, доступ к базе данных информации и так далее).

Если же текст написан самостоятельно, то это повод задуматься о качестве письма. Я тут никого не обвиняю, что статью писал ChatGPT — именно выглядит так, будто писал ChatGPT. И это тоже плохо.

Похоже на выдачу большой языковой модели. Они обожают разбивать текст на списки. При этом понятных фактов мало, текст низкокалорийный. Читаешь и будто вату жуёшь.

Какой контракт на запуск? В контракт на USDV для SpaceX запуск не входит. В тексте ясно ведь указано, что управлять запуском будет НАСА.

Вы самостоятельно додумали какой-то смысл, которого в оригинале нет, а потом его опровергли.

Ну как обычно, комментарии живут своей жизнью.

Информация

В рейтинге
Не участвует
Откуда
Екатеринбург, Свердловская обл., Россия
Зарегистрирован
Активность