All streams
Search
Write a publication
Pull to refresh

Comments 4

По опыту PEMT: пока что MT в контекст не умеет совсем. Ни в текстовый в том же файле, и ни ТМ, ни ТБ не спасают. Ни, тем более, в поиск контекста за пределами файла/проекта. Там, где человек слазит в гугло и спросит у какого-нибудь перплексити, МТ тупо переведет по словарю. Хорошая, большая ТМ помогает сделать перевод, стандартный для нее, перемешать куски текста, совместить, подогнать, красиво сформулировать. Но не более.

Плюс галлюцинации: МТ любит иногда добавить отсебятины.

Как мне вещали сами ИИ перевод крупных текстов должен производится минимум в 3 этапа с тремя разными промптами. Если цена на токены не высокая (типа дипсика), то количество этапов можно увеличить. Правда мне требовался художественный перевод самиздата. Во многих случаях качество получилось лучше оригинала. Хотя небольшие косяки все же оставались, которые мне показалось проще исправлять ручками.

Не особо понимаю, в чем преимущество 3 этапов. Это что-то дает?

Если как у автора статьи подавать на вход по одной строке, то подозреваю, что не очень много. С одной строкой модели обычно справляются без проблем и при длинном промпте. Другое дело, что будет скакать стиль, модель не сможет отслеживать тавтологии и просто еще дикая куча проблем. Я такой вариант просто не рассматривал, так как он бредовый.

Я изначально старался подать на вход максимально возможных кусок, который модель в состоянии прожевать. Тогда текст становится намного более гладкий, но... Модель теряет фокус, если с нее потребовать все и сразу: и перевод точный и русский текст без ошибок, да еще и форматирование идеальное. Поэтому это три минимальных отдельных этапа для получения хорошего текста. При необходимости обращения внимания на какие то параметры, специфические для конкретного текста количество этапов может быть больше.

Sign up to leave a comment.

Articles