Pull to refresh

Comments 12

Я в начале загоняю русский промт или свой английский в квин или дипсик, они все правят потом только, в кодовую часть cat и т.д

странно, я не заметил сильной разницы в языке вопросов. С чистой совестью чередую слова и фразы на обоих языках. Для сложных вопросов выбираю русский, он у меня всё равно "главнее" в голове даже после 20 лет иммиграции и работы в Канаде.

Мой опыт показывает, что ситуация меняется со временем и для разных моделей разная. Я пару раз натолкнулся на большие проблемы из-за неоднозначности перевода. Поэтому решил стараться общаться с моделями только на английском.

Почему такая зацикленность на языке? Ллм-кам все равно. Более того, например если понаблюдать за рассуждениями того же Клода, то там может фигурировать и испанский, и французский, и даже хз какой язык. Да, основной английский, но мне кажется, что проблем с переводом у него никогда не бывает. Более того он лучше меня "говорит" и делает перевод. Лично я использую английский если надо точно указать термин.

Ллм-кам все равно. 

Нет, конечно. Или вы думаете, что получив запрос на фарси, она его сначала переведет на английский, и только потом начнет прожевывать?

На каком-то этапе другой Copilot (который инкарнирован как апп от Microsoft) показывал ход своих рассуждений. Сейчас он этого больше не делает. Так вот, там было чётко видно, что в «продвинутом» режиме он на первом этапе он всё переводил на английский. Это приводило к большим проблемам при глубоком поиске по русскоязычным источникам.

Ну а вообще-то это часть магии, которая от нас большей часть скрыта.

В GitHub Copilot в режиме дебагинга можно видеть общение агентов между собой. Но что они делают на своих серверах, до конца не видно.

Базовая математика LLM относительно проста. Похоже ничего особенно другого они не применяют. Работают с токенами и «смыслами», а не с словами и буквами. И, очевидно, LLM может без проблем «напрямую» понимать запросы на очень многих языках и с использованием многих языков в одном запросе.

Из простой математики получается магия…

Про Copilot я ничего не знаю, но в 2025–2026 гг. ни одна из флагманских моделей так не делает.

Работают с токенами и «смыслами», а не с словами и буквами. 

Токен и слово — это практически одно и то же. Что такое «смыслы» я не знаю, эзотерического образования у меня нет.

Токен и слово — это практически одно и то же.

Категорически не согласен. Но это очень обширный вопрос.

Что такое «смыслы» я не знаю

И я не знаю. Поэтому слово и поставил в кавычки. Но какое-то похожее понятие представляется необходимым, если мы пытаемся разобраться, как LLM поняла фразу:

Реализуй interseptor …

Да еще и с опечатками на обоих языках.

[…] практически одно и то же […]

Ну я рубанул сплеча, естественно, просто в рамках данной дискуссии — их можно без потери общности приравнять.

как LLM поняла фразу […]

Никак не поняла :) LLM ничего не понимает. Она предугадывает продолжение. Попробуйте поиграться с обычным поиском (без LLM) с фразами: «реалезуй intersepter», «реалезуй intersepter на js», «реалезуй intersepter на js который […полное тз]…».

Ну плюс обвязки для приглаживания входа и выхода.

«реалезуй intersepter на js»

Такие запросы, разумеется, ни в каком поисковике ничего полезного не выдадут, если в него не встроен ИИ (а они почти во все уже встроены). Т.е. если просто смотреть результаты собственно поиска - это список ссылок, где встречаются слова из фразы.

как LLM поняла фразу

Слово "поняла" тоже можно ставить в кавычки. Но, надеюсь, и так понятно, о чём я. Разумеется, читателям и уж тем более автору этой статьи более-менее известно, как работает LLM.
Но пока без "очеловечивания" трудно использовать LLM на практике.
Например, проще стремиться к тому, чтобы модель "поняла", что я от неё хочу, даже отдавая себе отчёт, что по факты мы пытаемся инициировать процесс, когда LLM сгенерирует нам нужный результат.

За «Мелочи архиерейской жизни» — немедленный плюсик в карму.

Польщён. Спасибо. 😌

Sign up to leave a comment.

Articles