Comments 6
TL;DR:
Уделяйте внимание цене токенов и размеру контекста. Спасибо, капитан.
Избегайте любой шляпы за пределами ASCII, а лучше вообще общаться только английскими символами. Модели обучали в первую очередь на английских материалах. Невероятно, но факт.
Любой текст - это текст, в том числе код, URL и т.д. Токенизация может отличаться для, казалось бы, одинакового семантически текста. Уму непостижимо.
ШТОШ.
И уже буквально в момент появления скиллов у меня было ощущение, что это самая значимая штука, которую они сделали за последнее время. Возможно, даже посерьёзнее, чем в своё время были MCP
О нет, они изобрели MCP, но индексированные, самая значимая штука™. Сначала появился search_tool и ask_user_a_question_tool, но то ж детали.
/s
P.S. Начинать статью с
Когда я выкладывал первую главу этого цикла статей в свой телеграм-канал (@laxcity_lead)
Это все равно что после "Здрасьте" начать штаны снимать. Мода такая сейчас?
Далее:
Не зря мой маркетплейс
пишите в комментариях здесь или в Telegram.
Подписывайтесь на телегу
Читатели на Хабре, похоже, идиоты, после первого предложения не поняли.
Уделяйте внимание цене токенов и размеру контекста. Спасибо, капитан. …
Вы точно к той статье коммент оставили? Ничего даже близкого нет, как-то только 3й пункт соотносися. 🤔
О нет, они изобрели MCP, но индексированные, самая значимая штука™. Сначала появился search_tool и ask_user_a_question_tool, но то ж детали.
Какое отношение имеет скилл к mcp? Mcp про структруный вызов, скилл про контракт/знания. И на кой вы сюда приплели тул поиска по тулам (я полагаю, имелся в виду tool_search) и тул запроса фидбека от пользователя?
Да и какгбе с таймингами у вас тоже промах: скиллы - начало октября, ask_question - вторая половина октября, tool_search и вовсе в середине января 2026 в релиз пошли…
Ну а про “о боже мой, автор бесплатного материала имеет наглость рекламировать свой тг канал”. А если вы не можете текстово отличить ввод в контекст (ссылка в начале статьи) от CTA (в конце статьи) - ну штош!
я точно к той статье коммент оставил
> а важной частью архитектуры, влияющей буквально на всё — на то, как модель “понимает” контекст, на конечную стоимость инференса и даже на то, какие глюки мы впоследствии наблюдаем в поведении LLM
> Например, если в словаре нет иероглифов, символов редких языков или экзотических Unicode-комбинаций — токенайзер начнёт делить строку буквально по отдельным байтам. Результат — огромное количество токенов, бешеная стоимость инференса и, как правило, абсолютно бессмысленный контекст для модели.
> Токенизаторы изначально заточены под английский, а кириллица с её сложной морфологией разбивается менее эффективно.
Какое отношение имеет скилл к mcp? Mcp про структруный вызов, скилл про контракт/знания. И на кой вы сюда приплели тул поиска по тулам (я полагаю, имелся в виду tool_search) и тул запроса фидбека от пользователя?
Под MCP я имею ввиду не синтаксис самого протокола, а его использование в контексте модели. Модель вызывает и скилл, и MCP tool тем же самым принципом - возвращая структурированный текст, и получая взамен дополнение к контексту.
Причем тут search tool и ask_user. MCP Resources не выстрелили. Далее раздутый контекст попытались решить тем, чтобы не загружать все разом, а еще лучше бы в плане поуточнять у пользователя, что там будет дальше. Когда это несколько забуксовало - придумали легковесный индекс описаний "решения проблем" = скиллов. Этот индекс точно так же лезет в системный промт, как и MCP, и пытается решить ту же задачу, только расширяя рамки того, что можно затащить в контекст. Думаю, предупреждение о том, что скиллы занимают более 2% контекста и будут "сокращены" - уже видели?
Да и какгбе с таймингами у вас тоже промах
У меня есть enterprise preview
Ввиду #1 я пользуюсь еще и другими обвязками со схожим или превосходящим функционалом.
Не путайте tool search и dynamic discovery/10% rule, про первое говорили еще в 2025, второе толком добавили только в начале 2026
А если вы не можете текстово отличить ввод в контекст (ссылка в начале статьи)
Вы ввели людей в контекст тем, что дали ссылку на статью, может даже на Хабре?
Не понял про "автор бесплатного материала" - каким образом "бесплатность" материала оправдывает рекламу канала?
Каким образом ссылки на свой же канал являются рекламой?
Про бесплатность поинт в том, что если бы это был какой-то подписочный материал - ссылки с призывом подписаться на канал автора может и были бы не уместны.
Здесь - свободно распространяемый материал и автор сделал, о ужас, четыре ссылки на свои свободно же распространяемые ресурсы.
Я понимаю если бы я кидал ссылки на что-то, где, не знаю… хотя-бы настоящая реклама была.
хорошая вводная статья, язык и подача огонь, жду продолжения)
Ну и как можно понять из вышесказанного — никакой магией и уж тем более разумностью такие модели не обладают.
Смотря что считать магией и разумностью, наверное
Большие модели, маленькие токены. ЛЛМ - битва за контекст (ч.1)