GitHub Copilot ввёл свой стандарт Agent Skills, Anthropic, OpenAI и Google сошлись на похожем формате.
Можно подробнее про “GitHub Copilot ввёл свой стандарт”? Они разве не используют open standart?
И еще вопрос - непонятно, как SKILL передаётся при использовании: “Все четыре — через OpenRouter, одним API-ключом, одинаковый формат запросов, temperature=0. Ключевые обращения — по 20 повторов, остальные — по 5. Итого 480 запусков со скиллом”.
То, что хранится в .claude/commands/. В начале прошлого года уже можно было делать, вот tutorial весны 2025 года.
Второй пример. Вызов с оборудования определённых функций, получение данных, передача в калькулятор и пересчёт различных параметров с выдачей на гора результата. Например пересчёт из количества секторов в пуле массива в терабайты или тибибайты.
Можете пояснить, как эту задачу решает skill? MCP, вызов какого-то cli? Пока непонятно, в чём преимущество перед командами.
Во-вторых, запрос должен попасть туда, где это начало уже успело прогреться. В single-node setup это почти не заметно. В multi-replica это уже отдельная инженерная проблема.
Можно вот тут подробнее? Вроде как кэшируется по API-ключу, если на репликах один ключ, то проблем быть не должно, или…?
Похожее утверждение можно найти здесь: Anthropic: Claude models (e.g., Claude 3.5 Sonnet) offer explicit control using API parameters to mark specific blocks of content for caching.
Automatic caching is the simplest way to enable prompt caching. Instead of placing cache_control on individual content blocks, add a single cache_control field at the top level of your request body. The system automatically applies the cache breakpoint to the last cacheable block.
Попробовал тоже на разных модельках: “напиши простой пример формы на effector-hook-form(s) v4 с полями email и password”. Да, claude не подкачал. В отличие от gemini, deepseek и chatgpt…
Прочитав слова "фундаментальной теории тестирования" ожидал увидеть далее какие-то расшифровки, ссылки, но как-то то потерялось среди прочего, что ли. Сразу с архитектуры. А как же парадокс пестицида и прочие принципы тестирования? 😉
У меня нет MacBook. Совсем. А для сборки iOS-приложения нужен Xcode, который работает только на macOS. Весь процесс — от коммита до появления билда в TestFlight — полностью автоматический.
С TestFlight понятно. В как версия появляется в App Store, если нет MacBook?
В каждой из этих областей Агенты работают как усилитель. Усиливается, в том числе, и глупость (например, по незнанию). Более близкая мне аналогия - экзоскелет. Если не знаешь, как грамотно колоть дрова - наломаешь дров, на все деньги. А если знаешь - будет быстрее, чем руками топором махать.
Эволюция инструмента поиска: изначально использовали RAG с векторной базой данных – быстро, но требует индексации, хрупко в разных окружениях, и главное – Claude не любил его использовать. Переход на инструмент Grep, позволяющий Claude искать самостоятельно, оказался гораздо удобнее.
Ловко. Зачем все эти embedding, vector databases, semantic graphs и т.д. Не любит Claude это использовать, лучше Grep (Grep Searches for patterns in file contents).
Один раз только неправильный ответ был, на Hard: H01: Balanced Parentheses. Со второй попытки - решено.
Josephus Problem - вообще легко оказалось (в смысле - быстро). Возможно, моделька натренировалась на первых задачах, всё в одном чате делал.
В качестве промпта давал текст задания, за исключение первого задания, там добавил такое описание языка:
Syntax:
Character Instruction Performed
> Increment the data pointer by one (to point to the next cell to the right).
< Decrement the data pointer by one (to point to the next cell to the left). Undefined if at 0.
+ Increment the byte at the data pointer by one modulo 256.
- Decrement the byte at the data pointer by one modulo 256.
. Output the byte at the data pointer.
, Accept one byte of input, storing its value in the byte at the data pointer.[b]
Я бы рассмотрел ситуацию пошире - математика и физика дают модель мира. Мир не обязан подчиняться модели. Собственно, история науки во многом представляет из себя "кладбище видов (моделей)" (по аналогии с биологической эволюцией).
Т.е., с одной стороны, проблема шире, чем "неподчинение преступника" а с другой - математика, в применении к реальному миру, в каком-то смысле работает. Хотя мир ей не подчиняется.
Можно подробнее про “GitHub Copilot ввёл свой стандарт”? Они разве не используют open standart?
И еще вопрос - непонятно, как SKILL передаётся при использовании: “Все четыре — через OpenRouter, одним API-ключом, одинаковый формат запросов, temperature=0. Ключевые обращения — по 20 повторов, остальные — по 5. Итого 480 запусков со скиллом”.
Интересная статья, воспользуюсь, при случае.
Однако ж…:
Это не вайбокодинг, если смотреть на исходное определение:
Вот это настоящее искусство☝️. А то, что Вы описали - ну каждый ведь может. Кто способен глянуть diff и оценить “нормальность”.
Автор термина, кстати, сейчас предлагает использовать понятие agentic engineering.
То, что хранится в .claude/commands/. В начале прошлого года уже можно было делать, вот tutorial весны 2025 года.
Можете пояснить, как эту задачу решает skill? MCP, вызов какого-то cli? Пока непонятно, в чём преимущество перед командами.
Впрочем, прочитал внимательнее - в статье это отражено, чуть дальше.
Тут, видимо, точнее будет сказать, что проблема не в порядке запуска, а в возможном одновременном запуске, т.е. может иметь место Cache Stampede or Dogpile Problem in System Design
Можно вот тут подробнее? Вроде как кэшируется по API-ключу, если на репликах один ключ, то проблем быть не должно, или…?
Похожее утверждение можно найти здесь: Anthropic: Claude models (e.g., Claude 3.5 Sonnet) offer explicit control using API parameters to mark specific blocks of content for caching.
Однако, статья датируется Oct 1, 2025.
Актуальная документация гласит:
Спасибо, технически “вкусно” (ну, на мой вкус).
Можно подробее про положительное влияние силлов? Я, конечно, слышал про них, но use case не очень понятны. Чем они лучше commands?
Попробовал тоже на разных модельках: “напиши простой пример формы на effector-hook-form(s) v4 с полями email и password”. Да, claude не подкачал. В отличие от gemini, deepseek и chatgpt…
Приветствую!
Прочитав слова "фундаментальной теории тестирования" ожидал увидеть далее какие-то расшифровки, ссылки, но как-то то потерялось среди прочего, что ли. Сразу с архитектуры. А как же парадокс пестицида и прочие принципы тестирования? 😉
С TestFlight понятно. В как версия появляется в App Store, если нет MacBook?
Любопытно. А можно подробнее про "классическое понимание"? Вот есть, например, Guide to the Software Engineering Body of Knowledge
Содержание
Software requirements
Software architecture
Software design
Software construction
Software testing
Software engineering operations
Software maintenance
Software configuration management
Software engineering management
Software engineering process
Software engineering models and methods
Software quality
Software security
Software engineering professional practice
Software engineering economics
Computing foundations
Mathematical foundations
Engineering foundations
В каждой из этих областей Агенты работают как усилитель. Усиливается, в том числе, и глупость (например, по незнанию). Более близкая мне аналогия - экзоскелет. Если не знаешь, как грамотно колоть дрова - наломаешь дров, на все деньги. А если знаешь - будет быстрее, чем руками топором махать.
Это понятно. Но вот перешли к другому .py-файлу, что происходит? Правило опять перечитывается?
Интересно. Не в курсе - это грузится для каждого файла каждый раз или тоже подвержено компрессии?
Ловко. Зачем все эти embedding, vector databases, semantic graphs и т.д. Не любит Claude это использовать, лучше Grep (Grep Searches for patterns in file contents).
Занятный тест. Попробовал погонять.
Opus 4.6 Extended, практически без проблем вот это: B.3 Complete Problem Examples
B.3.1 Easy: E04: Sum Two Integers
B.3.2 Medium: M08: Nth Fibonacci Number
B.3.3 Hard: H01: Balanced Parentheses
B.3.4Extra-Hard: X20: Josephus Problem
Один раз только неправильный ответ был, на Hard: H01: Balanced Parentheses. Со второй попытки - решено.
Josephus Problem - вообще легко оказалось (в смысле - быстро). Возможно, моделька натренировалась на первых задачах, всё в одном чате делал.
В качестве промпта давал текст задания, за исключение первого задания, там добавил такое описание языка:
Вот у нас есть немного кровоточащий энтерпрайз-проект:
AI работает так же, как и на маленьких проектах. А именно - как экзоскелет. Если знаешь, что делать, то поможет, а если не знаешь - всё сломаешь.
Однако, сильно зависит от tooling. Вот прямо очень сильно. Мы Augment Code используем.
Интересный разбор, даже попросил "машину" (кавычки, да) написать опус на заданную тему: DPI: Обнаружение и Маскировка Туннелей.
Машинная самокритика:
Я бы рассмотрел ситуацию пошире - математика и физика дают модель мира. Мир не обязан подчиняться модели. Собственно, история науки во многом представляет из себя "кладбище видов (моделей)" (по аналогии с биологической эволюцией).
Т.е., с одной стороны, проблема шире, чем "неподчинение преступника" а с другой - математика, в применении к реальному миру, в каком-то смысле работает. Хотя мир ей не подчиняется.