Причём тут реклама? Наверняка просто грузили в Сlaude все разведданные подряд чтобы сделать прогнозы и вычислить противоречивые разведданные. Подробности понятное дело никто на хабре публиковать не будет.
Мне кажется что агентное программирование для очень многих может быть хуже вайб кодинга, так как привязка к достаточно дорогим моделям и извечный перерасход токенов.
Когда идёт поиск чего-то идеального, то уже нельзя говорить о дефиците. И не зависит про что речь идёт. То есть совмещение дефицита и идеальности - это уже логическая ошибка с точки зрения семантического смысла слов. Показное игнорирование правил можно рассматривать как неуважительное отношение к читателям, так как авторы статьи не иностранцы
Спецификация не уместна, когда задача требует конкретной реализации с определёнными ограничениями и деталями. В таких случаях код сам по себе уже содержит всю необходимую информацию.
Спецификации уместны, когда нужно описать общие правила взаимодействия между системами, обеспечить совместимость разных реализаций или определить стандартные интерфейсы. Например, протоколы, API-документация, форматы данных и т.п.
Когда пишут про огроменное количество миллиардов, то кажется пузырь пузырём. Но потом оказывается вся эта инфраструктура меньше годового Medicare. И теперь уже Medicare выглядит как пузырь, особенно учитывая что можно сдать анализы и получить трактовку от chatgpt уже на тарифе 20$
Языковая модель - это прежде всего умный справочник, который может совершать разнообразные операции над справочными данными. Задача пользователя - правильно задавать вопросы и трактовать ответы, распознавать редкие галлюцинации. А чтобы правильно сформулировать вопрос нужно частично знать ответ. Пользователь получается может обогащать свои знания без копания в литературе, правда, в книгах информация может подаваться более доходчиво из-за наличия иллюстраций. Просто прочитать статью или книгу часто не является вариантом, так как книгу надо ещё найти, прочитать и книга может быть только в варианте на иностранном языке, без перевода. Как я помню, поиск литературы по определённой теме занимал в университете довольно существенное время.
Да, действительно подобное поведение наблюдается. Проверял на qwen3-next-80b-a3b-instruct и С++ коде, но расширенный промпт может как минимум частично купировать проблему. Я использовал следующий промпт: "Проинспектируй код на ошибки и неточности; предложи исправления. Ошибка - это когда явно найдена неточность и ясно что фрагмент работает не так как нужно. Если фрагмент кода просто подозрительный, то это не ошибка, так как ты не сможешь чётко пояснить в чём заключается ошибка." Откровенный бред с одинаковыми строками (предположительно ошибочной и исправленной) пропал. Как временное решение до починки llama.cpp вполне сойдёт, так как остальные рассуждения модели вполне нормальные мне показались.
Слова "анализ" и "проанализировать" и их английские аналоги являются слишком сильно обобщёнными. Лучше формулировки вида "проинспектируй код на уязвимости" или ещё более детализированный промпт. Малодетализованные вопросы лучше отдавать более крупным моделям
Несмотря на малое количество активных параметров и хорошее теоретическое соотношение качества и эффективности, цены на api Qwen3-Next выше намного чем этот же gpt-oss-120B в целом и общем, хоть и зависит от провайдера api. А по идее должно быть сопоставимо. Значит инференс модели ещё не оптимизирован.
Так есть же SourceCraft от Яндекса. Или же как вариант собирать контекст самостоятельно, в смысле совсем не обязательно прямым копипастом, а какой-нибудь утилитой, которая собирает контекст. Эту утилиту можно предварительно написать с помощью LLM. Контекст с вопросом закидывается в чат. Написанную/переписанную функцию(какой-то фрагмент кода или возможно несколько фрагментов) обратно в код прямым копипастом или же в формате git diff. Далее модульные тесты. Повторяем процедуру с другими вопросами и контекстом до достижения видимых результатов. Понятно что claude довольно крут в плане малого количества ошибок/хорошей обученности, но есть немало других моделей которые могут писать код и стоят существенно(в разы) дешевле по апи.
Так наверняка есть схема с обменом токенов на рубли. С одной стороны - услуги западных провайдеров, с другой стороны - рублёвая оплата этих услуг. Можно наверняка связаться с посредниками типа bothub и решить вопросы с обменом по выгодному курсу
Илон Маск вот тоже предупреждал об опасности сверхинтеллекта, но с основанием xAI и обучением Grok опасность резко стала исчезать, особенно после обучения Grok 3.
Там где ожидается вычислительная сложность лучше сразу писать(просить генерировать LLM) на С++, чтобы потом не заниматься оптимизациями пайтон кода по производительности.
С возрастом повышается уровень критического мышления, и если новая информация сильно противоречит уже усвоенному, то такая информация отбрасывается или как минимум более тщательно проверяется мозгом. Информация может также просто не просматриваться по факту того, что источник этой самой информации недостаточно достоверен. По сути это жизненная необходимость, но мошенники у некоторых людей всё равно умудряются обходить подобные мозговые защиты и втираться в доверие.
Сомнительно что какая-то значительная часть пользователей будет рассказывать личную информацию чату по собственной инициативе. Заранее подготовленных наводящих вопросов не увидел.
Нужно понимать что обычно человек в опроснике ничего плохого о себе не ответит. Поэтому опросы вида "оцените свою целеустремлённость по 5-ти бальной шкале" дадут практически мусорные данные. А критериев косвенной оценки немало: 1) смотрит ли сериалы и фильмы(если да то какие); 2) есть ли интерес к футболу и подобным; 3) возраст; 4) национальность родителей (особенно если национальности разные); 5) место проживания (москвичи часто рассуждают немного по-другому чем жители регионов); и возможные другие. Но надо учитывать всё-таки антропологию, а не бездумно строчить вымышленные критерии косвенной оценки. И не надо забывать что избирательность может работать в обе стороны. Нужно несколько принудительное распределение, так как в обычных условиях внимание получает практически небольшая часть людей, внимание которых не безгранично. Поэтому корректнее сказать "поиск наиболее релевантных людей", так как слово "подходящий" включает большую субъективную составляющую.
Как бы радоваться особо не стоит, так как агентный кодинг - попытка подсократить количество вакансий/ работы на разработку, причём не немного как в случае вайб кодинга, а довольно значительно.
Причём тут реклама? Наверняка просто грузили в Сlaude все разведданные подряд чтобы сделать прогнозы и вычислить противоречивые разведданные. Подробности понятное дело никто на хабре публиковать не будет.
Маркировка - для отчётности, а не для покупателя.
Мне кажется что агентное программирование для очень многих может быть хуже вайб кодинга, так как привязка к достаточно дорогим моделям и извечный перерасход токенов.
Когда идёт поиск чего-то идеального, то уже нельзя говорить о дефиците. И не зависит про что речь идёт. То есть совмещение дефицита и идеальности - это уже логическая ошибка с точки зрения семантического смысла слов. Показное игнорирование правил можно рассматривать как неуважительное отношение к читателям, так как авторы статьи не иностранцы
Спецификация не уместна, когда задача требует конкретной реализации с определёнными ограничениями и деталями. В таких случаях код сам по себе уже содержит всю необходимую информацию.
Спецификации уместны, когда нужно описать общие правила взаимодействия между системами, обеспечить совместимость разных реализаций или определить стандартные интерфейсы. Например, протоколы, API-документация, форматы данных и т.п.
Когда пишут про огроменное количество миллиардов, то кажется пузырь пузырём. Но потом оказывается вся эта инфраструктура меньше годового Medicare. И теперь уже Medicare выглядит как пузырь, особенно учитывая что можно сдать анализы и получить трактовку от chatgpt уже на тарифе 20$
Языковая модель - это прежде всего умный справочник, который может совершать разнообразные операции над справочными данными. Задача пользователя - правильно задавать вопросы и трактовать ответы, распознавать редкие галлюцинации. А чтобы правильно сформулировать вопрос нужно частично знать ответ. Пользователь получается может обогащать свои знания без копания в литературе, правда, в книгах информация может подаваться более доходчиво из-за наличия иллюстраций. Просто прочитать статью или книгу часто не является вариантом, так как книгу надо ещё найти, прочитать и книга может быть только в варианте на иностранном языке, без перевода. Как я помню, поиск литературы по определённой теме занимал в университете довольно существенное время.
Да, действительно подобное поведение наблюдается. Проверял на qwen3-next-80b-a3b-instruct и С++ коде, но расширенный промпт может как минимум частично купировать проблему. Я использовал следующий промпт: "Проинспектируй код на ошибки и неточности; предложи исправления. Ошибка - это когда явно найдена неточность и ясно что фрагмент работает не так как нужно. Если фрагмент кода просто подозрительный, то это не ошибка, так как ты не сможешь чётко пояснить в чём заключается ошибка." Откровенный бред с одинаковыми строками (предположительно ошибочной и исправленной) пропал. Как временное решение до починки llama.cpp вполне сойдёт, так как остальные рассуждения модели вполне нормальные мне показались.
Слова "анализ" и "проанализировать" и их английские аналоги являются слишком сильно обобщёнными. Лучше формулировки вида "проинспектируй код на уязвимости" или ещё более детализированный промпт. Малодетализованные вопросы лучше отдавать более крупным моделям
Несмотря на малое количество активных параметров и хорошее теоретическое соотношение качества и эффективности, цены на api Qwen3-Next выше намного чем этот же gpt-oss-120B в целом и общем, хоть и зависит от провайдера api. А по идее должно быть сопоставимо. Значит инференс модели ещё не оптимизирован.
Так есть же SourceCraft от Яндекса. Или же как вариант собирать контекст самостоятельно, в смысле совсем не обязательно прямым копипастом, а какой-нибудь утилитой, которая собирает контекст. Эту утилиту можно предварительно написать с помощью LLM. Контекст с вопросом закидывается в чат. Написанную/переписанную функцию(какой-то фрагмент кода или возможно несколько фрагментов) обратно в код прямым копипастом или же в формате git diff. Далее модульные тесты. Повторяем процедуру с другими вопросами и контекстом до достижения видимых результатов. Понятно что claude довольно крут в плане малого количества ошибок/хорошей обученности, но есть немало других моделей которые могут писать код и стоят существенно(в разы) дешевле по апи.
Так наверняка есть схема с обменом токенов на рубли. С одной стороны - услуги западных провайдеров, с другой стороны - рублёвая оплата этих услуг. Можно наверняка связаться с посредниками типа bothub и решить вопросы с обменом по выгодному курсу
Илон Маск вот тоже предупреждал об опасности сверхинтеллекта, но с основанием xAI и обучением Grok опасность резко стала исчезать, особенно после обучения Grok 3.
Там где ожидается вычислительная сложность лучше сразу писать(просить генерировать LLM) на С++, чтобы потом не заниматься оптимизациями пайтон кода по производительности.
С возрастом повышается уровень критического мышления, и если новая информация сильно противоречит уже усвоенному, то такая информация отбрасывается или как минимум более тщательно проверяется мозгом. Информация может также просто не просматриваться по факту того, что источник этой самой информации недостаточно достоверен. По сути это жизненная необходимость, но мошенники у некоторых людей всё равно умудряются обходить подобные мозговые защиты и втираться в доверие.
Сомнительно что какая-то значительная часть пользователей будет рассказывать личную информацию чату по собственной инициативе. Заранее подготовленных наводящих вопросов не увидел.
Так в Yadro C# не является одним из основных языков разработки насколько я помню. Поэтому всё логично.
Нужно понимать что обычно человек в опроснике ничего плохого о себе не ответит. Поэтому опросы вида "оцените свою целеустремлённость по 5-ти бальной шкале" дадут практически мусорные данные. А критериев косвенной оценки немало:
1) смотрит ли сериалы и фильмы(если да то какие);
2) есть ли интерес к футболу и подобным;
3) возраст;
4) национальность родителей (особенно если национальности разные);
5) место проживания (москвичи часто рассуждают немного по-другому чем жители регионов);
и возможные другие. Но надо учитывать всё-таки антропологию, а не бездумно строчить вымышленные критерии косвенной оценки.
И не надо забывать что избирательность может работать в обе стороны. Нужно несколько принудительное распределение, так как в обычных условиях внимание получает практически небольшая часть людей, внимание которых не безгранично. Поэтому корректнее сказать "поиск наиболее релевантных людей", так как слово "подходящий" включает большую субъективную составляющую.
Как бы радоваться особо не стоит, так как агентный кодинг - попытка подсократить количество вакансий/ работы на разработку, причём не немного как в случае вайб кодинга, а довольно значительно.
Вопрос в том, что лицензия официально не open source и как следствие код bitrix наиболее вероятно не попал в базы обучения LLM.