1) Подскажите, почему тестировали именно Claude 3.5 Sonnet ? 2) Давали ли вы контекст, если нет то почему, моделям для понимания роли (экспертная ситуация) что они находятся в России или где то еще ?
Есть более подробный документ. Но если форматирование является сигналом что информация не важна или не нужна, то какой смысл её читать и оставлять комментарии?
Об этом и речь в посте, что нужно думать используя ИИ, это инструмент, который на данном этапе развития имеет ограничения, сильные и слабые стороны. Нельзя его превращать в волшебную палочку.
Мой пост как раз учит тому как отличать бред как вы говорите который могут генерировать LLM если ими пользоваться не думая. А так же о последствиях к чему это приведет.
Так очевидно что все компании, которые зарабатывают денежку на предоставлении услуг ИИ, рекламе и т.д - будут гнать хайп вокруг всего этого. "эффект LLM минимальный, часто отрицательный", но отказ от участия в этой гонке еще хуже.
Спасибо вам. Я периодически задумываюсь над тем, стоит ли тратить время на open source контрибуцию и написание постов и статей в соц сетях. Пожалуй нужно будет вновь обдумать и оценить насколько это имеет смысл.
Вайбкодинг это вообще дичь по моему мнению. То как его изначально показывают, мол нажал кнопку и тебе ИИ написал все готовое.
У меня есть шаблон в файла для работы. Который помогает думать над задачей, анализировать знания и технологии, которые я использую и понимать пробелы и слабые стороны.
Локально все работает ужасно, тягаться с моделями на триллион параметров бессмысленно на мой взгляд.
Чтобы написать текст этой статьи у меня ушло 3 месяца почти ежедневной работы, практики и общения с людьми кто использует llm и другие модели для помощи в своей работе.
Спасибо большое за подробный ответ! Будет любопытно посмотреть результаты для новых версий моделей ;)
@NikitaMartynov Привет! Отличная статья.
1) Подскажите, почему тестировали именно Claude 3.5 Sonnet ?
2) Давали ли вы контекст, если нет то почему, моделям для понимания роли (экспертная ситуация) что они находятся в России или где то еще ?
Есть более подробный документ. Но если форматирование является сигналом что информация не важна или не нужна, то какой смысл её читать и оставлять комментарии?
Если таки интересно, то есть подробное руководство https://github.com/mikhashev/personal-context-manager/blob/main/docs/cognitive bias in AI and LLMs a user's guide.md
Об этом и речь в посте, что нужно думать используя ИИ, это инструмент, который на данном этапе развития имеет ограничения, сильные и слабые стороны. Нельзя его превращать в волшебную палочку.
Спасибо вам за обратную связь. Фильтр работает.
Понятно.
А что именно в посте по вашему мнению является бредом ? 1-2 примера.
Мой пост как раз учит тому как отличать бред как вы говорите который могут генерировать LLM если ими пользоваться не думая. А так же о последствиях к чему это приведет.
Что именно вам показалось бредом?
Наоборот, скорее приспособленца
Думаю серьезные коммерческие проекты могут себе позволить свои локальные инференсы таких моделей, если им это будет выгодно.
Для себя я такой способ использую иногда для больших проектов https://github.com/context-hub/generator
Так очевидно что все компании, которые зарабатывают денежку на предоставлении услуг ИИ, рекламе и т.д - будут гнать хайп вокруг всего этого. "эффект LLM минимальный, часто отрицательный", но отказ от участия в этой гонке еще хуже.
Спасибо вам. Я периодически задумываюсь над тем, стоит ли тратить время на open source контрибуцию и написание постов и статей в соц сетях. Пожалуй нужно будет вновь обдумать и оценить насколько это имеет смысл.
Возможно вам будет полезно обсудить вашу тему с Аланом Бигуловым https://t.me/FluencyThroughAI
А в чем по вашему мнению разница между тем что напишет Человек и LLM ?
когда в статье написана дичь - это понятно сразу, без разницы человек это писал или человек попросил на генерировать эту дичь ИИ.
Статья это мой опыт, ужатый для максимальной полезности.
С моим опытом который использовался для этой статьи можете ознакомиться тут https://github.com/mikhashev/personal-context-manager
Вайбкодинг это вообще дичь по моему мнению. То как его изначально показывают, мол нажал кнопку и тебе ИИ написал все готовое.
У меня есть шаблон в файла для работы. Который помогает думать над задачей, анализировать знания и технологии, которые я использую и понимать пробелы и слабые стороны.
Локально все работает ужасно, тягаться с моделями на триллион параметров бессмысленно на мой взгляд.
хорошо что у вас есть понимание, что можно делегировать ИИ, а что нужно делать самостоятельно.
Кто заинтересован?
Тыкните в меня пожалуйста статьей, где есть разбор тех же вопросов что в моей.
Посмотрите пожалуйста мой репозиторий github/mikhashev
Чтобы написать текст этой статьи у меня ушло 3 месяца почти ежедневной работы, практики и общения с людьми кто использует llm и другие модели для помощи в своей работе.