Колышет, если в статьях проработана тема как с этим жить и развиваться. Я три месяца работаю над развитием технологии, которая позволяет человеку работать с llm персонализировано и осознанно. Все в репе на гитхаб регулярно выкладывается.
Понял. Я в основном слежу за применением в разработке пристально, так как это касается моей текущей работы. Шумихи и инфоцыгагщины очень много и будет только больше в ближайшее время, к сожалению.
Вы правы насчет стиля. Моя задача была дать читателям конкретные данные и инструменты, а не развлечь. Поэтому выбрал максимально информационную плотность: цифры, источники, практические шаги. Но ваша критика справедлива: статья о симбиозе человека и ИИ, написанная без "человечности" — это определенный парадокс. Видимо, стоило больше внимания уделить балансу между полезностью и живостью изложения. Спасибо за фидбек!
Абсолютно с вами согласен по поводу безопасности данных. Для себя лично я разработал подход, который позволяет понимать что из данных сохраняет та или иная LLM и более менее контролировать этот процесс.
Понял. С кодом у меня такая же история как у вас, да и у всех сейчас это основная боль. Многие предлагают отдельные решения для IDE в том числе (Cline, Cursor сам по себе). Ребята знакомые, написали специально для этого генератор, https://github.com/context-hub/generator
Спасибо за ответ! Галлюцинируют… и это часто проблема. Поэтому, использовать как ассистента для самостоятельной учёбы вполне можно. Но заменить полностью преподавателя они не могут. Поэтому есть техника для проверки и повышения точности ответов.
Один из вариантов это тот самый файлик (в json или другом формате, подробнее на GitHub у меня описано). Суть его в том чтобы обеспечить долговременную память между чатиками и точный контекст в контекстном окне чатика, это повышает точность. Соблюдение инструкций из файлика разнится по моделям, так же зависит от языка (русский, английский), правил проверки и самовалидации ответов. Пример https://habr.com/ru/articles/896816/comments/#comment_28131500
А для каких задач по работе вы применяете? Какие техники используете для повышения качества ответов?
Можете попросить LLM написать вам код для экспорта данных в Notion из json файлика с вашим контекстом. Такие задачки они сейчас щелкают на ура. И даже объяснят как это сделать по шагам, главное общаться и не требовать невозможного от технологии ;)
Вам спасибо! :) Вообще всем друзьям изначально рекомендую посмотреть видео от Андрея Карпаты. Оно дает основное понимание по LLM на доступном языке для таких как я) https://youtu.be/7xTGNNLPyMI?si=w-6IocrkY_aYVyzv
Разница безусловно есть: основные отличия в доступе, лимитах на сообщения в чате. Платные модели/бесплатные. Размер контекстного окна в чате. Сами модели отличаются по данным на которых их обучали, по инструкциям которые поверх моделей навертели, те кто предоставляют услугу пользования.
Я пользуюсь в основном Claude 3.7 sonnet и Grok 3 (для моих задач: программирование, учеба и ведение персонального контекста для разных задач) их пока хватает. Кмк надо все попробовать, благо бесплатно дают все такую возможность ( с ограничением по лимитам) и выбрать то что удобнее и адекватнее под ваши задачи.
Колышет, если в статьях проработана тема как с этим жить и развиваться. Я три месяца работаю над развитием технологии, которая позволяет человеку работать с llm персонализировано и осознанно. Все в репе на гитхаб регулярно выкладывается.
Заголовок выбирал провокационный намерено.
Понял. Я в основном слежу за применением в разработке пристально, так как это касается моей текущей работы. Шумихи и инфоцыгагщины очень много и будет только больше в ближайшее время, к сожалению.
Писатель запросов для нейросети хорошо знает предметную область? Редко таких встречал.
Вы правы насчет стиля. Моя задача была дать читателям конкретные данные и инструменты, а не развлечь. Поэтому выбрал максимально информационную плотность: цифры, источники, практические шаги. Но ваша критика справедлива: статья о симбиозе человека и ИИ, написанная без "человечности" — это определенный парадокс. Видимо, стоило больше внимания уделить балансу между полезностью и живостью изложения. Спасибо за фидбек!
Я работаю бэкенд разработчиком. А вы?
В итоге один фиг рынок все порешает как хочет…
Что значит автоген ? Где вам стало непонятно что то?
Каким образом?
Потому что в llm текст форматировался в markdown
Почему вы так решили?
Спасибо за столь подробный ответ! Очень крутая и интересная работа проделана вашей командой. Слежу с интересом ;)
@ggospodinov?
А какой размер контекстного окна, для сессии (один чат,одна тема) если использовать звук, изображение и текст? Как часто наблюдаются галлюцинации?
Четвертая уже учится на их ошибках)
А как они реализовали контекстное окно в 10млн токенов?
Абсолютно с вами согласен по поводу безопасности данных. Для себя лично я разработал подход, который позволяет понимать что из данных сохраняет та или иная LLM и более менее контролировать этот процесс.
Писал тут: https://habr.com/ru/articles/897014/
И подробно в open source у себя на GitHub: https://github.com/mikhashev/personal-context-manager
Понял. С кодом у меня такая же история как у вас, да и у всех сейчас это основная боль. Многие предлагают отдельные решения для IDE в том числе (Cline, Cursor сам по себе). Ребята знакомые, написали специально для этого генератор, https://github.com/context-hub/generator
Спасибо за ответ! Галлюцинируют… и это часто проблема. Поэтому, использовать как ассистента для самостоятельной учёбы вполне можно. Но заменить полностью преподавателя они не могут. Поэтому есть техника для проверки и повышения точности ответов.
Один из вариантов это тот самый файлик (в json или другом формате, подробнее на GitHub у меня описано). Суть его в том чтобы обеспечить долговременную память между чатиками и точный контекст в контекстном окне чатика, это повышает точность. Соблюдение инструкций из файлика разнится по моделям, так же зависит от языка (русский, английский), правил проверки и самовалидации ответов. Пример https://habr.com/ru/articles/896816/comments/#comment_28131500
А для каких задач по работе вы применяете? Какие техники используете для повышения качества ответов?
Можете попросить LLM написать вам код для экспорта данных в Notion из json файлика с вашим контекстом. Такие задачки они сейчас щелкают на ура. И даже объяснят как это сделать по шагам, главное общаться и не требовать невозможного от технологии ;)
Вам спасибо! :) Вообще всем друзьям изначально рекомендую посмотреть видео от Андрея Карпаты. Оно дает основное понимание по LLM на доступном языке для таких как я) https://youtu.be/7xTGNNLPyMI?si=w-6IocrkY_aYVyzv
Разница безусловно есть: основные отличия в доступе, лимитах на сообщения в чате. Платные модели/бесплатные. Размер контекстного окна в чате. Сами модели отличаются по данным на которых их обучали, по инструкциям которые поверх моделей навертели, те кто предоставляют услугу пользования.
Я пользуюсь в основном Claude 3.7 sonnet и Grok 3 (для моих задач: программирование, учеба и ведение персонального контекста для разных задач) их пока хватает. Кмк надо все попробовать, благо бесплатно дают все такую возможность ( с ограничением по лимитам) и выбрать то что удобнее и адекватнее под ваши задачи.