Я выгрузил историю чатов с chatgpt, claude и с помощью скиллов от Карпаты обработал их, получив вики с концептами, сущностями и т.д. причём, выгрузка у каждого сервиса своя, но в целом это json файл (у клода один на все переписки, у чатагпт - несколько). Перед запуском ingest сказал, чтобы он учел что выгрузки разный Формат имеют. Делал все в клод коде, 'мозги" - glm5.1, навык от Андрея извлек каждый диалог в отдельный файл, и уже потом обработал в вики их.
Затем попросил добавить в рабочую папку обсидиана папку sources, скопировать туда все исходные чаты, переименовать их, исходя из сути, дополнить ссылками на статьи в вики на каждый отдельный диалог и связать все диалоги тегами, темами и т.д., чтобы получилось как можно больше связей в графе. Поиск намного проще стал - так как сложно искать было в интерфейсах сервисов диалоги.
Из интересного, вики обозвала меня "субъект", и сделала заметку "двойные запросы", указав в ней что то вроде "субъект предпочитает делать одновременно или с небольшой разницей во времени одинаковые запросы в клод и чатгпт, что говорит о недоверии одному мнению и желанию получить варианты решения проблемы.." 😁
Как корабль бота назовёшь, так и он работать будет 😁.
Паганини - так себе заявочка на качество исполнения (эта же предпосылка была при выборе имени?)
Если серьёзно, то мелкие ответвления даже не смотрел-openclaw тестирую, на очереди Hermes, но выводы совпадают с выводами автора, автономность пока не та, которую ожидаю...так, прикольное хобби для меня пока
О, это очень близко концепции постплатформ, Solid от Александра Турского и соратников, встречался с публикациями где то 20-21гг. Неплохо иметь сервер (и, естественно управлять им), который является источником для всех публикаций и вообще
Зашёл в комменты, чтобы дать совет перейти на следующий уровень вайб программирования - использовать не чат с LLM, а запустить все в специализированном инструменте, заточенном на создание кода, позволяющим сделать проще работу с исправлением ошибок, чётко определить роли (от режима plan, с которого надо начинать, до запуска субагентов, нацеленных на определённые роли "разработчиков, которых уволили" - тестировщик, безопасник и т.д. )
Но начало, думаю, у каждого вайбкодера такое и было - бег по граблям между окнами чата с LLM и консолью IDE. В любом случае, удачи!
По идее, неплохим способом ускорить обработку/снизить кол-во токенов - позволить агентам общаться не на человеческом языке, а на своём- напрямую токенами, к примеру я сразу снимаем доп.время на обработку.
Второе интересное (на мой взгляд) направление - результаты которые судья поставил - могут ли они как то учитываться в следующих итерациях? Ну то есть, судья не просто судит, но и команда потом генерит лучшее решение и оно как слой уточнения записывается и используется в решении похожих задач, так сказать, закрепление навыка-специализации
Нет, конечно. Для меня интересный опыт разворачивания в докере сразу несколько ботов телеги, раньше не сталкивался. А то, что не использую - ну юмор от ботов тоже быстро приедается )
Где то год назад, решил модифицировать свой проект комментатора событий умного дома чем то похожим.
Сделал 5 или 6 ботов, каждому дал через системный промпт "характер" и запустил в канал умного дома, чтобы они добавляли живости. Интересно первое время, потом поднадоело, и, хотя были мысли модифицировать их общение, постепенно забросил и отключил их ...
Интересно, проект заинтересовал, буду разворачивать на виртуальной машинке в Proxmox, сделаю бэкап ее раз в день, таким образом сохраню возможность не терять прогресс
Наглое вранье и сборник реферальных ссылок. Ботхаб дал стандартные 30к, зато автор, наверняка со всех пополнений зарегистрировавшихся по его ссылкам пользователей будет получать по капельке. Мерзко
Композа пока нет, без композа даже шевелиться не начну
последнее время часто использую Gemini для того, чтобы он мне сделал композ файл - если не с первого, то со второго раза получается рабочий вариант и да, ничто не мешает потом делать рефакторинг, закинув в другую мощную модель, попросив оптимизировать композ )
Пока самая полная статья об этом инструменте, которую я видел в русскоязычной части интернета, спасибо, ряд вещей, например про тот же токен поисковика- для меня новая информация, воспользуюсь.
Да, с cron пока не подружил его нормально, буду эксперименты на выходных делать ).
Меня удивила автономность, реально -пишу ему - в локальной сети есть инстанс ollama, 192....:11434, подключись...пошуршал и отрапортовал, что сделал...с подключением к nextcloud календарю чуток сложнее - кинул ему адрес сервера, пароль приложения - через 5 минут ответил, что траблы...закинул ему ссылку на скилл работы с внешними календарями - сработало...)
Да, согласен, такая волна-просто потому что люди наконец то смогли прикоснуться к той "магии" ассистентов через простые шаги установки (1 команда) и настройки - 10 минут, если не упарываться в безопасность.
П.с. да, паттерны "причесывания" текста моделью видны 🙃
У меня для теста развернут в lxc контейнере в ubuntu в proxmox, пока полет нормальный. Чуток погоняю, чтобы понять реальный (применимый) способ использования для меня и переведу куда то на постоянное место, ту же vm в проксмокс. Вроде даже видел докер способ установить, развивают постепенно. Не удивлюсь, если вскоре появятся на термуксе рабочие варианты, чтобы вообще в телефоне жил
Я выгрузил историю чатов с chatgpt, claude и с помощью скиллов от Карпаты обработал их, получив вики с концептами, сущностями и т.д. причём, выгрузка у каждого сервиса своя, но в целом это json файл (у клода один на все переписки, у чатагпт - несколько). Перед запуском ingest сказал, чтобы он учел что выгрузки разный Формат имеют. Делал все в клод коде, 'мозги" - glm5.1, навык от Андрея извлек каждый диалог в отдельный файл, и уже потом обработал в вики их.
Затем попросил добавить в рабочую папку обсидиана папку sources, скопировать туда все исходные чаты, переименовать их, исходя из сути, дополнить ссылками на статьи в вики на каждый отдельный диалог и связать все диалоги тегами, темами и т.д., чтобы получилось как можно больше связей в графе. Поиск намного проще стал - так как сложно искать было в интерфейсах сервисов диалоги.
Из интересного, вики обозвала меня "субъект", и сделала заметку "двойные запросы", указав в ней что то вроде "субъект предпочитает делать одновременно или с небольшой разницей во времени одинаковые запросы в клод и чатгпт, что говорит о недоверии одному мнению и желанию получить варианты решения проблемы.." 😁
Как
корабльбота назовёшь, так и он работать будет 😁.Паганини - так себе заявочка на качество исполнения (эта же предпосылка была при выборе имени?)
Если серьёзно, то мелкие ответвления даже не смотрел-openclaw тестирую, на очереди Hermes, но выводы совпадают с выводами автора, автономность пока не та, которую ожидаю...так, прикольное хобби для меня пока
О, это очень близко концепции постплатформ, Solid от Александра Турского и соратников, встречался с публикациями где то 20-21гг. Неплохо иметь сервер (и, естественно управлять им), который является источником для всех публикаций и вообще
Зашёл в комменты, чтобы дать совет перейти на следующий уровень вайб программирования - использовать не чат с LLM, а запустить все в специализированном инструменте, заточенном на создание кода, позволяющим сделать проще работу с исправлением ошибок, чётко определить роли (от режима plan, с которого надо начинать, до запуска субагентов, нацеленных на определённые роли "разработчиков, которых уволили" - тестировщик, безопасник и т.д. )
Но начало, думаю, у каждого вайбкодера такое и было - бег по граблям между окнами чата с LLM и консолью IDE. В любом случае, удачи!
Очень интересно, спасибо.
По идее, неплохим способом ускорить обработку/снизить кол-во токенов - позволить агентам общаться не на человеческом языке, а на своём- напрямую токенами, к примеру я сразу снимаем доп.время на обработку.
Второе интересное (на мой взгляд) направление - результаты которые судья поставил - могут ли они как то учитываться в следующих итерациях? Ну то есть, судья не просто судит, но и команда потом генерит лучшее решение и оно как слой уточнения записывается и используется в решении похожих задач, так сказать, закрепление навыка-специализации
Нет, конечно. Для меня интересный опыт разворачивания в докере сразу несколько ботов телеги, раньше не сталкивался. А то, что не использую - ну юмор от ботов тоже быстро приедается )
Кстати, этот проект чем то похож на мой плеер для слабовидящего - по крайней мере клиент-серверной реализацией)
https://habr.com/ru/articles/906526/
Где то год назад, решил модифицировать свой проект комментатора событий умного дома чем то похожим.
Сделал 5 или 6 ботов, каждому дал через системный промпт "характер" и запустил в канал умного дома, чтобы они добавляли живости. Интересно первое время, потом поднадоело, и, хотя были мысли модифицировать их общение, постепенно забросил и отключил их ...
Ну как бы про "дешевле на десятку тысяч" - немного приукрасили.
Onyx air 5c - 55килорублей, 4c, думаю в районе 50к можно найти.
Те же 10 дюймов, та же технология экрана, подсветка, андроид 15 на борту и 6Гб оперативки.
Интересно, проект заинтересовал, буду разворачивать на виртуальной машинке в Proxmox, сделаю бэкап ее раз в день, таким образом сохраню возможность не терять прогресс
Когда я удалялся(2017 год), была возможность экспорта всех данных, но тот гид уже не найду, да и, возможно, уже поменялось...вот, нашел на их вики
https://m.vk.com/vkui/support/#/article/18145
Посмотрите проект nyan на гитхабе, уверен, что 90% задачи он закроет
Наглое вранье и сборник реферальных ссылок. Ботхаб дал стандартные 30к, зато автор, наверняка со всех пополнений зарегистрировавшихся по его ссылкам пользователей будет получать по капельке. Мерзко
У меня в боте телеги сейчас работает от Сбера модель. Навайбкодил бота по статье и коду в блокноте
https://habr.com/ru/articles/979038/
Спасибо, интересно. В свое время попробовал spark и blue mail. Не зашли. Остановился на Thunderbird.
Кстати, это простой
советскийбуревестник, если что )Да, мульт Буревестник тоже рекоменжую к просмотру - напомнило некоторые мульты производства Армянфильм по степени абсурдности
В основной ленте архивируйте чаты, которые включили в папки.
А еще вместо букв в названии папок можно использовать эмоджи ), как, впрочем и на названия папок приложений в телефоне )
последнее время часто использую Gemini для того, чтобы он мне сделал композ файл - если не с первого, то со второго раза получается рабочий вариант
и да, ничто не мешает потом делать рефакторинг, закинув в другую мощную модель, попросив оптимизировать композ )
Пока самая полная статья об этом инструменте, которую я видел в русскоязычной части интернета, спасибо, ряд вещей, например про тот же токен поисковика- для меня новая информация, воспользуюсь.
Да, с cron пока не подружил его нормально, буду эксперименты на выходных делать ).
Меня удивила автономность, реально -пишу ему - в локальной сети есть инстанс ollama, 192....:11434, подключись...пошуршал и отрапортовал, что сделал...с подключением к nextcloud календарю чуток сложнее - кинул ему адрес сервера, пароль приложения - через 5 минут ответил, что траблы...закинул ему ссылку на скилл работы с внешними календарями - сработало...)
Да, согласен, такая волна-просто потому что люди наконец то смогли прикоснуться к той "магии" ассистентов через простые шаги установки (1 команда) и настройки - 10 минут, если не упарываться в безопасность.
П.с. да, паттерны "причесывания" текста моделью видны 🙃
У меня для теста развернут в lxc контейнере в ubuntu в proxmox, пока полет нормальный. Чуток погоняю, чтобы понять реальный (применимый) способ использования для меня и переведу куда то на постоянное место, ту же vm в проксмокс. Вроде даже видел докер способ установить, развивают постепенно. Не удивлюсь, если вскоре появятся на термуксе рабочие варианты, чтобы вообще в телефоне жил