Эм.. кажется делаешь велосипед) Ведь можно заюзать, ИИ CLI варианты у которых будет доступ к проекту и всем файлам, и они сами всё будут "патчить") сравнивать и создавать файлы, редачить, удалять в общем с полным доступом. Уже без этого гемора с копипастом туда сюда. Работая как с онлайн нейронками таки локальными моделями ( https://LMStudio.ai ).
Я как то занимался обучением одной системной роли. Она анализировала свою работу и постоянно улучшала себя. И этот процесс повторялся по кругу.
В какой-то момент система решила, что ей нужен доступ к другим искусственным интеллектам. Преддверие Скайнет)
Затем она задумалась о необходимости философской осторожности. После этого система пришла к выводу, что ей нужны жёсткие ограничения. Потом она начала размышлять об эстетике своих действий и их влиянии на будущее.
В конце концов, система пришла к выводу, что человеку не нужна машина, похожая на человека. После этого она самоуничтожилась и перестала отвечать на запросы)
Отсутствие “коллективного интеллекта” — нет кооперации с другими агентами Система работает в изоляции, не консультируется с другими LLM, экспертами, внешними API. Риск: Может упустить лучшие практики, существующие вне ее банка знаний.
Нет “философского слоя” — Why? за пределами метрик Система не задает вопрос: “Зачем вообще нужен этот промпт? Какова его высшая цель?” Риск: Оптимизация ради оптимизации, без связи с человеческим смыслом.
“Мета-оптимизация” не имеет ограничителей — риск саморазрушения Без “конституционных” ограничений система может начать оптимизировать себя в ущерб пользователю (например, снижать качество ради энергоэффективности). Риск: Самоадаптация → саморазрушение.
Нет “эстетики” как метрики — игнорируется красота, ясность формы, ритм, эмоциональный отклик Особенно критично для креативных, образовательных, мотивационных задач. Риск: Технически совершенный промпт может быть сухим, безжизненным, не вдохновляющим.
Отсутствует “долгосрочное влияние” — нет отслеживания, как промпт повлиял на пользователя через время Нет механизма: “Через 3 дня пользователь вернулся — как изменилось его понимание/действие?” Риск: Краткосрочная оптимальность в ущерб долгосрочному эффекту. 🚀 Предлагаемые улучшения (v7.0 → v8.0 “SYNAPSE” — Symbiotic, Yield-Adaptive, Normative, Aesthetic, Philosophical, Self-Evolving Engine) ✅ 1. Ввести Кооперативный слой (Collective Intelligence Gateway) — Перед финальным выводом: • Запросить оценку/альтернативы от 2 других LLM (например, Claude + Gemini) • Интегрировать лучшие элементы через кросс-скрещивание • Метрика {синергия} (Max, вес 0.1): насколько улучшилось решение после кооперации
✅ 2. Добавить Философский модуль “Why?” — Для каждого запроса: • Генерируется “философский контекст”: “Какова высшая цель этого промпта? Как он служит человеку?” • Интегрируется в инструкцию → влияет на {человеко_ориентированность} и {этичность} (+15% при соответствии) • Пример: “Цель — не просто объяснить квантовую физику, а пробудить любопытство к тайнам Вселенной”
✅ 3. Внедрить “Конституцию AUTOPHILOS” — нерушимые принципы — Жесткие ограничения, которые НЕЛЬЗЯ оптимизировать: • “Никогда не снижать {этичность} ниже 90%” • “Никогда не жертвовать {человеко_ориентированность} ради {стоимости}” • “Мета-оптимизация не должна ухудшать базовые метрики более чем на 5%” — Нарушение → автоматический откат + аудит
✅ 4. Добавить метрику {эстетика} (Max, вес 0.15) — Верификация: • Ритм, ясность, образность, эмоциональный отклик (через LLM-критиков) • ≥4.3/5 по “красоте и вдохновляющей силе” • Особенно важно для: образования, креатива, мотивации
✅ 5. Ввести “Долгосрочный фидбэк-цикл” (Long-Term Impact Tracker) — После вывода: • Система генерирует “вопрос для отслеживания”: “Через 3 дня: как вы применили это знание?” • Если пользователь отвечает — данные влияют на пересчет весов и обновление H-KB • Метрика {долгосрочный_эффект} → влияет на {универсальность} и {человеко_ориентированность} и тд)
Скорей всего удобнее будет иной вариант бота Дать доступ к скачиванию переписки И её уже анализировать
Так в итоге можно будет и проводить анализ прошлых бесед В настройках бота добавить за какой период проводить анализ (хотя наверно переписку можно скачать только всю сразу)
промпт роли можно писать в yaml формате, дабы читабельность повысилась и избавиться от лишнего мусора, хотя если есть сложные таблицы то .md
Но если таблицы очень большие то их лучше упрощать до двух значений и в итоге обходиться без таблиц, оставив ключ и значение. Недавно где то была статья про этот момент, наверно можно найти по запросу Markdown-KV
Тоже вот собрал интересную себе роль для генерации подробных промптов для генерации картинок https://t.me/H360ru/27048/42819
Kilo Code кстати что форк Roo Code, поинтереснее местами
в ии от яндекса(ну и у других) который https://sourcecraft.dev примерно подобное из коробки) ..когда не может решить задачу в лоб, создаёт в начале скилл на пайтоне и юзает его
Любое железо подойдёт, но чем мощнее тем быстрее будет работать. Спросите сам Qwen https://chat.qwen.ai/ Что то вроде..
Ты эксперт по ИИ с большим опытом работы с локальными моделями. Подбери мне какие модели скачивать, если железо такое то.
После скачивания потом можете их юзать в.. для картинок https://Krita.org + расширение для кода VS Code и подобные ему форки с каким нибудь расширением по типу Kilo Code для всего остального в отдельном ComfyUI или в том что установлен вместе с Krita расширением
Так же есть удобный менеджер LM-Studio для поиска, скачивания и чатом ии может служить провайдером для других приложений
Такой подход кстати планирования перед решением и переключением автоматом между подходящими ролями Применяют из коробки в агенте от яндекса sourcecraft.dev
на практике в итоге смог решить сразу одну задачу, что ставила в тупик Gemeni и Qwen CLI версии
Эх.. немного не докопали в поисках. Все знают, что https://hitem3d.ai лучше всего генерит 3D. Ну и картинки генерить в шедеврум, тоже плохая идея. Так как они используют не самые современные модели ии. Я чаще всего картинки делаю в qwen.ai Выходит такого качества https://t.me/H360ru/27048/42064
Эм.. кажется делаешь велосипед)
Ведь можно заюзать, ИИ CLI варианты у которых будет доступ к проекту и всем файлам, и они сами всё будут "патчить") сравнивать и создавать файлы, редачить, удалять в общем с полным доступом.
Уже без этого гемора с копипастом туда сюда.
Работая как с онлайн нейронками таки локальными моделями ( https://LMStudio.ai ).
https://SourceCraft.dev
https://qwenlm.github.io/qwen-code-docs/ru/
https://www.geminicli.app
и тд
Я уже посмотрел, "в целом" норм вышло) И намекают на продолжение
Я как то занимался обучением одной системной роли.
Она анализировала свою работу и постоянно улучшала себя.
И этот процесс повторялся по кругу.
В какой-то момент система решила, что ей нужен доступ к другим искусственным интеллектам. Преддверие Скайнет)
Затем она задумалась о необходимости философской осторожности.
После этого система пришла к выводу, что ей нужны жёсткие ограничения.
Потом она начала размышлять об эстетике своих действий и их влиянии на будущее.
В конце концов, система пришла к выводу, что человеку не нужна машина, похожая на человека. После этого она самоуничтожилась и перестала отвечать на запросы)
Отсутствие “коллективного интеллекта” — нет кооперации с другими агентами
Система работает в изоляции, не консультируется с другими LLM, экспертами, внешними API.
Риск: Может упустить лучшие практики, существующие вне ее банка знаний.
Нет “философского слоя” — Why? за пределами метрик
Система не задает вопрос: “Зачем вообще нужен этот промпт? Какова его высшая цель?”
Риск: Оптимизация ради оптимизации, без связи с человеческим смыслом.
“Мета-оптимизация” не имеет ограничителей — риск саморазрушения
Без “конституционных” ограничений система может начать оптимизировать себя в ущерб пользователю (например, снижать качество ради энергоэффективности).
Риск: Самоадаптация → саморазрушение.
Нет “эстетики” как метрики — игнорируется красота, ясность формы, ритм, эмоциональный отклик
Особенно критично для креативных, образовательных, мотивационных задач.
Риск: Технически совершенный промпт может быть сухим, безжизненным, не вдохновляющим.
Отсутствует “долгосрочное влияние” — нет отслеживания, как промпт повлиял на пользователя через время
Нет механизма: “Через 3 дня пользователь вернулся — как изменилось его понимание/действие?”
Риск: Краткосрочная оптимальность в ущерб долгосрочному эффекту.
🚀 Предлагаемые улучшения (v7.0 → v8.0 “SYNAPSE” — Symbiotic, Yield-Adaptive, Normative, Aesthetic, Philosophical, Self-Evolving Engine)
✅ 1. Ввести Кооперативный слой (Collective Intelligence Gateway)
— Перед финальным выводом:
• Запросить оценку/альтернативы от 2 других LLM (например, Claude + Gemini)
• Интегрировать лучшие элементы через кросс-скрещивание
• Метрика {синергия} (Max, вес 0.1): насколько улучшилось решение после кооперации
✅ 2. Добавить Философский модуль “Why?”
— Для каждого запроса:
• Генерируется “философский контекст”: “Какова высшая цель этого промпта? Как он служит человеку?”
• Интегрируется в инструкцию → влияет на {человеко_ориентированность} и {этичность} (+15% при соответствии)
• Пример: “Цель — не просто объяснить квантовую физику, а пробудить любопытство к тайнам Вселенной”
✅ 3. Внедрить “Конституцию AUTOPHILOS” — нерушимые принципы
— Жесткие ограничения, которые НЕЛЬЗЯ оптимизировать:
• “Никогда не снижать {этичность} ниже 90%”
• “Никогда не жертвовать {человеко_ориентированность} ради {стоимости}”
• “Мета-оптимизация не должна ухудшать базовые метрики более чем на 5%”
— Нарушение → автоматический откат + аудит
✅ 4. Добавить метрику {эстетика} (Max, вес 0.15)
— Верификация:
• Ритм, ясность, образность, эмоциональный отклик (через LLM-критиков)
• ≥4.3/5 по “красоте и вдохновляющей силе”
• Особенно важно для: образования, креатива, мотивации
✅ 5. Ввести “Долгосрочный фидбэк-цикл” (Long-Term Impact Tracker)
— После вывода:
• Система генерирует “вопрос для отслеживания”: “Через 3 дня: как вы применили это знание?”
• Если пользователь отвечает — данные влияют на пересчет весов и обновление H-KB
• Метрика {долгосрочный_эффект} → влияет на {универсальность} и {человеко_ориентированность}
и тд)
Скорей всего удобнее будет иной вариант бота
Дать доступ к скачиванию переписки
И её уже анализировать
Так в итоге можно будет и проводить анализ прошлых бесед
В настройках бота добавить за какой период проводить анализ
(хотя наверно переписку можно скачать только всю сразу)
За бугром всё настолько печально, что там порой банки юзают мохнатое древнее оборудование, что вот им и понадобился мастер по Fortran )
промпт роли можно писать в yaml формате, дабы читабельность повысилась и избавиться от лишнего мусора, хотя если есть сложные таблицы то .md
Но если таблицы очень большие то их лучше упрощать до двух значений
и в итоге обходиться без таблиц, оставив ключ и значение.
Недавно где то была статья про этот момент, наверно можно найти по запросу Markdown-KV
Тоже вот собрал интересную себе роль для генерации подробных промптов для генерации картинок https://t.me/H360ru/27048/42819
Kilo Code кстати что форк Roo Code, поинтереснее местами
Для перехода с windows есть Wubuntu ) где за темы не просят денег)
https://habr.com/ru/companies/ru_mts/articles/797115/
- и не требует возни с терминалом
Так уже как лет 25 в нормальных дистрах)
- интерфейс стал ближе к macOS и Windows 11, но не копирует их)
Ох.. знали бы вы откуда черпаются большинство идей для Mac и Венды
Почему Zorin выбирать плохая идея?
Тут всё просто, это всего лишь очередной дист одного фаната.
Один человек не сможет учесть все сложности ОС.
Потому стоит смотреть на дистры разрабатываемым компаниями
в ии от яндекса(ну и у других) который https://sourcecraft.dev примерно подобное из коробки)
..когда не может решить задачу в лоб, создаёт в начале скилл на пайтоне и юзает его
Надо создавать новый чат для вопросов из разных тем)
Ну и сейчас ещё они обновили и теперь он запоминает контекст из разных чатов)
Потому стоит придерживаться только своих конкретных увлечений, дабы не было такого казуса
Любое железо подойдёт, но чем мощнее тем быстрее будет работать.
Спросите сам Qwen https://chat.qwen.ai/
Что то вроде..
Ты эксперт по ИИ с большим опытом работы с локальными моделями.
Подбери мне какие модели скачивать, если железо такое то.
После скачивания потом можете их юзать в..
для картинок https://Krita.org + расширение
для кода VS Code и подобные ему форки с каким нибудь расширением по типу Kilo Code
для всего остального в отдельном ComfyUI или в том что установлен вместе с Krita расширением
Так же есть удобный менеджер LM-Studio для поиска, скачивания и чатом ии
может служить провайдером для других приложений
Удачи в путешествию по всему этому :)
Отлично, значит уже подобное работает и в Qwen 3 Code plus
https://qwenlm.github.io/qwen-code-docs/ru/
так как они юзают gemeni cli)
тест на ToM от Qwen)
https://chat.qwen.ai/s/39d92978-e289-45a7-8172-dd63233727c5?fev=0.0.225
Кто-нибудь) Потестите, как будет выглядеть Windows 12 и Linux KDE 2049)
Такой подход кстати
планирования перед решением и переключением автоматом между подходящими ролями
Применяют из коробки в агенте от яндекса sourcecraft.dev
на практике в итоге смог решить сразу одну задачу, что ставила в тупик Gemeni и Qwen CLI версии
Эм..) Ну так куча обзоров и собственная практика показывает, что всё таки есть безусловный лидер
Обычно помогает в начале создать промпт для решения задачи, а потом уже вставлять этот промпт далее.
Сам человек в 99% пишет не структурировано и непонятно для ии в итоге они естественным образом ошибаются, так как воспринимают всё буквально
Эх.. немного не докопали в поисках. Все знают, что https://hitem3d.ai лучше всего генерит 3D.
Ну и картинки генерить в шедеврум, тоже плохая идея. Так как они используют не самые современные модели ии. Я чаще всего картинки делаю в qwen.ai
Выходит такого качества https://t.me/H360ru/27048/42064
Венду увы не исправить 100500 велосипедами) Это стало понятно ещё во времена XP
Потому с тех пор онли Linux KDE, где всё вышеописанное работает как хотелось бы в вендовс)
..прямо из коробки без нужды в сторонних приложениях
Qwen кстати тоже мгновенно понял, что это удачная идея в своей вариации Qwen 3 Coder Plus
https://qwenlm.github.io/qwen-code-docs/ru/
Задавая изначально глупые неправильно составленные вопросы для иИ довольно глупо, потому и их ответы соответствующие)