Ну тут зависит от задачи. Простые, но многословные бойлерплейты, к примеру, ИИ напишет быстрее. Хоть бы и потому, что при обучении он "видел" много таких.
Там тоже много нюансов. Кажется, мало кто в индустрии знает как правильно работать с мультиагентностью. Есть проекты типа claude-flow, созданные для автоматизации управления роем агентов, но они не универсальны и имеют свои ограничения.
Этого все же недостаточно, чтобы "хорошо готовить" ИИ. Пробовали инструменты умного управления контекстом? Пробовали claude-flow? Пробовали traycer и различные системы декомпозиции задач? Конечно, кодовые ассистенты это не панацея, но качество генерации ими кода сильно зависит от навыков программиста работать с ИИ.
А есть какой-то репозиторий с примерами кода для дообучения или хоть что-то воспроизводимое? Иначе практической пользы от статьи 0. Рассказ о том, что крупный банк умеет дообучать модели через LoRA - это не какое-то сверхдостижение, достойное статьи.
NotebookLM, если требование запускать локально необязательно. Если хочется локально, доступно множество инструментов для организации базы знаний и интеграции с LLM, вот некоторые из них: Open WebUI, LM Studio, Msty Studio, Librechat, Cherry Studio, Chatbox, AnythingLLM, GPT4All.
LLM-агенты приближаются к функциональности к системам типа Soar: они могут планировать, хранить внешнюю память, обучаться через RAG, использовать правила и инструменты. Проблема только в непрозрачности генерации текста LLM. Именно поэтому многие исследователи сейчас пытаются смешивать подходы: использовать LLM как «семантический модуль» внутри символических когнитивных архитектур (в т.ч. в самом Soar).
Если вы более детально углубитесь в тему "настоящего ИИ", то узнаете, что "делать то же самое, что человек" - это лишь один из вариантов определения ИИ. Есть и другие, никак не ссылающиеся на способности человека.
А эти невычислимые задачи являются вычислимыми для человека? Нет, так как теорема Геделя основана на способе вывода противоречий в формальной теории. ИИ здесь не нужно уметь что-то особое вычислять.
Ну тут зависит от задачи. Простые, но многословные бойлерплейты, к примеру, ИИ напишет быстрее. Хоть бы и потому, что при обучении он "видел" много таких.
Там тоже много нюансов. Кажется, мало кто в индустрии знает как правильно работать с мультиагентностью. Есть проекты типа claude-flow, созданные для автоматизации управления роем агентов, но они не универсальны и имеют свои ограничения.
Этого все же недостаточно, чтобы "хорошо готовить" ИИ. Пробовали инструменты умного управления контекстом? Пробовали claude-flow? Пробовали traycer и различные системы декомпозиции задач? Конечно, кодовые ассистенты это не панацея, но качество генерации ими кода сильно зависит от навыков программиста работать с ИИ.
Нет никаких доказательств того, что языковая модель мира в мозге человека принципиально по другому устроена, чем в LLM.
А что такое "мышление"? Как вы поняли, что LLM к нему не способны?
А есть какой-то репозиторий с примерами кода для дообучения или хоть что-то воспроизводимое? Иначе практической пользы от статьи 0. Рассказ о том, что крупный банк умеет дообучать модели через LoRA - это не какое-то сверхдостижение, достойное статьи.
Думаю, текст скорее AI-free
Это неверное утверждение.
Перечисленные мной системы это умеют из коробки, например, в Msty Studio эта функциональность называется Knowledge stacks.
NotebookLM, если требование запускать локально необязательно. Если хочется локально, доступно множество инструментов для организации базы знаний и интеграции с LLM, вот некоторые из них: Open WebUI, LM Studio, Msty Studio, Librechat, Cherry Studio, Chatbox, AnythingLLM, GPT4All.
Только нужно иметь приличный GPU
Увеличение окна едва ли даст качественное улучшение генерации кода, скорее просто conversation condensing будет реже происходить
Это не так. Качество генерации упало из-за багов в инфре и инструментах компиляции, это уже вылечили:
https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues
LLM-агенты приближаются к функциональности к системам типа Soar: они могут планировать, хранить внешнюю память, обучаться через RAG, использовать правила и инструменты. Проблема только в непрозрачности генерации текста LLM. Именно поэтому многие исследователи сейчас пытаются смешивать подходы: использовать LLM как «семантический модуль» внутри символических когнитивных архитектур (в т.ч. в самом Soar).
LLM - это область AI, неверно утверждать, что "LLM - это не AI"
Это не верно. ML - это подмножество AI.
Где посмотреть результат вашего труда?
А почему форкнули именно Continue, а не Roo code? Кажется, по функциональности и скорости внедрения новых фич Roo Code круче
Достаточно купить стим дек
Если вы более детально углубитесь в тему "настоящего ИИ", то узнаете, что "делать то же самое, что человек" - это лишь один из вариантов определения ИИ. Есть и другие, никак не ссылающиеся на способности человека.
А эти невычислимые задачи являются вычислимыми для человека? Нет, так как теорема Геделя основана на способе вывода противоречий в формальной теории. ИИ здесь не нужно уметь что-то особое вычислять.