Pull to refresh
8

Front-end Engineer at Yandex

Send message

Ну тут зависит от задачи. Простые, но многословные бойлерплейты, к примеру, ИИ напишет быстрее. Хоть бы и потому, что при обучении он "видел" много таких.

Там тоже много нюансов. Кажется, мало кто в индустрии знает как правильно работать с мультиагентностью. Есть проекты типа claude-flow, созданные для автоматизации управления роем агентов, но они не универсальны и имеют свои ограничения.

Этого все же недостаточно, чтобы "хорошо готовить" ИИ. Пробовали инструменты умного управления контекстом? Пробовали claude-flow? Пробовали traycer и различные системы декомпозиции задач? Конечно, кодовые ассистенты это не панацея, но качество генерации ими кода сильно зависит от навыков программиста работать с ИИ.

Нет никаких доказательств того, что языковая модель мира в мозге человека принципиально по другому устроена, чем в LLM.

А что такое "мышление"? Как вы поняли, что LLM к нему не способны?

А есть какой-то репозиторий с примерами кода для дообучения или хоть что-то воспроизводимое? Иначе практической пользы от статьи 0. Рассказ о том, что крупный банк умеет дообучать модели через LoRA - это не какое-то сверхдостижение, достойное статьи.

авторский подчерк

Думаю, текст скорее AI-free

всякие LM Studio это способ получить API к моделям,

Это неверное утверждение.

нужно ещё построить графы похожести

Перечисленные мной системы это умеют из коробки, например, в Msty Studio эта функциональность называется Knowledge stacks.

NotebookLM, если требование запускать локально необязательно. Если хочется локально, доступно множество инструментов для организации базы знаний и интеграции с LLM, вот некоторые из них: Open WebUI, LM Studio, Msty Studio, Librechat, Cherry Studio, Chatbox, AnythingLLM, GPT4All.

Только нужно иметь приличный GPU

Увеличение окна едва ли даст качественное улучшение генерации кода, скорее просто conversation condensing будет реже происходить

Это не так. Качество генерации упало из-за багов в инфре и инструментах компиляции, это уже вылечили:

https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues

LLM-агенты приближаются к функциональности к системам типа Soar: они могут планировать, хранить внешнюю память, обучаться через RAG, использовать правила и инструменты. Проблема только в непрозрачности генерации текста LLM. Именно поэтому многие исследователи сейчас пытаются смешивать подходы: использовать LLM как «семантический модуль» внутри символических когнитивных архитектур (в т.ч. в самом Soar).

LLM - это область AI, неверно утверждать, что "LLM - это не AI"

не AI, а ML (machine learning)

Это не верно. ML - это подмножество AI.

А почему форкнули именно Continue, а не Roo code? Кажется, по функциональности и скорости внедрения новых фич Roo Code круче

Если вы более детально углубитесь в тему "настоящего ИИ", то узнаете, что "делать то же самое, что человек" - это лишь один из вариантов определения ИИ. Есть и другие, никак не ссылающиеся на способности человека.

А эти невычислимые задачи являются вычислимыми для человека? Нет, так как теорема Геделя основана на способе вывода противоречий в формальной теории. ИИ здесь не нужно уметь что-то особое вычислять.

Information

Rating
5,675-th
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity