
Бывший директор по ИИ в Tesla и сооснователь OpenAI Андрей Карпати поделился методом, которым пользуется все активнее: он собирает сырые материалы по определенной теме — статьи, научные работы, репозитории, датасеты — в одну папку, а затем LLM "компилирует" из них полноценную вики. На выходе — коллекция markdown-файлов с саммари, перекрестными ссылками и статьями по отдельным концептам. Одна из его текущих баз — порядка 100 статей и 400 000 слов, и ни одна запись не написана вручную.
Главный сюрприз — в том, чего Карпати не использует. По его словам, он ожидал, что для вопросов к такому массиву придется строить RAG-пайплайн, однако LLM-агент справляется сам: модель поддерживает индекс-файлы, краткие описания документов и без дополнительной инфраструктуры находит нужные фрагменты. В качестве интерфейса для просмотра Карпати использует Obsidian, а для презентаций — формат Marp.
Отдельно он описал цикл, в котором результаты запросов возвращаются обратно в базу. Ответы на вопросы, сгенерированные графики и слайды "подшиваются" в вики и обогащают ее для следующих запросов. LLM также проводит "проверки здоровья": ищет противоречия, восполняет пробелы через веб-поиск и предлагает темы для новых статей.
В перспективе Карпати видит следующий шаг — синтетические данные и дообучение, чтобы LLM "знала" содержимое базы на уровне весов, а не контекстного окна. А подход в целом он оценил одной фразой: здесь есть место для нового продукта — вместо "набора костылей из скриптов", которыми это пока остается.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
