Comments 119
Коллеги из западных команд говорят, что скорость разработки выросла в два раза. Не в полтора — в два. Это не хайп, это реальные цифры от реальных людей.
в 100500 раз!! главное в конце добавить, что это "реальные цифры от реальных людей", для большей убедительности) все ваши заявления про "без впн, без облака" и прочее тоже пустые слова, без ссылки на репу
Там очень сильно зависит от характера задач. Если ты условный сеньор пишущий уникальный не имеющий аналогов код с уникальным функционалом - наверное, не сильно скорость выросла.
Если ты условный миддл на типовых мелких задачках - то и в 3 раза могла вырасти.
Если ты как я не кодер, до лида вырос из QA и твой потолок - читать чужое то возможность спросить чатгпт или дикпика и не дёргать по каждой фигне того самого сеньора - вообще бесценна.
Даже банальный бесплатный чат - уже помогает, ибо получается офигенский справочник по всякому разному. Типа, "а как бы мне закатить Солнце вручную, да чтобы на свежеизобретённом велосипеде?" - а она в ответ, мол, есть либа такая и либа сякая, а в стандарте написано то и это. И уже на этой волне спокойно идёшь на тот же cppreference или истчо куды.
"а как бы мне закатить Солнце вручную, да чтобы на свежеизобретённом велосипеде?"
1. Определите тип привода
Как именно ваше изобретение взаимодействует с небесным светилом?
Гравитационный зацеп: Ваш велосипед настолько массивен, что создает собственное поле, «подцепляя» Солнце за край короны и утягивая его за горизонт при нажатии на педали.
Оптический редуктор: Велосипед оснащен системой линз, которые преломляют свет так, что для наблюдателя закат происходит ровно в такт вашему вращению педалей.
Метафизическая цепь: Вы набрасываете цепь прямо на солнечный диск (осторожно, используйте жаропрочную смазку!).
...
Типичный пример оборота из нейрослопового текста.
Я вчера убил 2 часа рабочего времени, исправляя казалось бы простой пропущенный мню косяк (cloude opus 4.6). Чтобы не убить еще больше времени, пришлось прямыми запросами базы править.
Ну вот я вполне себе программист на плюсах со стажем, опытом и квалификацией. Поручить те же юнит-тесты нейронке (только сначала дать ей ТЗ, а потом по рукам и по жопе, когда косячит) - реально кратное ускорение работы. 5 минут на ТЗ, 10 минут она там что-то колбасит, ещё 5 минут проверить за ней и ещё 5 минут на исправления. Самому тот же тест писать - час, и ещё не факт, при копипасте не зевнёшь какую-нибудь ерунду. "Возьми вот этот метод и сделай такой же, только с перламутровыми пуговицами" - та же история (ну, смотря какой метод, конечно). Какие-нибудь радикальные потрахушки с тем же грпц "а вот перепиши мне эти методы с CQ на колбэки... не, кака вышла, верни взад, только вот и там поменяй Х на У", при том что сам я с этого грпц пухну и зверею - уже одно это дорогого стоит.
Словом, про два раза не знаю, очень сильно зависит от текущих задач и от кода, но туеву хучу нудной рутины на неё спихнуть - как два байта переслать за одну посылку. И при этом пока она ломает один кусок кода - я спокойно роюсь в другом одновременно.
В чем смысл велосипедить, если есть опенсорсные Qwen Code CLI, Gemini CLI, в комплекте с неплохо реализованными скиллами, субагентами, работой с контекстом, всеми другими необходимыми фичами, есть куча вариантов браузерных и всех других mcp, и все это просто повторить в одно лицо невозможно, не говоря уже о том, чтобы сделать лучше? Просто переделать под локальный инференс - и все.
Автор молодец. В чем тут велосипед. Так в расоряжении имею своего агента. Уже год как пользуюсь. Когда столкнешься с тем что qwen code или opencode перестает адекватно работать тогда и начинаешь писать свой агент лишенных этих изьянов. По итогу пользуюсь платным claude code и своим. Автор молодец.
А где код приложения? Или вы предлагаете просто поверить вам на слово, что там нет мийнеров, бекдоров и прочих неприятных неожиданностей?
Вирустотал говорит, что всё нормально...

это не показатель. можно и в обновлении докинуть позже. Нужен код.
Не уж то разработчику нельзя просто выпустить что-то )
Конечно можно!
Для этого даже специальная платформа есть: github.
Не благодарите.
Можно следить за развитием проекта на гитхабе автора: https://github.com/babikov/doka-site/releases
А вы точно разработчик, если спрашиваете такое?
Он сканирует уже известные сигнатуры и было бы предупреждение, если бы бинарь уже был заражен каким нибудь известным вирусом или трояном. Как Вирус-тотал может узнать о каком-то новом приложении, например, с бекдором?
Имхо, выкладывать на хабр свою поделку с бекдором-чистое самоубийство для разраба... Не думаю, что автор настолько коварен)
Современные антивирусы показывают что угодно, но маркеры не вирусы
Не переживайте, локальная нейросеть сама по себе сожрет все ресурсы вашей видеокарты так, что на майнинг просто ничего не останется
Поторопился с первым комментарием. Скачал приложение, посмотрел. Что могу сказать - мягко говоря - сыроватое и не хватает меню настроек к этому всему. Чего не хватает, конкретно мне, как потребителю для первого MVP:
Не вижу потребление ресурсов;
Не могу сменить модель через интерфейс;
Не могу выкачать диалоги в json;
Не понимаю, чем принципиально отличается от LMstudio с добавлением RAG интерфейсов с MCP серверами?
Спасибо за отличный фидбэк!
Модели пока только переключение между версиями Qwen3 (в правом верхнем углу), вы правы надо добавить кастомизацию моделей.
Все json чатов хранятся в пользовательской папке doka.
Добавлю в следующей версии.
А насколько длинный диалог ии может помнить?
Это я к тому, что chat gpt начинает деградировать достаточно быстро от тяжелых запросов, а как обстоят дела с вашим товарищем?
А чем ollama принципиально отличается от lmstudio? Т.е. ollama не нужно было делать?
Ничем не отличается. Это просто урезанная версия существующих опенсорсных комбайнов, где за пользователя жестко захардкодили выбор одной модели, чтобы он не запутался в настройках
Хорошая работа.
Подскажите, когда будет релиз второй версии?
Модель скачивается автоматически при первом запуске, приложение само выбирает подходящую под ваше железо.
Мягко говоря, странное решение, если вы на технически подкованную аудиторию нацелились.
Вы молодец, что сделали свой проект, уверен, он многим поможет. Раньше мы с командой уточняли: «дока» — это про документацию, или про «Доку» как проект онлайн-энциклопедии — теперь будем разбавлять вариантом про AI
Отличная работа! Никого не слушайте, продолжайте пилить!
Круто получилось, но странно почему разработчик не сделал версию для линукс, только для операционок которыми пользуются обычные юзеры.
только для операционок которыми пользуются обычные юзеры.
Потому что обычные пользователи меньше задаются вопросом, что в реальности делает скачанное приложение с полным доступом к компьютеру пользователя и интернету.
Обычные юзеры на винде эт как раз те люди, которые скачают exe файл по ссылке с хабра, отключат дефендер и радостно установят себе троян
Тут всё просто, тем кто пользуется Linux это не нужно)
У нас и так полно подобных агентов и тому подобных тулз, плюс каждый, уже сделал своего)
Отличная, работа! Всё сделано руками и очень круто! Ничего лишнего. Я не знаю на сколько тяжело поменять LLM сеть, но если будет возможность добавьте туда qwen 3.5 9b и Гигачат 3,1 Лайт они по качеству примерно одинаковые на карте с 8 Гб в LM Студии работают нормально. Гигачат 3,1 - заметно быстрее Qwen 3.5.
https://habr.com/ru/companies/sberbank/articles/1014146/ - вот обсуждение Гигачата.
Можно добавить к списку загружаемых файлов MD ?
В чем отличие от perplexica ( не путать с perplexity) и open webui подключенных к бекенду в виде тех же lmstudio и ollama?
Ну это больше для пользователей, которые не смогут такое сделать.
Пишет пользователь чайник. На моем ноутбуке не увидел установленного хрома написал, что нужно установить. не удалось вобщем попробовать
Буду решать в ближайшей версии
ни разу не кодер, хотел попробовать, но у меня вообще эдж по умолчанию стоит. можно чтобы и его поддерживал?
а то на любой вопрос модель сейчас у меня выдает "попробуй еще раз". вообще на всё и на высоком качестве и на среднем.
+еще момент. когда удаляешь "новый чат" то потом строка ввода и отправки сообщений недоступна становится
у меня хрома нет, есть яндекс браузер - работает нормально
1. иногда он долго ищет, пользователь передумал - желательно прерывать это занятие по клавише Esc
Он пишет что не может открыть браузер. EУ вас вроде написано что "открывает браузер заполняет формы" ...
Как Вы считаете локальные модели уровня Qwen 3.5 9b / GigaChat-3.1 Lite 10B могут нормально работать с аналогами openclaw ?
Хотелось бы сравнение с той же LM Studio. Чем это решение отличается? Чем лучше?
На linux?
Если это для домохозяек и/или тех, кому лень разбираться, то что по минимальным требованиям к железу?
На вин7 не запустилось, пишет - не является приложением win32, хотя система 64бит. При первоначальном запуске и попытке отладки - необработанное исключение win32 в [9200...
Ок буду разбираться почему такое вылезло, пока такого не было.
Win7 вышла 17 лет назад, на ней современный софт чаще не работает, чем наоборот. Выбросьте ее и ставьте 10-ку.
Все что у вас перечислено в разделе ‘Что я делаю с Докой каждый день’ можно сделать в том же бесплатном и доступном без впн дипсике, и без всяких плясок с бубном. Другое дело локальная работа с файлами и фоновые задачи. Так что ждем, держите в курсе!
Из моделей ещё интересная GLM-flash - она чуть побольше, но с экспертами, и из-за этого работает сильно шустрее. На видеокарте 4080 я видел скорость генерации больше ста токенов в секунду.
про то чего не хватает
На лэндинге ничего не увидел про системные требования. Простыми словами: сколько оперативки надо и сколько диска?
А на гитхаб есть планы выложить в виде опенсорса?
Это было бы очень полезно даже в плане изучения
Изоляция в докер контейнер с обычной вебмордой будет?

Я простой Иван, город Сарапул...
Присоединяюсь к вопросам выше - какое потребление ОЗУ и какая минимальная видеокарта? Обязательно иметь rtx 5090?
Для "вайбкодинга" подходит?
Проект полезный, пригодится, есть схожий проект Jan, тоже в эту сторону смотрит. LM-Studio визуально перегружен. Если получится добавляться последние фишки, сделать каталог нейросетей последних, мониторить их улучшения (поднимать в рейтинге те что выше процент, качественнее, сделать категории - кодинг, общее, распознавание фото?...). У Jan вечно какие-то протухшие модели в каталог. Опять же были какие-то хитрости, чтобы запускать модели на видеокарте, расширять память и прочее, можно тож внедрить включение условно галочкой в настройках.
Еще интереснее было бы двигаться в сторону опенсорса (тупо больше интереса будет к проекту и популярности) и сделать систему пожертвований, чтобы подогревало дополнительный интерес.
Успехов с проектом.
Спасибо очень приятно такое слышать, насчет каталога нейронок отличная идея, а вот Jan не видел надо будет глянуть.
да вроде Jan тоже бодро обновляется -- так и из HF там можно сразу модели тянуть (внутри самого Jan) - и еще у них фишка - своя легкая моделька для тулинга под десктоп задачи - которая может вызывать "тяжелые" llm (хоть локальные, хоть по апи внешние). такого пока ни у кого нет.
Пропустил возможно, с радеонами работает?
Такой программист момент
Вместо того чтобы взять готовый lm studio или gpt4all, человек тратит выходные на написание своего велосипеда с урезанным функционалом, а потом пытается выдать это за продукт для массового юзера
Скачал, но так запустить и не удалось. Пытаюсь задать простой вопрос, пишет "попробуй позже" и потом уходит в постоянную загрузку "подготавливают окружение".
На втором ноуте почему то вообще не запустилось, там ошибка уже на стороне windows. Хотя на обоих ПК win10 стоит, с одной и той же флешки
А можно клиент-серверный вариант?
На одном компе с видеокартой (желательно чтоб linux поддерживался) запускается модель, а потом на всяких лёгких ноутбуках можно подключать клиент, который будет её использовать?
Я может чего-то не понимаю, а в чем отличие от того же lm studio, в который можно добавлять тулзы и мцп при необходимости? Хочешь кодинг агента, включил lm server подкинул в ide через расширение и гоняй его там сколько влезет. В чем фишка, объясните пожалуйста?
Полезная идея и похвальное начинание! Поставил на рабочий моноблок (i5-1135G7, 16/1024, встройка). И сразу "но"...
1) Непонятно, какой "движок" скачивается и работает. По разговору с Докой я понял, что это какой-то обрезок Qwen, который свою версию назвать не смог. Стоит добавить как минимум самоинформацию, а лучше - выбор.
2) работает оооочень медленно. Долго думает, прежде чем ответить на простейший запрос типа "открой сайт ya.ru"
3) вообще не умеет взаимодействовать с установленными программами. Попросил запустить блокнот - Дока, долго подумав, отказалась, сославшись, что не умеет.
4) глуповат в текстовом чате. Отвечает лаконично и с массой ошибок в русском языке.
Надеюсь, что это всё детские болезни - первая версия, многого не ждёшь. Верю в светлое будущее и обновления!
2) работает оооочень медленно.
Насколько я понимаю, нейросети на процах работают медленно by design и ничего с этим не сделаешь. Лучше иметь дискретную видеокарту с большим количеством видеопамяти, причём желательно с объёмом, который в потребительские видеокарты даже не ставят (не зря все эти истории про то, как покупают Nvidia 4090 и отдают в мастерскую для перепайки чипов памяти на больший объём).
Так что "ChatGPT на компьютере" с такой же скоростью и качеством ответов, боюсь, начинается от вложения нескольких сотен тысяч рублей.
Вы в начале статьи привели в пример
Cursor, Claude Code, Copilot
которые на разработку ориентированы, а потом раз -- и сделали ассистента, который ходит по интернету.
я видел в конце статьи про планы сделать работу с локальными файлами, но все равно это немного другая цель по сравнению с, скажем, Claude.
Я работаю под Ubuntu. Что мне делать?
На взгляд "массового user-а" такой инструмент в современных условиях очень нужен и будет востребован.
Часто приходится быть именно массовым user-ом, которому для решения текущей задачи быстро нужен простой инструмент, и на всё остальное (типа бесконечных смен VPN, затей с lm studio, и др.) времени просто нет, и точно не будет. Приоритеты не те.
Doka на Win-11 (4070Ti-Super) установился без проблем. Отвечает с задержкой, но терпимо.
На мой взгляд не хватает режима "perplexity", когда нужны ссылки на источники, послужившие информацией для ответа.
Никогда babikov не был так близок к провалу, как в тот день, когда он выложил своё приложение на Хабре. Ничто не выдавало в нём разведчика - ни отсутствие исходников, ни закрытый код, ни просьба "просто доверьтесь".
Ничего не ясно из статьи.. Что под капотом? Какая модель? ollama qwen3.5-9b ? Но эта модель туповата и при высоких полномочиях наворотит дел. И в чем отличие от openclaw (кроме гораздо более урезанного функционала) ? Или под капотом openclaw? )) Действительно зачем велосипед?

Не работает. Пишет, что не хватает места в контексте модели.

А чем OpenCode не устроил? Работает без ВПН, встроенных нейронов хватает для 90% типовых задач.
Что-то не хочет работать.
Установилась, скачала модель, на любой запрос отвечает "Попробуй еще раз".
Использовал качество модели высокое , среднее, низкое.
Результат одинаковый "Попробуй еще раз"
Платформа i5/16gb/256gb/RTX3050/Win10.

В чем может быть проблемы?
спасибо за труды, но сыровато - попросил сгенерировать статью на 3т символов по заданному описанию (qwen такое как семечки щелкает), думала минут 6 (32Гб ОЗУ, Ultra 7 258v), но потом начала писать и в цикл вошла, все пишет и пишет по десятому разу без остановки одно и тоже (дописывает до конца и заново этот же текст начинает). После закрытия - в истории пусто. Ждем обновлений
Windows 11. После установки "Доки" исчез браузер Chrome, осталаль только папка с некоторыми файлами. Переустановил Chrome, пока все работает.
С помощью ChatGPT потестил на решение разных задач на логику, сложную грамматику английского языка, работу с текстовым файлом на обзор содержимого и прочее. От модели "средняя" и выше все ответы на отлично. Думает в зависимости от сложности от 2 до 7 минут. На ноутбуке стоит i7, 16 Gb оперативная, Windows 11, опция энергопотребления "оптимальный уровень". По сравнению с моделями, которые устанавливал на Ollama и GPT4All (8b) общее впечатление на несколько порядков выше.
И да, видел выше в отзывах, при закрытии чата невозможно в окне ввода что либо напечатать, приходится перезапускать программу.
Нашел в логах сервера:
[2026-03-26T15:22:03.203Z] [llm] loading model from C:\Users\Admin.doka\models\high.gguf
[2026-03-26T15:22:03.203Z] [llm] loading via bridge: C:\Ai_Doka\resources\app.asar.unpacked\server-dist\load-llama.js [2026-03-26T15:22:03.817Z] [llm] bridge loaded ok, calling getLlama()…
[2026-03-26T15:22:04.580Z] [llm] initLlm FAILED: Error: NoBinaryFoundError
at getLlamaForOptions (file:///C:/Ai_Doka/resources/app.asar.unpacked/node_modules/node-llama-cpp/dist/bindings/getLlama.js:286:15)
at async initLlm (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1872287)
at async ensureInit (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1872975)
at async ollamaChat (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1876157)
at async runLoop (C:\AiDoka\resources\app.asar.unpacked\server-dist\index.jsc:1:1949132)
Чего-то не хватает Доке для нормальной работы.
Тут два варианта
1. Нет Visual C++ Redistributable 2022 Лечится установкой VC++ Redist x64.
2. Старый CPU без AVX2 (самое вероятное)
В целом идея хорошая, спасибо автору! Потестирую для простеньких задач на рабочем компе. Есть куда развивать проект, многое уже написали... коментарии объективные. Надеюсь вторая версия покажет себя)
посмотрите на AnythingLLM для вдохновения - похожий концеп на мой взгляд, но есть интересные фичи.
Скачал, буду пробовать на Маке, спасибо! Подскажите, как правильно удалить аппку, если возникнет такая потребность? Вижу, что в Applications приложение весит всего 300 Mb, но перед первым запуском скачивались куда-то гигабайты. Где теперь это найти и как корректно все удалить?
В папке пользователя есть папка doka там лежат скаченные модели, удалите эту папку тоже.
Похвально, что не ждете и делаете, но:
1. Нет исходников на GitHub.
2. Нет версии для Linux (Debian, Ubuntu & etc).
3. Настройки пользователя неплохо бы расширить в части выбора моделей и добавления URL & API.
4. Chrome по умолчанию это минус.
Ждем развитие проекта, с учетом пожеланий сообщества.



Я сделал локального AI-агента для России. Без VPN, без подписки, без облака