Обновить
4K+
3
Дмитрий Селезнев@venzeles

Технический руководитель

9,5
Рейтинг
2
Подписчики
Отправить сообщение

Похоже, это не проблема именно “авторской сборки” — если из исходников то же самое, значит дело в связке nullclaw + ollama.

Скорее всего, ollama в этом случае возвращает не нормальный текстовый ответ, а внутреннюю JSON-ошибку, а nullclaw сейчас показывает это как error.NoResponseContent. Я бы посоветовал проверить так:

  1. Работает ли модель напрямую:

ollama run llama3.2:3b "Привет"
  1. Если напрямую отвечает, то в nullclaw попробовать отключить native tools для ollama в ~/.nullclaw/config.json:

{
  "providers": [
    {
      "provider": "ollama",
      "native_tools": false
    }
  ]
}

После этого снова запустить:

nullclaw-windows-x86_64.exe agent

Если и прямой вызов ollama run не отвечает, тогда причина уже в самой модели/Ollama. Если отвечает, а в nullclaw всё равно нет, значит это баг в обработке ответа ollama на стороне nullclaw.

Информация

В рейтинге
764-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Фулстек разработчик, Деливери-менеджер
Ведущий
Управление людьми
Управление проектами
Agile
Построение команды
Управление разработкой
Scrum
Планирование
Управление рисками
Информационные технологии