Комментарии 2
Возможно что- то подскажите. Использую авторскую сборку, но получаю ошибку:
.\nullclaw-windows-x86_64.exe agent
info(memory): memory plan resolved: backend=hybrid retrieval=keyword vector=none rollout=off hygiene=true snapshot=false cache=false semantic_cache=false summarizer=false sources=1
Model: llama3.2:3b
Provider: ollama
nullclaw Agent -- Interactive Mode
Provider: ollama | Model: llama3.2:3b
Type your message (Ctrl+D or 'exit' to quit):
> > Привет! Как дела?
Error: error.NoResponseContentЕсли собрать из исходников, То ошибка такая же.
Похоже, это не проблема именно “авторской сборки” — если из исходников то же самое, значит дело в связке nullclaw + ollama.
Скорее всего, ollama в этом случае возвращает не нормальный текстовый ответ, а внутреннюю JSON-ошибку, а nullclaw сейчас показывает это как error.NoResponseContent. Я бы посоветовал проверить так:
Работает ли модель напрямую:
ollama run llama3.2:3b "Привет"
Если напрямую отвечает, то в
nullclawпопробовать отключить native tools дляollamaв~/.nullclaw/config.json:
{
"providers": [
{
"provider": "ollama",
"native_tools": false
}
]
}
После этого снова запустить:
nullclaw-windows-x86_64.exe agent
Если и прямой вызов ollama run не отвечает, тогда причина уже в самой модели/Ollama. Если отвечает, а в nullclaw всё равно нет, значит это баг в обработке ответа ollama на стороне nullclaw.
Информация
- Дата регистрации
- Дата основания
- Численность
- свыше 10 000 человек
- Местоположение
- Россия
NullClaw под лупой: зачем AI-агенту Zig, маленький бинарь и быстрый запуск