Обновить

NullClaw под лупой: зачем AI-агенту Zig, маленький бинарь и быстрый запуск

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели6.3K
Всего голосов 9: ↑9 и ↓0+11
Комментарии2

Комментарии 2

Возможно что- то подскажите. Использую авторскую сборку, но получаю ошибку:

.\nullclaw-windows-x86_64.exe agent
info(memory): memory plan resolved: backend=hybrid retrieval=keyword vector=none rollout=off hygiene=true snapshot=false cache=false semantic_cache=false summarizer=false sources=1
  Model:    llama3.2:3b
  Provider: ollama
nullclaw Agent -- Interactive Mode
Provider: ollama | Model: llama3.2:3b
Type your message (Ctrl+D or 'exit' to quit):

> > Привет! Как дела?
Error: error.NoResponseContent

Если собрать из исходников, То ошибка такая же.

Похоже, это не проблема именно “авторской сборки” — если из исходников то же самое, значит дело в связке nullclaw + ollama.

Скорее всего, ollama в этом случае возвращает не нормальный текстовый ответ, а внутреннюю JSON-ошибку, а nullclaw сейчас показывает это как error.NoResponseContent. Я бы посоветовал проверить так:

  1. Работает ли модель напрямую:

ollama run llama3.2:3b "Привет"
  1. Если напрямую отвечает, то в nullclaw попробовать отключить native tools для ollama в ~/.nullclaw/config.json:

{
  "providers": [
    {
      "provider": "ollama",
      "native_tools": false
    }
  ]
}

После этого снова запустить:

nullclaw-windows-x86_64.exe agent

Если и прямой вызов ollama run не отвечает, тогда причина уже в самой модели/Ollama. Если отвечает, а в nullclaw всё равно нет, значит это баг в обработке ответа ollama на стороне nullclaw.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
www.wildberries.ru
Дата регистрации
Дата основания
Численность
свыше 10 000 человек
Местоположение
Россия