作者: Tscccn |
日期: 2026 年 03 月 11 日 |
围观: 16次+ |
没有评论
因为我的不是一台机器上的。OpenClaw安装在低配电脑上,Ollama+Qwen2.5-14b DeepSeek放在了有显卡的机器上了。
所以需要配置一下,将ollama的host配置成0.0.0.0,并且防火墙 也要放开规则端口11434。这块需要可以直接网上教程来很简单。
这里属于题外话
https://ollama.com/download
# 按需选择模型,这个看你电脑能跑起来啥。
ollama pull deepseek-r1:14b (我用的14b但发现出问题了。)
(
出现这个报错的原因是,deepseek-r1 模型无法作为一个 MCP Tool Cal[……]

玩趣儿

最新评语