最新文章 OpenClaw配置本地大模型的方法:Ollama+Qwen2.5-14b(Ollama+deepseek 失败了)

因为我的不是一台机器上的。OpenClaw安装在低配电脑上,Ollama+Qwen2.5-14b DeepSeek放在了有显卡的机器上了。

所以需要配置一下,将ollama的host配置成0.0.0.0,并且防火墙 也要放开规则端口11434。这块需要可以直接网上教程来很简单。

这里属于题外话

https://ollama.com/download

# 按需选择模型,这个看你电脑能跑起来啥。

ollama pull deepseek-r1:14b (我用的14b但发现出问题了。)

出现这个报错的原因是,deepseek-r1 模型无法作为一个 MCP Tool Cal[……]

继续阅读

第 1 页,共 1 页1