Ollama
本文介绍如何在 OmniAgent 中配置 Ollama 模型服务。
获取 API Key(如果使用 Ollama 官方云服务)
-
登录 Ollama 设置页面 创建并获取 API Key。

在 OmniAgent 中配置
-
打开 OmniAgent 的 系统设置 -> API Key 页面。
-
点击 + 添加,选择提供商 其他。
-
配置信息:
-
提供商选择: 选择 Ollama。
-
API 地址 (Base URL): 默认为
http://localhost:11434/v1。如果修改了 Ollama 的监听端口,请同步更改。或者填入https://api.ollama.com/v1用以连接官方云服务。 -
API 密钥: 连接本地 Ollama 时留空或填写
ollama。如果使用官方云端 API,请填入您刚刚获取的 API Key。 -
添加模型: 手动填入您已下载过的模型名称(如
llama3)。

-
常用服务商 Base URL 参考
如需填写 Base URL,可参考下表选择对应服务商地址:
| 服务商 | Base URL | 推荐模型 |
|---|---|---|
| Qwen | https://dashscope.aliyuncs.com/apps/anthropic | qwen3.5-plus |
| DeepSeek | https://api.deepseek.com/anthropic | deepseek-chat |
| Kimi | https://api.moonshot.ai/anthropic | kimi-k2.5 |
| GLM | https://open.bigmodel.cn/api/anthropic | GLM-4.7 |
| MiniMax | https://api.minimax.com/anthropic | MiniMax-M2.5 |
| Anthropic | https://api.anthropic.com/v1 | claude-sonnet-4-6 |