Ollama
本文介绍如何在 OmniAgent 中配置 Ollama 模型服务。
获取 API Key(如果使用 Ollama 官方云服务)
- 登录 Ollama 设置页面 创建并获取 API Key。

在 OmniAgent 中配置
-
打开 OmniAgent 的 API Key 管理 页面。
-
点击 + 新增 API 密钥,在该页面的提供商下拉菜单中选择 Ollama。
-
配置信息:
- 模型名称: 填入您已下载过的本地模型名称(示例:
llama3)。 - API Key (密钥): 连接本地 Ollama 时可留空或填写
ollama。如果使用官方云端 API,请填入您获取的 API Key。 - Base URL (地址): 默认为
http://localhost:11434。如果修改了监听端口,请同步更改。或者填入https://api.ollama.com/v1连接云服务。
- 模型名称: 填入您已下载过的本地模型名称(示例:

常用服务商 Base URL 参考
如需填写 Base URL,可参考下表选择对应服务商地址:
| 服务商 | Base URL | 推荐模型 |
|---|---|---|
| Qwen | https://dashscope.aliyuncs.com/apps/anthropic | qwen3.5-plus |
| DeepSeek | https://api.deepseek.com/anthropic | deepseek-chat |
| Kimi | https://api.moonshot.ai/anthropic | kimi-k2.5 |
| GLM | https://open.bigmodel.cn/api/anthropic | GLM-4.7 |
| MiniMax | https://api.minimax.com/anthropic | MiniMax-M2.5 |
| Anthropic | https://api.anthropic.com/v1 | claude-sonnet-4-6 |