搜索文档

输入关键词,回车打开结果

OmniAgent 文档

LM Studio

本文介绍如何在 OmniAgent 中配置 LM Studio 本地模型服务。

LM Studio 是一款流行的桌面应用程序,支持在本地运行各种开源大模型(如 Llama, Mistral, Gemma 等)。它提供了一个极其简单的一键式本地 API 伺服器,完全兼容 OpenAI 接口协议。

官方网站:lmstudio.ai

启动本地服务器

  1. 打开 LM Studio 客户端。
  2. 在模型库中选择并下载您感兴趣的模型。
  3. 点击左侧导航栏中的 「Local Server」 图标(类似双箭头的图标)。
  4. 选择刚才载入的模型,并点击 「Start Server」

默认情况下,本地服务器将监听在 http://localhost:1234

在 OmniAgent 中配置

  1. 打开 OmniAgent 的 API Key 管理 页面。

  2. 点击 + 新增 API 密钥,在该页面的提供商下拉菜单中选择 LMStudio

  3. 配置信息:

    • 模型名称: 填入当前在 LM Studio 中加载的模型标识。
    • API Key (密钥): LM Studio 默认不需要密钥,可输入任意占位符(如 lm-studio)。
    • Base URL (地址): 填入 http://localhost:1234

LM Studio 配置界面


核心要点

  • 硬件依赖:LM Studio 的推理速度取决于您本机的 GPU 或 CPU 性能。
  • 并发处理:在 LM Studio 的服务器设置中,您可以调整 Context Length 和其他参数以优化在 OmniAgent 中的表现。
  • 地址兼容:请确保 Base URL 包含 /v1 后缀。

On this page