文档
返回首页
返回首页

AI 助手集成

Owl Meeting 可以调用大语言模型(LLM)对识别结果进行二次处理——翻译、纠错、总结、自定义任务均可。支持本地部署的 Ollama 以及任何兼容 OpenAI API 的第三方服务。

最后更新:2026-04-21 · 文档语言:简体中文

1. 配置 AI 服务

本地 Ollama(推荐,完全离线)

  1. 访问 ollama.com/download 下载并安装 Ollama。
  2. 在 Owl Meeting 的 AI 设置中确认服务地址(默认 http://localhost:11434/api)。
  3. 点击"测试"确认连接正常。
  4. Ollama 模型库 中搜索并拉取所需模型(如 qwen3:4b)。
AI 服务配置界面 AI 服务配置界面

2. 四种任务类型

3. 三种输入模式

4. 实时 AI 与离线 AI

5. 自定义模型参数

内置了大语言模型常用的参数配置(如 temperature、top_p 等)。如果您是进阶用户,可以开启模型参数面板进行精细调整,也支持通过 JSON 格式传入自定义参数。

6. 常见问题

7. 推荐模型