🤖 AI 助手集成
调用 ollama 中部署的模型对识别结果进行处理。可自定义模板处理各种任务
1. 下载并安装 Ollama
访问 https://ollama.com/download
- 本机安装 Ollama 并启动。
- 在 AI 设置里确认服务地址(默认
http://localhost:11434/api)。 - 点“测试”,显示可用后再继续。
- 搜索要下载的模型 https://ollama.com/search,拉取你要用的模型(例如 qwen3.5:4b)。
2. 任务类型
- 翻译:将文本翻译成其他语言。
- 纠错:将文本中的错别字、语法错误等修正。
- 总结:生成会议纪要。
- 自定义:可以自定义提示词,让LLM根据你的需求处理识别结果。
3. 输入模式
- single:一条一条处理(在线识别调用 LLM 时只能选择这个模式)
- batch:分批处理
- all:整段一起处理,适合整篇总结。
4. 自定义模型参数
- 模型参数会影响LLM的输出结果,如果你是专业人士可以自行设置。
- 内置了大模型中常用的参数,可以通过开启模型参数进行自定义。
5. 常见问题
- 连不上模型:检查 Ollama 是否在运行、地址是否写对。
- 输出结果太慢:换参数量小一点的模型。
6. 推荐
- 翻译推荐:如果执行翻译任务,推荐使用 HY-MT1.5-1.8B 模型。这是一款专业的翻译模型,支持多种语言,且推理速度极快。