Documentação
Voltar
Voltar

🤖 Integração do Assistente de IA

Use modelos implantados no Ollama para processar os resultados do reconhecimento. Você pode personalizar modelos.

Last Updated: 2026-04-21 · Idioma: Português

1. Configurar o serviço de IA

Ollama local (recomendado, totalmente offline)

  1. Visite ollama.com/download para descarregar e instalar o Ollama.
  2. Verifique o endereço do serviço nas configurações de IA do Owl Meeting (o padrão é http://localhost:11434/api).
  3. Clique em "Testar" para confirmar que a conexão está normal.
  4. Pesquise e descarregue o modelo necessário (por exemplo, qwen3:4b) na biblioteca de modelos do Ollama.
Interface de configuração do serviço de IA Interface de configuração do serviço de IA

2. Quatro tipos de tarefas

3. Três modos de entrada

4. IA em tempo real vs. IA offline

5. Parâmetros do modelo personalizados

Configuração integrada para parâmetros comuns de LLM (por exemplo, temperatura, top_p). Utilizadores avançados podem ativar o painel de parâmetros do modelo para ajuste fino ou passar parâmetros personalizados no formato JSON.

6. Perguntas frequentes (FAQ)

7. Modelos recomendados