Documentação
Voltar
Voltar

🤖 Integração do Assistente de IA

Use modelos implantados no Ollama para processar os resultados do reconhecimento. Você pode personalizar modelos para lidar com várias tarefas.

Última atualização: 2026-03-31 · Idioma: Português

1. Baixar e Instalar Ollama

Visite https://ollama.com/download

  1. Instale e inicie o Ollama na sua máquina.
  2. Nas configurações de IA, confirme o endereço do serviço (padrão http://localhost:11434/api).
  3. Clique em "Testar" e continue após a exibição de disponibilidade.
  4. Pesquise o modelo para baixar https://ollama.com/search e baixe o modelo que deseja usar (ex: qwen3.5:4b).

2. Tipos de Tarefas

3. Modos de Entrada

4. Parâmetros de Modelo Personalizados

5. Perguntas Frequentes

6. Recomendação