🤖 Integração do Assistente de IA
Use modelos implantados no Ollama para processar os resultados do reconhecimento. Você pode personalizar modelos para lidar com várias tarefas.
1. Baixar e Instalar Ollama
Visite https://ollama.com/download
- Instale e inicie o Ollama na sua máquina.
- Nas configurações de IA, confirme o endereço do serviço (padrão
http://localhost:11434/api). - Clique em "Testar" e continue após a exibição de disponibilidade.
- Pesquise o modelo para baixar https://ollama.com/search e baixe o modelo que deseja usar (ex: qwen3.5:4b).
2. Tipos de Tarefas
- Tradução: Traduz texto para outros idiomas.
- Correção: Corrige erros de digitação, gramática, etc., no texto.
- Resumo: Gera atas de reunião.
- Personalizado: Defina seus próprios prompts para permitir que o LLM processe os resultados conforme suas necessidades.
3. Modos de Entrada
- single: Processa um item por vez (único modo disponível para chamadas de LLM durante o reconhecimento online).
- batch: Processamento em lotes.
- all: Processa todo o texto de uma vez, ideal para resumos globais.
4. Parâmetros de Modelo Personalizados
- Parâmetros do modelo afetam os resultados de saída do LLM; se você for um usuário profissional, pode configurá-los por conta própria.
- Parâmetros comuns de grandes modelos estão integrados e podem ser personalizados ativando os parâmetros de modelo.
5. Perguntas Frequentes
- Nãoconsigo conectar ao modelo: Verifique se o Ollama está rodando e se o endereço está correto.
- Saída muito lenta: Mude para um modelo com menos parâmetros (tamanho menor).
6. Recomendação
- Para Tradução: Se estiver realizando tarefas de tradução, recomendamos o modelo HY-MT1.5-1.8B. É um modelo de tradução profissional que suporta vários idiomas e possui inferência ultra-rápida.