Docs
Inicio
Inicio

🤖 Integración del asistente de IA

Utilice modelos desplegados en Ollama para procesar los resultados del reconocimiento. Puede personalizar plantillas para diversas tareas.

1. Configurar el servicio de IA

Ollama local (recomendado, totalmente offline)

  1. Visite ollama.com/download para descargar e instalar Ollama.
  2. Confirme la dirección del servicio en los ajustes de IA de Owl Meeting (por defecto es http://localhost:11434/api).
  3. Haga clic en "Probar" para confirmar que la conexión es normal.
  4. Busque y descargue el modelo necesario (ej. qwen3:4b) en la biblioteca de modelos de Ollama.
Interfaz de configuración de servicios de IA Interfaz de configuración de servicios de IA

2. Cuatro tipos de tareas

3. Tres modos de entrada

4. IA en tiempo real vs. IA offline

5. Parámetros de modelo personalizados

Configuración integrada para los parámetros comunes de los LLM (como temperature, top_p, etc.). Los usuarios avanzados pueden activar el panel de parámetros del modelo para realizar ajustes precisos o pasar parámetros personalizados en formato JSON.

6. Preguntas frecuentes (FAQ)

7. Modelos recomendados