Documentation
Retour à l'accueil
Retour à l'accueil

🤖 Intégration de l'assistant IA

Appelle les modèles déployés dans Ollama pour traiter les résultats de reconnaissance. Possibilité de personnaliser les modèles pour diverses tâches.

Last Updated: 2026-04-21 · Langue : Français

1. Configuration du service IA

Ollama local (recommandé, entièrement hors ligne)

  1. Visitez ollama.com/download pour télécharger et installer Ollama.
  2. Vérifiez l'adresse du service dans les paramètres IA d'Owl Meeting (par défaut http://localhost:11434/api).
  3. Cliquez sur « Tester » pour confirmer que la connexion est normale.
  4. Recherchez et téléchargez le modèle requis (ex: qwen3:4b) dans la bibliothèque de modèles Ollama.
Interface de configuration des services d'IA Interface de configuration des services d'IA

2. Quatre types de tâches

3. Trois modes d'entrée

4. IA en temps réel vs. IA hors ligne

5. Paramètres de modèle personnalisés

Configuration intégrée pour les paramètres courants des LLM (ex: temperature, top_p). Les utilisateurs avancés peuvent activer le panneau des paramètres du modèle pour un réglage fin ou passer des paramètres personnalisés au format JSON.

6. Foire aux questions (FAQ)

7. Modèles recommandés