🤖 Intégration de l'assistant IA
Appelle les modèles déployés dans Ollama pour traiter les résultats de reconnaissance. Possibilité de personnaliser les modèles pour diverses tâches.
1. Télécharger et installer Ollama
Visitez https://ollama.com/download
- Installez Ollama sur votre machine et lancez-le.
- Dans les paramètres IA, confirmez l'adresse du service (par défaut
http://localhost:11434/api). - Cliquez sur « Test », puis continuez une fois qu'il est affiché comme disponible.
- Recherchez les modèles à télécharger sur https://ollama.com/search, récupérez le modèle que vous souhaitez utiliser (ex: qwen3.5:4b).
2. Types de tâches
- Traduction : Traduire le texte dans d'autres langues.
- Correction : Corriger les fautes de frappe, de grammaire, etc. dans le texte.
- Résumé : Générer un compte-rendu de réunion.
- Personnalisé : Vous pouvez personnaliser les instructions (prompt) pour que le LLM traite les résultats selon vos besoins.
3. Mode d'entrée
- single : Traitement segment par segment (seul mode disponible lors de l'appel du LLM en reconnaissance en ligne).
- batch : Traitement par lots.
- all : Traite tout le texte ensemble, idéal pour les résumés complets.
4. Paramètres de modèle personnalisés
- Les paramètres du modèle affectent les résultats de sortie du LLM ; si vous êtes un expert, vous pouvez les configurer vous-même.
- Paramètres couramment utilisés intégrés, personnalisables en activant les paramètres du modèle.
5. Questions fréquentes
- Impossible de se connecter au modèle : Vérifiez si Ollama est en cours d'exécution et si l'adresse est correcte.
- Sortie trop lente : Changez pour un modèle avec moins de paramètres.
6. Recommandations
- Recommandation pour la traduction : Pour les tâches de traduction, il est recommandé d'utiliser le modèle HY-MT1.5-1.8B. C'est un modèle professionnel de traduction supportant plusieurs langues avec une vitesse d'inférence extrêmement rapide.