Documentation
Retour à l'accueil
Retour à l'accueil

🤖 Intégration de l'assistant IA

Appelle les modèles déployés dans Ollama pour traiter les résultats de reconnaissance. Possibilité de personnaliser les modèles pour diverses tâches.

Dernière mise à jour : 31/03/2026 · Langue : Français

1. Télécharger et installer Ollama

Visitez https://ollama.com/download

  1. Installez Ollama sur votre machine et lancez-le.
  2. Dans les paramètres IA, confirmez l'adresse du service (par défaut http://localhost:11434/api).
  3. Cliquez sur « Test », puis continuez une fois qu'il est affiché comme disponible.
  4. Recherchez les modèles à télécharger sur https://ollama.com/search, récupérez le modèle que vous souhaitez utiliser (ex: qwen3.5:4b).

2. Types de tâches

3. Mode d'entrée

4. Paramètres de modèle personnalisés

5. Questions fréquentes

6. Recommandations