Docs
Home
Home

🤖 Integrazione Assistente AI

Utilizza i modelli distribuiti in Ollama per elaborare i risultati del riconoscimento. Puoi personalizzare i modelli per gestire vari task.

Last Updated: 2026-04-21 · Lingua: Italiano

1. Configura il servizio AI

Ollama locale (consigliato, completamente offline)

  1. Visita ollama.com/download per scaricare e installare Ollama.
  2. Verifica l'indirizzo del servizio nelle impostazioni AI di Owl Meeting (il valore predefinito è http://localhost:11434/api).
  3. Fai clic su "Test" per confermare che la connessione sia normale.
  4. Cerca e scarica il modello richiesto (ad esempio, qwen3:4b) nella libreria di modelli Ollama.
Interfaccia di configurazione del servizio AI Interfaccia di configurazione del servizio AI

2. Quattro tipi di attività

3. Tre modalità di input

4. AI in tempo reale vs. AI offline

5. Parametri del modello personalizzati

Configurazione integrata per i parametri comuni dei LLM (ad esempio, temperatura, top_p). Gli utenti esperti possono abilitare il pannello dei parametri del modello per la messa a punto o passare parametri personalizzati in formato JSON.

6. Domande frequenti (FAQ)

7. Modelli consigliati