🤖 Integrazione Assistente AI
Utilizza i modelli distribuiti in Ollama per elaborare i risultati del riconoscimento. Puoi personalizzare i modelli per gestire vari task.
1. Scaricare e installare Ollama
Visita https://ollama.com/download
- Installa Ollama sul tuo computer locale e avvialo.
- Nelle impostazioni AI, conferma l'indirizzo del servizio (predefinito
http://localhost:11434/api). - Clicca su "Test"; procedi solo se viene visualizzato come disponibile.
- Cerca il modello da scaricare su https://ollama.com/search, e scarica (pull) il modello che intendi utilizzare (ad esempio qwen2.5:4b).
2. Tipi di Task
- Traduzione: Traduce il testo in altre lingue.
- Correzione: Corregge refusi, errori grammaticali, ecc., nel testo.
- Riepilogo: Genera i verbali della riunione.
- Personalizzato: Puoi personalizzare il prompt per far sì che il LLM elabori i risultati del riconoscimento in base alle tue esigenze specifiche.
3. Modalità di Input
- single: Elabora riga per riga (necessario per l'input AI in tempo reale).
- batch: Elaborazione a lotti.
- all: Elabora l'intera sezione tutta insieme, ideale per riepiloghi completi.
4. Parametri del Modello Personalizzati
- I parametri del modello influenzano l'output del LLM; per gli utenti esperti è possibile configurarli autonomamente.
- Sono inclusi i parametri più comuni per i grandi modelli, attivabili per la personalizzazione.
5. Domande Frequenti (FAQ)
- Impossibile connettersi al modello: Controlla se Ollama è in esecuzione e se l'indirizzo è corretto.
- Output troppo lento: Passa a un modello con meno parametri.
6. Consigliati
- Consigliato per la traduzione: Per i task di traduzione, si consiglia il modello HY-MT1.5-1.8B. È un modello di traduzione professionale che supporta più lingue con un'推理 velocità di inferenza estremamente elevata.