Documentatie
Terug naar Home
Terug naar Home

🤖 AI-assistent integratie

Maak gebruik van in Ollama geïnstalleerde modellen om herkenningsresultaten te verwerken. Gebruik aangepaste sjablonen voor diverse taken.

Last Updated: 2026-04-21 · Taal: Nederlands

1. AI-service configureren

Lokale Ollama (aanbevolen, volledig offline)

  1. Bezoek ollama.com/download om Ollama te downloaden en te installeren.
  2. Controleer het serviceadres in de AI-instellingen van Owl Meeting (standaard is http://localhost:11434/api).
  3. Klik op "Testen" om te bevestigen dat de verbinding normaal is.
  4. Zoek en download het gewenste model (bijv. qwen3:4b) in de Ollama modelbibliotheek.
Configuratie-interface voor AI-services Configuratie-interface voor AI-services

2. Vier soorten taken

3. Drie invoermodi

4. Real-time AI vs. Offline AI

5. Aangepaste modelparameters

Ingebouwde configuratie voor veelvoorkomende LLM-parameters (bijv. temperatuur, top_p). Geavanceerde gebruikers kunnen het modelparameterpaneel inschakelen voor fijnafstemming of aangepaste parameters in JSON-formaat doorgeven.

6. Veelgestelde vragen (FAQ)

7. Aanbevolen modellen