Dokumentation
Zur Startseite
Zur Startseite

🤖 KI-Assistent

Owl Meeting lässt sich in verschiedene große Sprachmodelle (LLM) integrieren, um eine intelligente Verarbeitung von Besprechungsinhalten direkt in der Anwendung zu ermöglichen.

Last Updated: 2026-04-21 · Dokumentationssprache: Deutsch

1. KI-Dienst konfigurieren

Lokales Ollama (empfohlen, vollständig offline)

  1. Besuchen Sie ollama.com/download, um Ollama herunterzuladen und zu installieren.
  2. Überprüfen Sie die Dienstadresse in den KI-Einstellungen von Owl Meeting (Standard ist http://localhost:11434/api).
  3. Klicken Sie auf „Testen“, um zu bestätigen, dass die Verbindung ordnungsgemäß funktioniert.
  4. Suchen Sie in der Ollama-Modellbibliothek nach dem gewünschten Modell (z. B. qwen3:4b) und laden Sie es herunter.
Benutzeroberfläche zur Konfiguration des KI-Dienstes Benutzeroberfläche zur Konfiguration des KI-Dienstes

2. Vier Aufgabentypen

3. Drei Eingabemodi

4. Echtzeit-KI vs. Offline-KI

5. Benutzerdefinierte Modellparameter

Integrierte Konfiguration für gängige LLM-Parameter (z. B. Temperature, Top_p). Fortgeschrittene Benutzer können das Modellparameter-Panel für eine Feinabstimmung aktivieren oder benutzerdefinierte Parameter im JSON-Format übergeben.

6. Häufig gestellte Fragen (FAQ)

7. Empfohlene Modelle

Profi-Tipp: Für höchste Datensicherheit empfehlen wir die Kombination der Transkription mit einem lokal betriebenen Llama-Modell über Ollama.