🤖 KI-Assistent
Owl Meeting lässt sich in verschiedene große Sprachmodelle (LLM) integrieren, um eine intelligente Verarbeitung von Besprechungsinhalten direkt in der Anwendung zu ermöglichen.
1. Unterstützte KI-Modelle
In den Einstellungen können Sie zwischen verschiedenen Anbindungsvarianten wählen:
- Lokal (Ollama) : Nutzen Sie lokal installierte Modelle wie Llama, Qwen oder Mistral. Die Daten verlassen Ihren PC nie.
- Standard-API : Konfigurieren Sie Dienste, die mit der OpenAI-API kompatibel sind (z. B. DeepSeek, Groq, OpenAI).
2. Kernfunktionen
Klicken Sie in der Toolbar der Detailseite auf den „KI-Assistenten“, um folgende Funktionen zu nutzen:
- Ein-Klick-Zusammenfassung : Das System analysiert das gesamte Transkript und liefert eine prägnante Zusammenfassung der wichtigsten Gesprächspunkte.
- Aufgaben-Extraktion : Identifiziert automatisch Verpflichtungen, Fristen und zugewiesene Aufgaben aus dem Gespräch.
- Kontextbezogene Fragen & Antworten : Stellen Sie der KI spezifische Fragen zum Inhalt der Besprechung (z. B. „Welches Budget wurde für Q3 vorgeschlagen?“).
3. Prompt-Anpassung
- In den globalen Einstellungen können Sie die System-Prompts für Zusammenfassungen und Analysen anpassen, um den Tonfall oder das Format an Ihre geschäftlichen Standards anzupassen.
4. Privatsphäre & Kosten
- Bei der Verwendung von lokalen Modellen (via Ollama) entstehen keine API-Kosten und es werden keine Daten ins Internet übertragen.
- Bei Verwendung von API-Diensten müssen Sie Ihren eigenen API-Schlüssel hinterlegen. Owl Meeting erhebt keine zusätzlichen Gebühren für die KI-Funktionalität.
Profi-Tipp: Für höchste Datensicherheit empfehlen wir die Kombination der Transkription mit
einem lokal betriebenen Llama-Modell über Ollama.