Dokumentacja
Powrót
Powrót

🤖 Integracja asystenta AI

Wykorzystaj modele wdrożone w Ollama do przetwarzania wyników rozpoznawania. Możesz używać niestandardowych szablonów.

Last Updated: 2026-04-21 · Język: Polski

1. Konfiguracja usługi AI

Lokalna Ollama (zalecana, w pełni offline)

  1. Odwiedź ollama.com/download, aby pobrać i zainstalować Ollama.
  2. Sprawdź adres usługi w ustawieniach AI Owl Meeting (domyślnie http://localhost:11434/api).
  3. Kliknij "Testuj", aby potwierdzić, że połączenie jest prawidłowe.
  4. Wyszukaj i pobierz wymagany model (np. qwen3:4b) w bibliotece modeli Ollama.
Interfejs konfiguracji usługi AI Interfejs konfiguracji usługi AI

2. Cztery rodzaje zadań

3. Trzy tryby wprowadzania

4. AI w czasie rzeczywistym a AI offline

5. Niestandardowe parametry modelu

Wbudowana konfiguracja typowych parametrów LLM (np. temperatura, top_p). Zaawansowani użytkownicy mogą włączyć panel parametrów modelu w celu dokładnego dostrojenia lub przekazać niestandardowe parametry w formacie JSON.

6. Często zadawane pytania (FAQ)

7. Polecane modele