Документація
На головну
На головну

🤖 Інтеграція AI-помічника

Використовуйте моделі, розгорнуті в Ollama, для обробки результатів розпізнавання. Ви можете створювати власні шаблони для різних завдань.

Last Updated: 2026-04-21 · Мова документа: Українська

1. Налаштування служби ШІ

Локальна Ollama (рекомендовано, повністю офлайн)

  1. Відвідайте ollama.com/download, щоб завантажити та встановити Ollama.
  2. Перевірте адресу сервісу в налаштуваннях ШІ Owl Meeting (за замовчуванням використовується http://localhost:11434/api).
  3. Натисніть «Тест», щоб підтвердити нормальне з'єднання.
  4. Знайдіть та завантажте необхідну модель (наприклад, qwen3:4b) у бібліотеці моделей Ollama.
Інтерфейс налаштування служби штучного інтелекту Інтерфейс налаштування служби штучного інтелекту

2. Чотири типи завдань

3. Три режими введення

4. ШІ в реальному часі проти офлайн-ШІ

5. Користувацькі параметри моделі

Вбудована конфігурація для загальних параметрів LLM (наприклад, temperature, top_p). Просунуті користувачі можуть увімкнути панель параметрів моделі для тонкого налаштування або передати користувацькі параметри у форматі JSON.

6. Часто задавані питання (FAQ)

7. Рекомендовані моделі