Docs
На главную
На главную

🤖 Интеграция ИИ-помощника

Используйте модели, развернутые в Ollama, для обработки результатов распознавания. Вы можете настраивать шаблоны для различных задач.

Last Updated: 2026-04-21 · Язык: Русский

1. Настройка службы ИИ

Локальная Ollama (рекомендуется, полностью автономно)

  1. Посетите ollama.com/download, чтобы скачать и установить Ollama.
  2. Проверьте адрес службы в настройках ИИ Owl Meeting (по умолчанию используется http://localhost:11434/api).
  3. Нажмите «Тест», чтобы подтвердить нормальное соединение.
  4. Найдите и скачайте необходимую модель (например, qwen3:4b) в библиотеке моделей Ollama.
Интерфейс настройки службы ИИ Интерфейс настройки службы ИИ

2. Четыре типа задач

3. Три режима ввода

4. ИИ в реальном времени против офлайн-ИИ

5. Пользовательские параметры модели

Встроенная конфигурация для общих параметров LLM (например, temperature, top_p). Продвинутые пользователи могут включить панель параметров модели для тонкой настройки или передать пользовательские параметры в формате JSON.

6. Часто задаваемые вопросы (FAQ)

7. Рекомендуемые модели