ドキュメント
ホームへ戻る
ホームへ戻る

🤖 AI アシスタントの統合

Ollama にデプロイされたモデルを呼び出して、認識結果を処理します。テンプレートをカスタマイズして、さまざまなタスクを処理可能です。

Last Updated: 2026-04-21 · 言語:日本語

1. AI サービスの構成

ローカル Ollama (推奨、完全オフライン)

  1. ollama.com/download にアクセスして、Ollama をダウンロードしインストールします。
  2. Owl Meeting の AI 設定でサービスアドレスを確認します(デフォルトは http://localhost:11434/api)。
  3. 「テスト」をクリックして、接続が正常であることを確認します。
  4. Ollama モデルライブラリで必要なモデル(例:qwen3:4b)を検索してプルします。
AI サービス設定インターフェース AI サービス設定インターフェース

2. 4種類のタスクタイプ

3. 3種類の入力モード

4. リアルタイム AI とオフライン AI

5. カスタムモデルパラメータ

一般的な LLM パラメータ(temperature、top_p など)の組み込み構成。上級ユーザーは、微調整のためにモデルパラメータパネルを有効にしたり、JSON 形式でカスタムパラメータを渡したりできます。

6. よくある質問 (FAQ)

7. 推奨モデル