🤖 AI アシスタントの統合
Ollama にデプロイされたモデルを呼び出して、認識結果を処理します。テンプレートをカスタマイズして、さまざまなタスクを処理可能です。
1. Ollama のダウンロードとインストール
アクセス先: https://ollama.com/download
- PCに Ollama をインストールして起動します。
- AI 設定でサービスアドレスを確認します(デフォルトは
http://localhost:11434/api)。 - [テスト]をクリックし、「利用可能」と表示されることを確認します。
- モデルを検索し(https://ollama.com/search)、使用するモデル(例:qwen2.5:7b)をプルします。
2. タスクの種類
- 翻訳:テキストを他の言語に翻訳します。
- 校正:テキスト内の誤字脱字や文法ミスを修正します。
- 要約:会議の議事録を生成します。
- カスタム:独自のプロンプトを設定して、LLMに特定のニーズに合わせた処理をさせることができます。
3. 入力モード
- single:1行ずつ処理します(リアルタイム認識中に LLM を呼び出す場合はこのモードのみ)。
- batch:一括(バッチ)で処理します。
- all:セグメント全体を一度に処理します。全文の要約などに適しています。
4. カスタムモデルパラメータ
- モデルパラメータは LLM の出力結果に影響します。専門知識がある場合は、自由に変更可能です。
- 大模型でよく使われるパラメータは内蔵されており、パラメータスイッチをオンにすることでカスタマイズできます。
5. よくある質問
- モデルに接続できない:Ollama が実行中か、アドレスが正しいか確認してください。
- 出力が遅い:パラメータ数の少ない(軽量な)モデルに変更することを検討してください。
6. おすすめ
- 翻訳のおすすめ:翻訳タスクを行う場合は、 HY-MT1.5-1.8B モデルがおすすめです。これは専門的な翻訳モデルであり、多言語をサポートし、推論速度も極めて高速です。