문서
홈으로
홈으로

🤖 AI 어시스턴트 통합

Ollama에 배포된 모델을 호출하여 인식 결과를 처리합니다. 다양한 작업을 위해 템플릿을 사용자 지정할 수 있습니다.

Last Updated: 2026-04-21 · 언어: 한국어

1. AI 서비스 구성

로컬 Ollama (권장, 완전 오프라인)

  1. ollama.com/download에 접속하여 Ollama를 다운로드하고 설치합니다.
  2. Owl Meeting의 AI 설정에서 서비스 주소를 확인합니다(기본값은 http://localhost:11434/api입니다).
  3. "테스트"를 클릭하여 연결이 정상인지 확인합니다.
  4. Ollama 모델 라이브러리에서 필요한 모델(예: qwen3:4b)을 검색하고 다운로드(pull)합니다.
AI 서비스 설정 인터페이스 AI 서비스 설정 인터페이스

2. 네 가지 작업 유형

3. 세 가지 입력 모드

4. 실시간 AI vs 오프라인 AI

5. 사용자 정의 모델 파라미터

일반적인 LLM 파라미터(예: temperature, top_p)에 대한 설정이 내장되어 있습니다. 고급 사용자는 미세 조정(fine-tuning)을 위해 모델 파라미터 패널을 활성화하거나 JSON 형식의 사용자 정의 파라미터를 전달할 수 있습니다.

6. 자주 묻는 질문(FAQ)

7. 권장 모델