🤖 AI 어시스턴트 통합
Ollama에 배포된 모델을 호출하여 인식 결과를 처리합니다. 다양한 작업을 위해 템플릿을 사용자 지정할 수 있습니다.
1. Ollama 다운로드 및 설치
방문: https://ollama.com/download
- 로컬 PC에 Ollama를 설치하고 실행합니다.
- AI 설정에서 서비스 주소(기본값
http://localhost:11434/api)를 확인합니다. - '테스트'를 클릭하여 사용 가능 여부를 확인한 후 계속 진행합니다.
- https://ollama.com/search에서 원하는 모델을 검색하여 다운로드합니다(예: qwen3.5:4b).
2. 작업 유형
- 번역: 텍스트를 다른 언어로 번역합니다.
- 교정: 텍스트의 오타, 문법 오류 등을 수정합니다.
- 요약: 회의록을 생성합니다.
- 사용자 지정: 프롬프트를 직접 작성하여 LLM이 원하는 대로 결과를 처리하게 할 수 있습니다.
3. 입력 모드
- single: 한 문장씩 처리합니다(온라인 인식 중 LLM 호출 시 이 모드만 가능).
- batch: 여러 문장을 묶어서 일괄 처리합니다.
- all: 전체 텍스트를 한꺼번에 처리합니다. 요약 작업에 적합합니다.
4. 모델 매개변수 사용자 지정
- 매개변수는 LLM의 출력 결과에 영향을 미칩니다. 전문가라면 직접 설정해 보시기 바랍니다.
- 거대 모델에서 자주 쓰이는 매개변수들이 내장되어 있으며, 활성화하여 사용자 지정할 수 있습니다.
5. 자주 묻는 질문
- 모델 연결 실패: Ollama가 실행 중인지, 주소가 올바른지 확인하십시오.
- 출력 속도 느림: 매개변수 규모가 더 작은 모델로 교체해 보십시오.
6. 추천 모델
- 번역 추천: 번역 작업에는 HY-MT1.5-1.8B 모델을 추천합니다. 전문적인 번역 모델로 다국어를 지원하며 추론 속도가 매우 빠릅니다.