🤖 Integración del asistente de IA
Utilice modelos desplegados en Ollama para procesar los resultados del reconocimiento. Puede personalizar plantillas para diversas tareas.
1. Descargar e instalar Ollama
Visite https://ollama.com/download
- Instale Ollama en su equipo e inícielo.
- En los ajustes de IA, confirme la dirección del servicio (por defecto
http://localhost:11434/api). - Pulse “Test”; continúe solo si se muestra como disponible.
- Busque el modelo a descargar en https://ollama.com/search y descargue el que prefiera (ej. qwen2.5:7b o llama3).
2. Tipos de tareas
- Traducción: Traduce el texto a otros idiomas.
- Corrección: Corrige erratas, errores gramaticales, etc.
- Resumen: Genera actas o minutas de la reunión.
- Personalizado: Defina sus propios prompts para que el LLM procese los resultados según sus necesidades.
3. Modos de entrada
- single: Procesa fragmento por fragmento (único modo disponible para el reconocimiento en línea con LLM).
- batch: Procesamiento por lotes.
- all: Procesa todo el texto de una vez, ideal para resúmenes completos.
4. Parámetros de modelo personalizados
- Los parámetros afectan a la salida del LLM; si es un usuario avanzado, puede ajustarlos manualmente.
- Incluye los parámetros más comunes de los grandes modelos de lenguaje para su personalización.
5. Preguntas frecuentes
- No conecta con el modelo: Compruebe si Ollama está en ejecución y si la dirección es correcta.
- La salida es muy lenta: Pruebe con un modelo que tenga menos parámetros.
6. Recomendación
- Para traducción: Se recomienda el modelo HY-MT1.5-1.8B para tareas de traducción profesional por su soporte multiidioma y velocidad de inferencia.