🤖 Integracja asystenta AI
Wykorzystaj modele wdrożone w Ollama do przetwarzania wyników rozpoznawania. Możesz używać niestandardowych szablonów do różnych zadań.
1. Pobieranie i instalacja Ollama
Odwiedź: https://ollama.com/download
- Zainstaluj Ollama na swoim komputerze i uruchom usługę.
- W ustawieniach AI potwierdź adres usługi (domyślnie
http://localhost:11434/api). - Kliknij „Testuj” – kontynuuj dopiero, gdy połączenie zostanie potwierdzone.
- Wyszukaj modele do pobrania: https://ollama.com/search i pobierz ten, którego chcesz używać (np. qwen3.5:4b).
2. Typy zadań
- Tłumaczenie: Tłumaczenie tekstu na inne języki.
- Korekta: Poprawianie błędów ortograficznych, gramatycznych itp.
- Podsumowanie: Generowanie protokołów i streszczeń spotkań.
- Niestandardowe: Możesz zdefiniować własne polecenia (prompty), aby model LLM przetworzył tekst według Twoich potrzeb.
3. Tryby wprowadzania
- single: Przetwarzanie fragment po fragmencie (jedyny tryb dostępny przy transkrypcji online).
- batch: Przetwarzanie w seryjnych paczkach.
- all: Przetwarzanie całego tekstu naraz, idealne do pełnych podsumowań.
4. Niestandardowe parametry modelu
- Parametry modelu wpływają na styl i jakość odpowiedzi LLM. Profesjonaliści mogą je dowolnie konfigurować.
- Aplikacja zawiera predefiniowane najpopularniejsze parametry, które można aktywować i edytować.
5. Najczęstsze problemy
- Brak połączenia z modelem: Sprawdź, czy Ollama działa i czy adres jest poprawny.
- Wyniki generowane są zbyt wolno: Spróbuj użyć modelu o mniejszej liczbie parametrów.
6. Rekomendacje
- Do tłumaczeń: Do zadań tłumaczeniowych rekomendujemy model HY-MT1.5-1.8B. Jest to profesjonalny model tłumaczeniowy wspierający wiele języków, charakteryzujący się bardzo szybkim czasem odpowiedzi.