Każdy asystent korzysta z dużego modelu językowego (LLM), który odpowiada za generowanie treści i sposób działania. Wybór odpowiedniego dostawcy i modelu pozwala dopasować możliwości asystenta do konkretnych zadań – od prostych podpowiedzi po bardziej zaawansowane analizy czy generowanie dłuższych treści.
Funkcje
Wybór LLM decyduje o tym, jakiej jakości i w jakim stylu będą generowane odpowiedzi.
- możliwość wyboru dostawcy modelu, np. OpenAI, Gemini czy Azure,
- dostęp do różnych wariantów modeli w zależności od potrzeb (np. GPT-5, wersje Mini czy Nano),
- dopasowanie mocy obliczeniowej i szybkości działania do scenariusza – od lekkich zapytań po bardziej złożone zadania,
- łatwe przełączanie się między modelami bez konieczności zmiany konfiguracji całego asystenta.
Konfiguracja
W sekcji Dostawca LLM wybierz dostawcę modelu z listy rozwijanej.
Wybierz konkretny model (np. GPT-5, GPT-5 Mini, GPT-5 Nano).

Zapisz zmiany, aby asystent korzystał z wybranego LLM.