
© Piotr Sikora 2025 | All Rights Reserved
Dowiedz się, jak wyświetlać listę modeli Ollama i wysyłać żądania czatu lub generowania tekstu za pomocą cURL. Ten przewodnik pokazuje praktyczne przykłady z modelem Llama 3, w tym odpowiedzi strumieniowe i niestrumieniowe, a także jak generować dane wyjściowe za pomocą API Ollama. Idealne dla programistów pracujących z lokalnymi LLM i narzędziami AI.