Odcinek
Jak zrobić Asystenta AI, który zamieszka u Ciebie w homelabie — krok po kroku | Homelab #5
19.10.2025Prywatny ChatGPT bez abonamentu? Zobacz, jak uruchomić lokalne modele LLM (Ollama + Open WebUI) i mieć do nich bezpieczny dostęp z każdego miejsca na świecie dzięki Tailscale.
Local LLM Ollama Open WebUI Docker Tailscale Homelab AI
YouTube
Otwórz na YouTube →Notatki
Chcesz mieć asystenta AI, który nie wysyła Twoich danych do chmury i działa offline? Budujemy kompletny system oparty na Ollama i Open WebUI, który możesz hostować na własnym serwerze lub laptopie.
Kluczowe elementy:
- Prywatność i Koszty: Dlaczego warto mieć lokalnego LLM-a i jak uniknąć wycieku danych (case Samsunga).
- Technikalia: Co to jest kwantyzacja (Q4, Q5), context window i jak dobrać model do ilości RAM-u.
- Bezpieczeństwo: Konfiguracja Tailscale i Magic DNS, aby mieć dostęp do swojego asystenta z telefonu, nie wystawiając portów do publicznego internetu.
To idealne rozwiązanie do pracy z poufnymi dokumentami, kodem czy po prostu jako darmowa alternatywa dla płatnych subskrypcji AI.