Kod Zero Kamil Krawiec
Menu

Odcinek

Jak zrobić Asystenta AI, który zamieszka u Ciebie w homelabie — krok po kroku | Homelab #5

19.10.2025

Prywatny ChatGPT bez abonamentu? Zobacz, jak uruchomić lokalne modele LLM (Ollama + Open WebUI) i mieć do nich bezpieczny dostęp z każdego miejsca na świecie dzięki Tailscale.

Local LLM Ollama Open WebUI Docker Tailscale Homelab AI

Notatki

Chcesz mieć asystenta AI, który nie wysyła Twoich danych do chmury i działa offline? Budujemy kompletny system oparty na Ollama i Open WebUI, który możesz hostować na własnym serwerze lub laptopie.

Kluczowe elementy:

  • Prywatność i Koszty: Dlaczego warto mieć lokalnego LLM-a i jak uniknąć wycieku danych (case Samsunga).
  • Technikalia: Co to jest kwantyzacja (Q4, Q5), context window i jak dobrać model do ilości RAM-u.
  • Bezpieczeństwo: Konfiguracja Tailscale i Magic DNS, aby mieć dostęp do swojego asystenta z telefonu, nie wystawiając portów do publicznego internetu.

To idealne rozwiązanie do pracy z poufnymi dokumentami, kodem czy po prostu jako darmowa alternatywa dla płatnych subskrypcji AI.

← Wróć do listy