Lokalne AI i LLM-y
Ollama, Open WebUI, Modelfile, prywatne modele lokalne, prompt engineering i praktyczne użycie LLM-ów bez abonamentu.
YouTube
Jeśli szukasz polskiego kanału YouTube o lokalnym AI, Ollamie, Open WebUI, Dockerze, Pythonie, homelabie i automatyzacji, tutaj są wszystkie odcinki Kod Zero razem z notatkami i linkami do materiałów.
To nie jest przypadkowa lista filmów. To spójny kanał o budowaniu rzeczy praktycznie: własne AI w domu, self-hosting, narzędzia developerskie, automatyzacje i eksperymenty data science.
Ollama, Open WebUI, Modelfile, prywatne modele lokalne, prompt engineering i praktyczne użycie LLM-ów bez abonamentu.
Docker, Docker Compose, Tailscale, własny cloud w domu, usługi stawiane lokalnie i bezpieczny zdalny dostęp.
API, requesty HTTP, JSON, skrypty pod publikację contentu, automatyzacje backendowe i codzienne workflow.
Przygotowanie danych, etykietowanie, analiza sygnałów, eksperymenty z modelami i budowa bota tradingowego krok po kroku.
Czy model 0.8B ma sens lokalnie? Test Qwen 3.5 na 32 GB RAM: porównanie modeli 0.8B, 4B i 9B, aktualizacja Ollamy i Open WebUI oraz praktyczne testy vision na obrazach, tabelach i wykresach.
Notatki do filmów pomagają Google i modelom językowym zrozumieć temat odcinka bez oglądania całego materiału.
Czy da się mieć własnego agenta AI w VS Code całkowicie lokalnie? Reality check dla Ollamy i Cline: konfiguracja, prywatność kodu, Qwen 2.5 Coder i praktyczne ograniczenia darmowej alternatywy dla GitHub Copilot.
Stage 2 budowy bota tradingowego. Analizujemy 435 par krypto i 3 miliony świec. Dlaczego algorytm sugeruje HOLD w 80% przypadków? Wnioski z analizy danych i przygotowanie pod sieci MLP.
Twój lokalny LLM może brzmieć naturalnie. Integrujemy Piper TTS z Open WebUI, konfigurujemy Docker Compose i wybieramy najlepszy model polskiego głosu (MC Speech).
Budujemy własny mikroserwis TTS zgodny z API OpenAI. Code Review z Copilotem, GitHub Actions i publikacja gotowego obrazu na DockerHub.
Prawdziwa moc Homelaba to automatyzacja. Uczymy się komunikować z Olamą bezpośrednio przez Pythona, omijając interfejs graficzny. Generowanie JSONa i obsługa requestów.
Twój model jest zbyt ogólny? Zobacz, jak tworzyć dedykowanych agentów za pomocą Modelfile. Rozwiązujemy problemy 'Lost in the middle' i context overflow.
Generowanie grafik bez opłat i cenzury na własnym sprzęcie? Instalujemy ComfyUI na Dockerze, łączymy go z Open WebUI i sprawdzamy, co potrafi CPU.
Prywatny ChatGPT bez abonamentu? Zobacz, jak uruchomić lokalne modele LLM (Ollama + Open WebUI) i mieć do nich bezpieczny dostęp z każdego miejsca na świecie dzięki Tailscale.
Jak przygotować dane dla bota tradingowego? Implementujemy strategię etykietowania (Buy/Sell/Hold) opartą na progach alfa i beta oraz analizujemy dane z Binance.
Własna chmura na pliki zamiast Google Drive? Konfigurujemy serwer Samba z dostępem przez VPN. Dodatkowo: automatyzacja doklejania miniaturek do YouTube Shorts w Pythonie.