DeepSeek lokalnie — krok po kroku, z opisem narzędzi, konfiguracji i zaawansowanych opcji
AI

DeepSeek lokalnie — krok po kroku, z opisem narzędzi, konfiguracji i zaawansowanych opcji

1. Czym jest i dlaczego warto uruchamiać lokalnie?

DeepSeek‑R1 to potężny, open‑source’owy LLM (duży model językowy) stworzony przez DeepSeek AI, oferujący GPT‑4‑poziom generacji przy znacznie niższym kosztcie. Uruchomienie lokalne to:

  • Pełna prywatność danych – nic nie trafia do chmury ,
  • Wydajność i dostępność – brak limitów API i opóźnień sieciowych,
  • Elastyczność modelu – możliwość wyboru wersji (1.5B, 7B, 14B, 32B, 70B) w zależności od zasobów.

2. Wymagania sprzętowe i systemowe

Model RAM/VRAM Zasoby CPU/GPU
1.5B ~3 GB CPU lub iGPU/RPi
7B ⩾6 GB GPU lub CPU wygodne
14B+ ⩾16 GB Wydajny GPU / Tesla / desktop

Wsparcie: Linux, macOS (Intel/Apple Silicon), Windows (przez WSL2/Linux), Raspberry Pi. Zalecany procesor i GPU CUDA/Vulkan dla większych modeli.


3. Kluczowy komponent: Ollama

Ollama to lekki runtime do lokalnego uruchamiania LLM. Wspiera różne architektury i przyspiesza instalację:

Instalacja:

  • Na macOS: brew install ollama
  • Na Linux/WSL: curl -fsSL https://ollama.com/install.sh | sh
  • Windows – instalacja przez instalator lub WSL.

Po instalacji:

ollama --version

4. Pobieranie DeepSeek‑R1

W terminalu:

ollama pull deepseek-r1
# Lub mniejsza wersja: deepseek-r1:1.5b

Pozwala to pobrać wybraną wersję modelu – od lekkiej do najbardziej zaawansowanej.

DeepSeek lokalnie — krok po kroku, z opisem narzędzi, konfiguracji i zaawansowanych opcji
DeepSeek lokalnie — krok po kroku, z opisem narzędzi, konfiguracji i zaawansowanych opcji

5. Uruchamianie i testowanie

Tryb terminalowy:

ollama run deepseek-r1
ollama run deepseek-r1:1.5b

Po komendzie pojawia się prompt — model działa lokalnie i reaguje natychmiastowo .

GUI przez Chatbox:

  • Zainstaluj Chatbox (np. z chatboxai.app).
  • W ustawieniach zmień provider na Ollama (http://127.0.0.1:11434).
  • Wybierz model i rozpocznij wygodną pracę.
Czytaj  Sztuczna inteligencja w codziennej pracy – jak AI zmienia sposób, w jaki pracujemy?

Otwarta WebUI:

  • Zainstaluj open-webui:
pip install open‑webui
open‑webui serve
  • Uruchom ollama serve i połącz się przez przeglądarkę (domyślnie localhost:8080).

6. Alternatywy: llama.cpp i vLLM

Jeśli preferujesz kompilację własną:

  • llama.cpp – CPU-only, multiplatforma.
  • Skopiuj model .GGUF (quantized) i uruchom:
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./llama-cli -m model.gguf -p "Twój prompt" -t 8 -c 2048 -n 200

Sprawdzi się na maszynach bez GPU.

  • vLLM / LMDeploy – szybkie uruchomienie modelu lokalnie z optymalizacją przetwarzania wielu promptów i pipeline.

7. Zaawansowane tematy

7.1 Obsługa GPU

  • Na Linux/WSL: zainstaluj nvidia-cuda-toolkit, sterowniki CUDA.
  • Quantyfikacja modelu (FP8/BF16/INT4-8) optymalizuje pamięć i szybkość — opisane w DeepSeek-V3 repo.

7.2 Raspberry Pi

  • DeepSeek działa nawet na Pi 5 (8–16 GB), choć powoli (~1‑6 tokenów/s).

7.3 RAG / Chatbot

  • Skonfiguruj lokalny RAG stack – np. vector store + Open WebUI – by budować boty odpowiadające na dokumenty.

8. Wskazówki optymalizacyjne

  • Wybieraj model adekwatny do zasobów.
  • Konwertuj modele FP8→BF16, INT4/8 przez skrypty zgodnie z needem.
  • Używaj GPU‑akceleracji (cuda, metal, vulkan).
  • Profiluj i monitoruj zużycie VRAM/CPU.

9. Bezpieczeństwo i prywatność

  • DeepSeek‑R1 działa offline — idealny dla analizy wrażliwych danych (np. kod, dokumenty).
  • Licencja MIT / Apache2 – umożliwia użycie komercyjne i modyfikacje (z zastrzeżeniem Llama-based wariantów).

10. Przykładowy scenariusz – krok po kroku

  1. Zainstaluj Ollama
    curl -fsSL https://ollama.com/install.sh | sh
    
  2. Pobierz model
    ollama pull deepseek-r1:7b
    
  3. Uruchom demo
    ollama run deepseek-r1:7b
    
  4. Opcjonalnie z GUI:
    • ollama serve
    • open-webui serve
  5. Interakcja: wpisz prompt i eksperymentuj z modelami, kontekstem i długością generacji.

Podsumowanie

Uruchomienie DeepSeek lokalnie to:

  • Prywatność – wszystkie dane pozostają na urządzeniu,
  • Elastyczność – wybierasz model o odpowiednim rozmiarze i jakości,
  • Wydajność – natychmiastowe reakcje, brak opóźnień sieciowych,
  • Skalowalność – od Raspberry Pi do desktopów z GPU.

Niezależnie od poziomu zaawansowania — DeepSeek można dopasować do Twoich potrzeb. Wystarczy Ollama lub alternatywy (llama.cpp, vLLM), by uzyskać pełną moc LLM na własnym sprzęcie.

Czytaj  AI w systemach operacyjnych: Optymalizacja alokacji zasobów i zarządzania procesami

 

Run DeepSeek R1 Locally in 2 Minutes (DeepSeek‑R1 Setup)

Polecane wpisy
Praktyczne zastosowania SI w życiu codziennym
Praktyczne zastosowania SI w życiu codziennym

Praktyczne zastosowania SI w życiu codziennym Wstęp Sztuczna inteligencja (SI) staje się coraz bardziej powszechna i wpływa na wiele aspektów Czytaj dalej

AI w SEO: Jak wykorzystać sztuczną inteligencję do analizy słów kluczowych i konkurencji?
AI w SEO: Jak wykorzystać sztuczną inteligencję do analizy słów kluczowych i konkurencji?

🤖 AI w SEO: Jak wykorzystać sztuczną inteligencję do analizy słów kluczowych i konkurencji? 📌 Wprowadzenie Rozwój sztucznej inteligencji (AI) Czytaj dalej

Marek "Netbe" Lampart Inżynier informatyki Marek Lampart to doświadczony inżynier informatyki z ponad 25-letnim stażem w zawodzie. Specjalizuje się w systemach Windows i Linux, bezpieczeństwie IT, cyberbezpieczeństwie, administracji serwerami oraz diagnostyce i optymalizacji systemów. Na netbe.pl publikuje praktyczne poradniki, analizy i instrukcje krok po kroku, pomagając administratorom, specjalistom IT oraz zaawansowanym użytkownikom rozwiązywać realne problemy techniczne.