Eine kleine Ollama -Anleitung, wie man die DeepSeek-Modelle ganz einfach lokal auf Linux mit 16 GB RAM (sogar ohne GPU) ausprobieren kann. Hier am Beispiel des ganz ordentlichen 14b-Modells deepseek-r1:14b.

  • der Ollama-Download hat ca. 1.6 GB
  • das Modell deepseek-r1:14b hat ca. 9 GB

Ollama wie folgt in einen Ordner herunterladen und dort auspacken:

mkdir ollama
cd ollama
wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz
tar xfv ollama-linux-amd64.tgz

Ollama-Server starten:

bin/ollama serve

Modell herunterladen und starten:

bin/ollama run deepseek-r1:14b

Modell stoppen:

bin/ollama stop deepseek-r1:14b