Eine kleine Ollama -Anleitung, wie man die DeepSeek-Modelle ganz einfach lokal auf Linux mit 16 GB RAM (sogar ohne GPU) ausprobieren kann. Hier am Beispiel des ganz ordentlichen 14b-Modells deepseek-r1:14b
.
- der Ollama-Download hat ca. 1.6 GB
- das Modell
deepseek-r1:14b
hat ca. 9 GB
Ollama wie folgt in einen Ordner herunterladen und dort auspacken:
mkdir ollama
cd ollama
wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz
tar xfv ollama-linux-amd64.tgz
Ollama-Server starten:
bin/ollama serve
Modell herunterladen und starten:
bin/ollama run deepseek-r1:14b
Modell stoppen:
bin/ollama stop deepseek-r1:14b
Klingt verlockend, werde ich später mal testen!