DeepSeek R1 auf dem Raspberry Pi 5 deployen: Vollständiger Leitfaden

Dieser Leitfaden beschreibt detailliert, wie das DeepSeek-R1-Open-Source-Sprachmodell auf einem Raspberry Pi 5 eingerichtet wird. Durch optimierte Konfiguration können selbst ressourcenbeschränkte Geräte leichtgewichtige Modelle ausführen.
I. Vorbereitung
Hardware-Anforderungen
- Raspberry Pi 5: 8 GB oder 16 GB RAM empfohlen
- Speichergerät: Mindestens 32 GB hochgeschwindigkeits MicroSD (A2-Klasse empfohlen)
- Kühllösung: Aktiver Lüfter oder Metall-Kühlkörper (anhaltend hohe Last erzeugt Wärme)
- Stromversorgung: Offizielles 27W PD-Netzteil (5V 5A)
Software-Vorbereitung
- 64-Bit-System flashen:
- Raspberry Pi OS Lite (64-bit) herunterladen
- Mit Raspberry Pi Imager flashen
- Erstkonfiguration:
bash sudo raspi-config # SSH/VNC aktivieren, Dateisystem erweitern, SWAP auf 2048 MB setzen
II. Systemoptimierung
1. Grundkonfiguration
sudo apt update && sudo apt full-upgrade -y
sudo apt install -y git curl python3-pip cmake
2. Speicheroptimierung
SWAP-Konfiguration bearbeiten:
sudo nano /etc/dphys-swapfile
# Ändern zu: CONF_SWAPSIZE=2048
sudo systemctl restart dphys-swapfile
3. GPU-Beschleunigung aktivieren
GPU-Speicherzuweisung konfigurieren:
sudo nano /boot/config.txt
# Hinzufügen: gpu_mem=128
III. Modell-Deployment
1. Ollama installieren
curl -fsSL https://ollama.ai/install.sh | sh
2. DeepSeek R1 Modell herunterladen
ollama run deepseek-r1:7b
Hinweis: Für Raspberry Pi 5 die 7B-Version wählen (größere Modelle benötigen mehr RAM)
3. API-Endpunkt konfigurieren
ollama serve
# Standard-Endpunkt: http://localhost:11434
IV. Performance-Optimierungstipps
- Quantisierte Modelle verwenden: INT4 oder INT8 wählen zur Reduzierung des Speicherbedarfs
- Kontextlänge begrenzen:
max_context_lengthauf 2048 oder weniger setzen - Batch-Verarbeitung: Mehrere Anfragen zusammenfassen wenn möglich
- Temperatur überwachen: Gerätetemperatur unter 80 °C halten