Zum Inhalt

DeepSeek R1 auf dem Raspberry Pi 5 deployen: Vollständiger Leitfaden

rpi_deepseek_guide

Dieser Leitfaden beschreibt detailliert, wie das DeepSeek-R1-Open-Source-Sprachmodell auf einem Raspberry Pi 5 eingerichtet wird. Durch optimierte Konfiguration können selbst ressourcenbeschränkte Geräte leichtgewichtige Modelle ausführen.


I. Vorbereitung

Hardware-Anforderungen

  • Raspberry Pi 5: 8 GB oder 16 GB RAM empfohlen
  • Speichergerät: Mindestens 32 GB hochgeschwindigkeits MicroSD (A2-Klasse empfohlen)
  • Kühllösung: Aktiver Lüfter oder Metall-Kühlkörper (anhaltend hohe Last erzeugt Wärme)
  • Stromversorgung: Offizielles 27W PD-Netzteil (5V 5A)

Software-Vorbereitung

  1. 64-Bit-System flashen:
  2. Raspberry Pi OS Lite (64-bit) herunterladen
  3. Mit Raspberry Pi Imager flashen
  4. Erstkonfiguration: bash sudo raspi-config # SSH/VNC aktivieren, Dateisystem erweitern, SWAP auf 2048 MB setzen

II. Systemoptimierung

1. Grundkonfiguration

sudo apt update && sudo apt full-upgrade -y
sudo apt install -y git curl python3-pip cmake

2. Speicheroptimierung

SWAP-Konfiguration bearbeiten:

sudo nano /etc/dphys-swapfile
# Ändern zu: CONF_SWAPSIZE=2048
sudo systemctl restart dphys-swapfile

3. GPU-Beschleunigung aktivieren

GPU-Speicherzuweisung konfigurieren:

sudo nano /boot/config.txt
# Hinzufügen: gpu_mem=128

III. Modell-Deployment

1. Ollama installieren

curl -fsSL https://ollama.ai/install.sh | sh

2. DeepSeek R1 Modell herunterladen

ollama run deepseek-r1:7b

Hinweis: Für Raspberry Pi 5 die 7B-Version wählen (größere Modelle benötigen mehr RAM)

3. API-Endpunkt konfigurieren

ollama serve
# Standard-Endpunkt: http://localhost:11434

IV. Performance-Optimierungstipps

  1. Quantisierte Modelle verwenden: INT4 oder INT8 wählen zur Reduzierung des Speicherbedarfs
  2. Kontextlänge begrenzen: max_context_length auf 2048 oder weniger setzen
  3. Batch-Verarbeitung: Mehrere Anfragen zusammenfassen wenn möglich
  4. Temperatur überwachen: Gerätetemperatur unter 80 °C halten