Aller au contenu

Déployer DeepSeek R1 sur Raspberry Pi 5

Configuration matérielle

  • Raspberry Pi 5 : 8GB or 16GB RAM recommandé
  • Stockage : Carte MicroSD 32GB+ classe A2
  • Refroidissement : ventilateur actif ou dissipateur (essentiel pour charge prolongée)
  • Alimentation : adaptateur 27W PD officiel

Installation système

  1. Télécharger Raspberry Pi OS 64-bit Lite
  2. Graver avec Raspberry Pi Imager
  3. Premier démarrage:
sudo raspi-config
# Activer SSH, étendre filesystem, SWAP=2048MB

Optimisations systèmesystème

sudo apt update && sudo apt full-upgrade -y
sudo apt install -y python3-pip

# GPU activation
sudo usermod -aG render pi
echo "dtoverlay=vc4-kms-v3d" | sudo tee -a /boot/config.txt
sudo reboot

Installer Ollama

curl -fsSL https://ollama.com/install.sh | sh

Modèles recommandés

Modèle RAM Vitesse Précision
deepseek-r1:1.5b 3GB 8.5 tok/s 60%
deepseek-r1:8b-q4 5GB 5 tok/s 80%
# Version légère
ollama run deepseek-r1:1.5b

# Texte de test
>>> Explique l'informatique quantique en 3 lignes

Astuces de performance

# Priorité CPU max
export OLLAMA_NUM_PARALLEL=1

# Accélération GPU
export OLLAMA_LLM_METAL=1

# API service (arrière-plan)
ollama serve &

Cas d'usage

  • Maison intelligente : intégration Home Assistant
  • Éducation : plateforme d'expérimentation LoRA
  • Robot éducatif : analyse vidéo + réponses
  • IA en périphérie : tests sans cloud

Dépannage courant

Erreur Solution
Pas assez de RAM Augmenter SWAP à 4096MB
Réponse lente Utiliser modèle plus petit, vérifier freq CPU
Surchauffe Ajouter dissipateur, activer thermal throttling

Résultats pratiques

  • Réponse QA chinoise : 2.4s (1.5B), 8.7s (8B-Q4)
  • Vitesse code generation : 5 tok/s (lightweigh), 1.8 tok/s (8B)
  • Mémoire pic : 1.8GB (1.5B), 5.3GB (8B)

Deployer un grand LLM sur Raspberry Pi 5 est maintenant réalisable et utile pour edge computing.