Déployer DeepSeek R1 sur Raspberry Pi 5
Configuration matérielle
- Raspberry Pi 5 : 8GB or 16GB RAM recommandé
- Stockage : Carte MicroSD 32GB+ classe A2
- Refroidissement : ventilateur actif ou dissipateur (essentiel pour charge prolongée)
- Alimentation : adaptateur 27W PD officiel
Installation système
- Télécharger Raspberry Pi OS 64-bit Lite
- Graver avec Raspberry Pi Imager
- Premier démarrage:
sudo raspi-config
# Activer SSH, étendre filesystem, SWAP=2048MB
Optimisations systèmesystème
sudo apt update && sudo apt full-upgrade -y
sudo apt install -y python3-pip
# GPU activation
sudo usermod -aG render pi
echo "dtoverlay=vc4-kms-v3d" | sudo tee -a /boot/config.txt
sudo reboot
Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh
Modèles recommandés
| Modèle |
RAM |
Vitesse |
Précision |
| deepseek-r1:1.5b |
3GB |
8.5 tok/s |
60% |
| deepseek-r1:8b-q4 |
5GB |
5 tok/s |
80% |
# Version légère
ollama run deepseek-r1:1.5b
# Texte de test
>>> Explique l'informatique quantique en 3 lignes
# Priorité CPU max
export OLLAMA_NUM_PARALLEL=1
# Accélération GPU
export OLLAMA_LLM_METAL=1
# API service (arrière-plan)
ollama serve &
Cas d'usage
- Maison intelligente : intégration Home Assistant
- Éducation : plateforme d'expérimentation LoRA
- Robot éducatif : analyse vidéo + réponses
- IA en périphérie : tests sans cloud
Dépannage courant
| Erreur |
Solution |
| Pas assez de RAM |
Augmenter SWAP à 4096MB |
| Réponse lente |
Utiliser modèle plus petit, vérifier freq CPU |
| Surchauffe |
Ajouter dissipateur, activer thermal throttling |
Résultats pratiques
- Réponse QA chinoise : 2.4s (1.5B), 8.7s (8B-Q4)
- Vitesse code generation : 5 tok/s (lightweigh), 1.8 tok/s (8B)
- Mémoire pic : 1.8GB (1.5B), 5.3GB (8B)
Deployer un grand LLM sur Raspberry Pi 5 est maintenant réalisable et utile pour edge computing.