Installation d'Ollama et de PHI ou mieux de Mistral sur un PC avec 8 Go ou 16 Go de RAM.
Voici mes commentaires et suggestions d'amélioration pour ce script et ma documentation :
Les points forts de cette approche
- Détection automatique du GPU - excellent pour adapter l'installation
- Structure claire du script avec émojis pour faciliter la lecture
- Documentation complète sur les méthodes de démarrage/arrêt
- Puis, suggestions d'amélioration des scripts.
- Modèles recommandés selon la RAM
1. Démarrage via systemd (Méthode Recommandée).
Si vous avez précédemment arrêté Ollama avec sudo systemctl stop ollama, ou si vous voulez qu'il fonctionne en arrière-plan comme un service, utilisez la commande suivante :
.
Démarrez le service Ollama :
Bashsudo systemctl start ollamaVérifiez le statut (Optionnel) :
Pour vous assurer qu'il est bien en cours d'exécution :
Bashsystemctl status ollamaVous devriez voir
Active: active (running).Redémarrez le service (Si vous étiez en train de le modifier) :
Si Ollama était déjà en cours d'exécution, mais que vous voulez appliquer des changements de configuration (comme des variables d'environnement), utilisez restart :
Bashsudo systemctl restart ollama
2. Démarrage en mode manuel
Si vous préférez exécuter Ollama dans votre terminal pour voir directement les logs, ou si vous ne l'avez pas installé en tant que service systemd :
Exécutez la commande
serve:Bashollama serveCette commande va lancer le serveur Ollama. Il restera actif tant que vous ne fermerez pas la fenêtre du terminal ou que vous n'appuyerez pas sur
Ctrl+C.Lancer en arrière-plan (Démon) :
Si vous voulez le lancer manuellement sans bloquer votre terminal, vous pouvez ajouter & à la fin de la commande :
Bashollama serve &Vous pourrez ensuite utiliser votre terminal pour d'autres commandes. Vous devrez le tuer manuellement plus tard (par exemple avec
pkill ollama) si vous voulez l'arrêter.
Astuce : Une fois qu'Ollama est démarré, vous pouvez tester sa disponibilité en exécutant un modèle :
ollama run llama3
Suggestions d'amélioration du script :
1. Gestion du redémarrage NVIDIA
# Au lieu de forcer un reboot immédiat :
if [ "$GPU_TYPE" = "NVIDIA" ]; then
echo "🚀 Installation driver NVIDIA + CUDA"
sudo add-apt-repository ppa:graphics-drivers/ppa -y
sudo apt update
sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
echo "⚠️ Un redémarrage est nécessaire pour activer les drivers NVIDIA"
echo "Appuyez sur [Entrée] pour redémarrer maintenant, ou Ctrl+C pour le faire plus tard"
read
sudo reboot
fi2. Vérification préalable d'Ollama
# Avant l'installation, vérifier si déjà installé
if command -v ollama &> /dev/null; then
echo "⚠️ Ollama est déjà installé (version $(ollama --version))"
echo "Voulez-vous réinstaller ? [o/N]"
read -r response
if [[ ! "$response" =~ ^[Oo]$ ]]; then
exit 0
fi
fi3. Test plus robuste après installation
# Au lieu de juste tester Mistral, proposer un choix
echo "📥 Modèles suggérés selon votre RAM :"
total_ram=$(free -g | awk '/^Mem:/{print $2}')
if [ "$total_ram" -ge 16 ]; then
echo " - mistral (7B) - Recommandé"
echo " - llama3.2 (3B) - Plus rapide"
else
echo " - phi (2.7B) - Recommandé pour 8GB RAM"
echo " - llama3.2 (3B)"
fi
echo "Entrez le nom du modèle à télécharger [mistral] :"
read -r model_choice
model_choice=${model_choice:-mistral}
ollama pull "$model_choice"
ollama run "$model_choice" "Bonjour, peux-tu te présenter en français ?"4. Gestion des logs
# Ajouter une fonction pour vérifier les logs en cas de problème
echo "📝 Pour consulter les logs d'Ollama :"
echo " sudo journalctl -u ollama -f"
echo ""
echo "📊 Pour vérifier l'utilisation GPU :"
if [ "$GPU_TYPE" = "NVIDIA" ]; then
echo " watch -n 1 nvidia-smi"
fi5. Configuration de la mémoire
# Créer un fichier de configuration pour optimiser selon la RAM
sudo mkdir -p /etc/systemd/system/ollama.service.d/
cat <<EOF | sudo tee /etc/systemd/system/ollama.service.d/override.conf
[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
EOF
sudo systemctl daemon-reloadSuggestions pour la documentation
Ajouter une section dépannage
## Dépannage
### Ollama ne démarre pas
```bash
# Vérifier les logs
sudo journalctl -u ollama -n 50
# Vérifier le port
sudo netstat -tlnp | grep 11434
```
### Modèle trop lent
- Pour 8GB RAM : utilisez phi, gemma:2b, ou llama3.2:1b
- Pour 16GB RAM : mistral, llama3.2, phi3
- Arrêtez les autres applications gourmandes en RAM
### Erreur "out of memory"
```bash
# Limiter le nombre de couches GPU
OLLAMA_NUM_GPU_LAYERS=20 ollama run mistral
```Script de test rapide
Créez un fichier test-ollama.sh :
#!/bin/bash
echo "🧪 Test d'Ollama..."
# Vérifier le service
if systemctl is-active --quiet ollama; then
echo "✅ Service actif"
else
echo "❌ Service inactif - Démarrage..."
sudo systemctl start ollama
sleep 3
fi
# Lister les modèles
echo -e "\n📦 Modèles installés :"
ollama list
# Test de performance
echo -e "\n⚡ Test de vitesse :"
time ollama run phi "Compte de 1 à 10" --verboseModèles recommandés selon la RAM
Pour 8 GB RAM :
phi(2.7B) - Équilibrégemma:2b- Très rapideqwen2.5:3b- Bon en code
Pour 16 GB RAM :
mistral(7B) - Excellent polyvalentllama3.2(3B) - Rapide et performantdeepseek-coder:6.7b- Spécialisé code
OLLAMA - AIDE-MÉMOIRE RAPIDE
🚀 INSTALLATION (PREMIÈRE FOIS)
1. Installation d'Ollama
$ chmod +x ollama-install-optimized.sh
$ ./ollama-install-optimized.sh
2. Configuration optimale
$ chmod +x configure-ollama.sh
$ ./configure-ollama.sh
💻 UTILISATION QUOTIDIENNE
Lancer une conversation
$ ollama run mistral
Question rapide
$ ollama run qwen2.5:3b "Explique-moi les listes en Python"
Utiliser un fichier
$ cat script.py | ollama run qwen2.5:3b "Explique ce code"
📦 GESTION DES MODÈLES
Lister les modèles installés
$ ollama list
Télécharger un modèle
$ ollama pull llama3.2:3b
Supprimer un modèle
$ ollama rm nom-du-modele
Voir les modèles actifs
$ ollama ps
🔧 SERVICE OLLAMA
Démarrer
$ sudo systemctl start ollama
Arrêter
$ sudo systemctl stop ollama
Redémarrer
$ sudo systemctl restart ollama
Voir l'état
$ systemctl status ollama
Voir les logs
$ sudo journalctl -u ollama -f
🛠️ SCRIPTS UTILITAIRES
État complet du système
$ ~/ollama-status.sh
Test de performance
$ ~/test-vitesse.sh mistral
Nettoyer la RAM (8GB seulement)
$ ~/prepare-ollama.sh
🎯 MODÈLES RECOMMANDÉS
8GB RAM - Code
$ ollama pull qwen2.5:3b
8GB RAM - Conversation
$ ollama pull llama3.2:3b
8GB RAM - Ultra-rapide
$ ollama pull gemma:2b
16GB RAM - Polyvalent
$ ollama pull mistral:7b
16GB RAM - Code spécialisé
$ ollama pull deepseek-coder:6.7b
16GB RAM - Multilingue
$ ollama pull qwen2.5:7b
🐛 DÉPANNAGE RAPIDE
Modèle trop lent (8GB) ?
→ Utilisez qwen2.5:3b ou gemma:2b au lieu de mistral:7b
Out of memory ?
→ sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches
→ sudo systemctl restart ollama
Service ne démarre pas ?
→ sudo journalctl -u ollama -n 50
→ sudo pkill ollama
→ sudo systemctl restart ollama
Réponses en anglais ?
→ Utilisez qwen2.5:3b (meilleur en français)
→ Forcez : "Réponds en français : [question]"
💡 ASTUCES
Réduire l'utilisation RAM
$ ollama run mistral --num-ctx 2048
Mode verbeux (voir les stats)
$ ollama run mistral --verbose "Test"
Sauvegarder une réponse
$ ollama run mistral "Question" > reponse.txt
Utiliser le GPU (si NVIDIA)
→ Automatique, surveillez avec : watch -n 1 nvidia-smi
Forcer CPU uniquement
$ OLLAMA_NUM_GPU_LAYERS=0 ollama run mistral
📚 DOCUMENTATION │
README.md → Guide complet d'installation
GUIDE-OLLAMA-COMPLET.md → Dépannage et optimisations
CHOIX-MODELE-RAPIDE.md → Aide au choix du modèle
🔗 LIENS UTILES
Site officiel : https://ollama.com
Liste modèles : https://ollama.com/library
GitHub : https://github.com/ollama/ollama
💾 RAPPEL RAM
8GB → Modèles 3B uniquement (qwen2.5:3b, llama3.2:3b, gemma:2b)
16GB → Modèles 7B-8B utilisables (mistral, deepseek-coder, etc.)
⚠️ RÈGLE D'OR 8GB
• UN SEUL modèle actif à la fois
• NE PAS utiliser mistral:7b (trop lent)
• Fermez les applications gourmandes avant utilisation





