🤖 OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION.
📚 Documentation complète pour installer et optimiser Ollama selon votre configuration
🚀 INSTALLATION RAPIDE (3 minutes)
Étape 1 : Télécharger les scripts
Tous les scripts sont dans ce dossier projet.
Étape 2 : Rendre exécutables
chmod +x ollama-install-optimized.sh
chmod +x configure-ollama.sh
Étape 3 : Installation
# Installation complète d'Ollama
./ollama-install-optimized.sh
Le script va automatiquement :
- ✅ Détecter votre RAM (8GB ou 16GB+)
- ✅ Détecter votre GPU (NVIDIA, AMD, Intel, ou CPU seul)
- ✅ Installer Ollama
- ✅ Installer les drivers GPU si nécessaire
- ✅ Configurer le service
- ✅ Proposer d'installer un premier modèle
Étape 4 : Configuration optimale
# Configuration intelligente selon votre usage
./configure-ollama.sh
Le script va :
- ✅ Analyser votre système
- ✅ Vous demander votre usage principal (code, conversation, traduction, mixte)
- ✅ Recommander les meilleurs modèles pour votre config
- ✅ Installer les modèles recommandés
- ✅ Optimiser la configuration système
- ✅ Créer des scripts utilitaires
C'EST TOUT ! Ollama est prêt 🎉
📖 FICHIERS INCLUS
| Fichier | Description |
|---|---|
ollama-install-optimized.sh |
🔧 Script d'installation principal |
configure-ollama.sh |
⚙️ Configuration intelligente |
GUIDE-OLLAMA-COMPLET.md |
📘 Guide détaillé (dépannage, optimisation) |
CHOIX-MODELE-RAPIDE.md |
🎯 Aide au choix du modèle |
README.md |
📄 Ce fichier |
🎯 CHOIX RAPIDE DU MODÈLE
Vous avez 8GB RAM ?
Votre usage principal est le CODE ?
ollama pull qwen2.5:3b
✅ Excellent en code, rapide, ~3GB RAM
Votre usage principal est la CONVERSATION ?
ollama pull llama3.2:3b
✅ Excellent conversationnel, bon français, ~3GB RAM
Votre usage principal est la TRADUCTION ?
ollama pull qwen2.5:3b
✅ Excellent multilingue, 29 langues, ~3GB RAM
Usage MIXTE (code + conversation + traduction) ?
ollama pull qwen2.5:3b
✅ Polyvalent, bon partout, ~3GB RAM
⚠️ IMPORTANT 8GB :
- Installez UN SEUL modèle à la fois
- NE PAS utiliser mistral:7b (trop lent)
- Utilisez qwen2.5:3b à la place
Vous avez 16GB RAM ?
Configuration POLYVALENTE :
ollama pull mistral:7b
ollama pull deepseek-coder:6.7b
✅ Mistral pour tout + DeepSeek pour le code
Configuration CODE :
ollama pull deepseek-coder:6.7b
ollama pull qwen2.5-coder:7b
✅ Spécialistes code
Configuration MULTILINGUE :
ollama pull qwen2.5:7b
ollama pull aya:8b
✅ Traduction excellente
Avec GPU NVIDIA :
ollama pull llama3.1:8b
ollama pull codellama:13b
✅ Modèles puissants accélérés GPU
🔧 COMMANDES ESSENTIELLES
Utilisation de base
# Lancer une conversation
ollama run mistral
# Poser une question directe
ollama run mistral "Explique-moi Python en 3 phrases"
# Lister les modèles installés
ollama list
# Télécharger un nouveau modèle
ollama pull llama3.2:3b
# Supprimer un modèle
ollama rm nom-du-modele
# Voir les modèles en cours d'exécution
ollama ps
Gestion du service
# Démarrer Ollama
sudo systemctl start ollama
# Arrêter Ollama
sudo systemctl stop ollama
# Redémarrer Ollama
sudo systemctl restart ollama
# Voir l'état du service
systemctl status ollama
# Voir les logs
sudo journalctl -u ollama -f
Scripts utilitaires (créés par configure-ollama.sh)
# Voir l'état complet du système
~/ollama-status.sh
# Tester les performances d'un modèle
~/test-vitesse.sh mistral
# Nettoyer la RAM avant utilisation (8GB uniquement)
~/prepare-ollama.sh
🐛 DÉPANNAGE RAPIDE
Problème : Mistral bloque ou est lent sur 8GB
Solution :
# Passez à un modèle 3B plus rapide
ollama pull qwen2.5:3b
ollama run qwen2.5:3b
Problème : "Out of memory"
Solution :
# Nettoyez la RAM
sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches
killall chrome firefox
# Redémarrez Ollama
sudo systemctl restart ollama
# Utilisez un modèle plus léger
ollama pull gemma:2b
Problème : Service ne démarre pas
Solution :
# Voir les logs d'erreur
sudo journalctl -u ollama -n 50
# Vérifier le port
sudo ss -tlnp | grep 11434
# Tuer les processus et redémarrer
sudo pkill ollama
sudo systemctl restart ollama
Problème : Réponses en anglais
Solution :
# Forcez le français dans le prompt
ollama run qwen2.5:3b "Réponds en français : [votre question]"
# Ou utilisez qwen2.5 (meilleur en français)
ollama pull qwen2.5:3b
Problème : Trop lent en général
Solutions selon RAM :
8GB :
# 1. Utilisez un modèle ultra-rapide
ollama pull qwen2.5:1.5b # ou gemma:2b
# 2. Nettoyez la RAM
~/prepare-ollama.sh # si créé
# 3. Réduisez le contexte
ollama run qwen2.5:3b --num-ctx 2048
16GB :
# Vérifiez votre configuration
cat /etc/systemd/system/ollama.service.d/override.conf
# Devrait avoir :
# OLLAMA_NUM_PARALLEL=2
# OLLAMA_MAX_LOADED_MODELS=2
📊 COMPARATIF RAPIDE DES MODÈLES
Pour 8GB RAM (CPU)
| Modèle | Vitesse | Qualité | Usage idéal | RAM |
|---|---|---|---|---|
| qwen2.5:1.5b | ⚡⚡⚡⚡⚡ | ⭐⭐⭐ | Code rapide | 2GB |
| gemma:2b | ⚡⚡⚡⚡⚡ | ⭐⭐⭐⭐ | Conversation | 2GB |
| llama3.2:3b | ⚡⚡⚡⚡ | ⭐⭐⭐⭐⭐ | Conversation | 3GB |
| qwen2.5:3b | ⚡⚡⚡⚡ | ⭐⭐⭐⭐⭐ | Code + Mixte | 3GB |
Pour 16GB RAM
| Modèle | Qualité | Usage idéal | RAM |
|---|---|---|---|
| mistral:7b | ⭐⭐⭐⭐⭐ | Polyvalent | 5-6GB |
| llama3.1:8b | ⭐⭐⭐⭐⭐ | Conversation | 6GB |
| deepseek-coder:6.7b | ⭐⭐⭐⭐⭐ | Code spécialisé | 5GB |
| qwen2.5:7b | ⭐⭐⭐⭐⭐ | Code + Multilingue | 5GB |
💡 EXEMPLES D'UTILISATION
Exemple 1 : Assistance au code
ollama run qwen2.5:3b "Écris une fonction Python pour lire un fichier CSV et le convertir en JSON"
Exemple 2 : Traduction
ollama run qwen2.5:3b "Traduis en anglais : Bonjour, comment allez-vous aujourd'hui ?"
Exemple 3 : Explication de code
cat mon_script.py | ollama run qwen2.5:3b "Explique ce code en français"
Exemple 4 : Revue de code
ollama run deepseek-coder:6.7b "Analyse ce code et suggère des améliorations : [coller votre code]"
Exemple 5 : Génération de documentation
ollama run qwen2.5:7b "Génère une documentation markdown pour cette fonction : [coller votre code]"
⚙️ OPTIMISATIONS AVANCÉES
Pour 8GB RAM
Éditer la configuration :
sudo nano /etc/systemd/system/ollama.service.d/override.conf
Configuration optimale 8GB :
[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
Environment="OLLAMA_MAX_LOADED_MODELS=1"
Environment="OLLAMA_NUM_PARALLEL=1"
Environment="OLLAMA_NUM_CTX=2048"
Appliquer :
sudo systemctl daemon-reload
sudo systemctl restart ollama
Pour 16GB RAM
Configuration optimale 16GB :
[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=10m"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_NUM_CTX=4096"
Avec GPU NVIDIA
Ajouter à la configuration :
Environment="OLLAMA_NUM_GPU_LAYERS=999"
Environment="CUDA_VISIBLE_DEVICES=0"
Surveiller l'utilisation GPU :
watch -n 1 nvidia-smi
📚 DOCUMENTATION COMPLÈTE
Pour aller plus loin, consultez :
-
GUIDE-OLLAMA-COMPLET.md- Guide détaillé avec :- Solutions aux problèmes courants
- Optimisations avancées
- Scripts d'automatisation
- Comparatifs détaillés
- Workflows recommandés
-
CHOIX-MODELE-RAPIDE.md- Aide au choix :- Recommandations par usage
- Tableaux comparatifs
- Tests de performance
- Commandes de test
🎓 WORKFLOW RECOMMANDÉ
Configuration 8GB - Usage Code
-
Installation
./ollama-install-optimized.sh ./configure-ollama.sh # Choisir "Code" -
Utilisation quotidienne
# Avant de coder ~/prepare-ollama.sh # Nettoyer la RAM # Utiliser l'assistant ollama run qwen2.5:3b -
Exemples de prompts
>>> Écris une fonction Python pour parser un fichier XML >>> Explique-moi les décorateurs en Python >>> Corrige ce code : [coller votre code]
Configuration 16GB - Usage Mixte
-
Installation
./ollama-install-optimized.sh ./configure-ollama.sh # Choisir "Mixte" -
Modèles installés
mistral:7b→ Conversation, usage généraldeepseek-coder:6.7b→ Code spécialisé
-
Utilisation
# Conversation générale ollama run mistral # Code ollama run deepseek-coder:6.7b
❓ FAQ
Q: Combien de temps prend l'installation ? R: 5-10 minutes selon votre connexion internet.
Q: Puis-je utiliser Ollama sans GPU ? R: Oui, tous les modèles fonctionnent sur CPU. Le GPU accélère juste.
Q: Combien d'espace disque nécessaire ? R:
- Modèle 3B : ~2GB
- Modèle 7B : ~4-5GB
- Prévoyez 10-20GB pour plusieurs modèles
Q: Puis-je installer plusieurs modèles sur 8GB ? R: Oui, mais n'utilisez qu'UN SEUL modèle à la fois.
Q: Mistral est trop lent sur 8GB, que faire ? R: Utilisez qwen2.5:3b ou llama3.2:3b à la place.
Q: Comment désinstaller Ollama ? R:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama
sudo rm -rf ~/.ollama
sudo rm /etc/systemd/system/ollama.service
sudo systemctl daemon-reload
Q: Les modèles sont-ils gratuits ? R: Oui, tous les modèles Ollama sont gratuits et open-source.
Q: Ollama fonctionne-t-il hors ligne ? R: Oui, une fois les modèles téléchargés, tout fonctionne localement.
🔗 LIENS UTILES
- Site officiel : https://ollama.com
- Documentation : https://github.com/ollama/ollama
- Liste des modèles : https://ollama.com/library
- GitHub : https://github.com/ollama/ollama
🆘 BESOIN D'AIDE ?
- Consultez le guide complet :
GUIDE-OLLAMA-COMPLET.md - Exécutez le diagnostic :
~/ollama-diagnostic.sh # Si créé par configure-ollama.sh - Vérifiez les logs :
sudo journalctl -u ollama -n 50
📝 NOTES
- 8GB RAM : Privilégiez les modèles 3B (qwen2.5:3b, llama3.2:3b)
- 16GB RAM : Tous les modèles 7B-8B sont utilisables
- GPU NVIDIA : Accélération automatique si drivers installés
- Première utilisation : Le premier chargement d'un modèle peut prendre quelques secondes
Version : 1.0 Date : Décembre 2024 Testé sur : Ubuntu 22.04, 24.04
✅ CHECKLIST POST-INSTALLATION
- [ ] Ollama installé (
ollama --version) - [ ] Service actif (
systemctl status ollama) - [ ] Au moins un modèle téléchargé (
ollama list) - [ ] Modèle testé (réponse en français)
- [ ] Scripts utilitaires créés
- [ ] Configuration optimisée selon RAM
- [ ] Documentation sauvegardée
Si tout est coché : FÉLICITATIONS ! Ollama est opérationnel 🎉
Pour toute question ou amélioration : consultez la documentation complète ou les scripts, je vais les publier sur ce site.
Bon coding avec Ollama ! 🚀
Voici les commandes pour créer des raccourcis clavier pour Ollama sur Ubuntu/GNOME :
🎯 Méthode via Interface Graphique
Paramètres → Clavier → Raccourcis personnalisés
Exemples de raccourcis à créer :
| Nom | Commande | Raccourci suggéré |
|---|---|---|
| Lancer Ollama (Phi) | gnome-terminal -- ollama run phi:latest | Ctrl+Alt+O |
| Lancer Mistral | gnome-terminal -- ollama run mistral:latest | Ctrl+Alt+1 |
| Lancer Mistral Small | gnome-terminal -- ollama run mistral-small:latest | Ctrl+Alt+2 |
| Liste modèles | gnome-terminal -- bash -c "ollama list; read -p 'Appuyez sur Entrée...'" | Ctrl+Alt+L |
| État Ollama | gnome-terminal -- bash -c "systemctl status ollama; read -p 'Appuyez sur Entrée...'" | Ctrl+Alt+S |
💻 Méthode via Terminal (plus rapide)
# Créer un raccourci pour lancer Phi (Ctrl+Alt+O)
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ name 'Ollama Phi'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ command 'gnome-terminal -- ollama run phi:latest'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ binding '<Primary><Alt>o'
# Créer un raccourci pour Mistral (Ctrl+Alt+1)
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ name 'Ollama Mistral'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ command 'gnome-terminal -- ollama run mistral:latest'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ binding '<Primary><Alt>1'
# Activer tous les raccourcis créés
gsettings set org.gnome.settings-daemon.plugins.media-keys custom-keybindings "['/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/', '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/']"
📝 Script Automatique Complet
#!/bin/bash
# Sauvegarder comme ~/create-ollama-shortcuts.sh
# Liste des raccourcis
SHORTCUTS_PATH="org.gnome.settings-daemon.plugins.media-keys"
# Réinitialiser les raccourcis personnalisés
gsettings set $SHORTCUTS_PATH custom-keybindings "[]"
# Fonction pour créer un raccourci
create_shortcut() {
local name="$1"
local command="$2"
local binding="$3"
local path="/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/$name/"
gsettings set $SHORTCUTS_PATH.custom-keybinding:$path name "$name"
gsettings set $SHORTCUTS_PATH.custom-keybinding:$path command "$command"
gsettings set $SHORTCUTS_PATH.custom-keybinding:$path binding "$binding"
}
# Créer les raccourcis
create_shortcut "ollama-phi" "gnome-terminal -- ollama run phi:latest" "<Primary><Alt>o"
create_shortcut "ollama-mistral" "gnome-terminal -- ollama run mistral:latest" "<Primary><Alt>1"
create_shortcut "ollama-mistral-small" "gnome-terminal -- ollama run mistral-small:latest" "<Primary><Alt>2"
create_shortcut "ollama-list" "gnome-terminal -- bash -c 'ollama list; read -p Entrée...'" "<Primary><Alt>l"
create_shortcut "ollama-status" "gnome-terminal -- bash -c 'systemctl status ollama; read -p Entrée...'" "<Primary><Alt>s"
# Activer tous les raccourcis
gsettings set $SHORTCUTS_PATH custom-keybindings "[
'/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/',
'/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/',
'/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral-small/',
'/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-list/',
'/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-status/'
]"
echo "✅ Raccourcis créés avec succès !"
Pour l'utiliser :
chmod +x ~/create-ollama-shortcuts.sh
~/create-ollama-shortcuts.sh
🎹 Raccourcis créés :
- Ctrl+Alt+O → Lancer Phi
- Ctrl+Alt+1 → Lancer Mistral
- Ctrl+Alt+2 → Lancer Mistral Small
- Ctrl+Alt+L → Voir la liste des modèles
- Ctrl+Alt+S → Voir l'état du service
Vous pouvez les tester immédiatement après avoir exécuté le script ! 🚀

Aucun commentaire:
Enregistrer un commentaire
Merci pour ce commentaire