dimanche 14 décembre 2025

OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION

 

🤖 OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION.

Ollama + PHI sur Ubuntu.


📚 Documentation complète pour installer et optimiser Ollama selon votre configuration


🚀 INSTALLATION RAPIDE (3 minutes)

Étape 1 : Télécharger les scripts

Tous les scripts sont dans ce dossier projet.

Étape 2 : Rendre exécutables

chmod +x ollama-install-optimized.sh
chmod +x configure-ollama.sh

Étape 3 : Installation

# Installation complète d'Ollama
./ollama-install-optimized.sh

Le script va automatiquement :

  • ✅ Détecter votre RAM (8GB ou 16GB+)
  • ✅ Détecter votre GPU (NVIDIA, AMD, Intel, ou CPU seul)
  • ✅ Installer Ollama
  • ✅ Installer les drivers GPU si nécessaire
  • ✅ Configurer le service
  • ✅ Proposer d'installer un premier modèle

Étape 4 : Configuration optimale

# Configuration intelligente selon votre usage
./configure-ollama.sh

Le script va :

  • ✅ Analyser votre système
  • ✅ Vous demander votre usage principal (code, conversation, traduction, mixte)
  • ✅ Recommander les meilleurs modèles pour votre config
  • ✅ Installer les modèles recommandés
  • ✅ Optimiser la configuration système
  • ✅ Créer des scripts utilitaires

C'EST TOUT ! Ollama est prêt 🎉


📖 FICHIERS INCLUS

Fichier Description
ollama-install-optimized.sh 🔧 Script d'installation principal
configure-ollama.sh ⚙️ Configuration intelligente
GUIDE-OLLAMA-COMPLET.md 📘 Guide détaillé (dépannage, optimisation)
CHOIX-MODELE-RAPIDE.md 🎯 Aide au choix du modèle
README.md 📄 Ce fichier

🎯 CHOIX RAPIDE DU MODÈLE

Vous avez 8GB RAM ?

Votre usage principal est le CODE ?

ollama pull qwen2.5:3b

✅ Excellent en code, rapide, ~3GB RAM

Votre usage principal est la CONVERSATION ?

ollama pull llama3.2:3b

✅ Excellent conversationnel, bon français, ~3GB RAM

Votre usage principal est la TRADUCTION ?

ollama pull qwen2.5:3b

✅ Excellent multilingue, 29 langues, ~3GB RAM

Usage MIXTE (code + conversation + traduction) ?

ollama pull qwen2.5:3b

✅ Polyvalent, bon partout, ~3GB RAM

⚠️ IMPORTANT 8GB :

  • Installez UN SEUL modèle à la fois
  • NE PAS utiliser mistral:7b (trop lent)
  • Utilisez qwen2.5:3b à la place

Vous avez 16GB RAM ?

Configuration POLYVALENTE :

ollama pull mistral:7b
ollama pull deepseek-coder:6.7b

✅ Mistral pour tout + DeepSeek pour le code

Configuration CODE :

ollama pull deepseek-coder:6.7b
ollama pull qwen2.5-coder:7b

✅ Spécialistes code

Configuration MULTILINGUE :

ollama pull qwen2.5:7b
ollama pull aya:8b

✅ Traduction excellente

Avec GPU NVIDIA :

ollama pull llama3.1:8b
ollama pull codellama:13b

✅ Modèles puissants accélérés GPU


🔧 COMMANDES ESSENTIELLES

Utilisation de base

# Lancer une conversation
ollama run mistral

# Poser une question directe
ollama run mistral "Explique-moi Python en 3 phrases"

# Lister les modèles installés
ollama list

# Télécharger un nouveau modèle
ollama pull llama3.2:3b

# Supprimer un modèle
ollama rm nom-du-modele

# Voir les modèles en cours d'exécution
ollama ps

Gestion du service

# Démarrer Ollama
sudo systemctl start ollama

# Arrêter Ollama
sudo systemctl stop ollama

# Redémarrer Ollama
sudo systemctl restart ollama

# Voir l'état du service
systemctl status ollama

# Voir les logs
sudo journalctl -u ollama -f

Scripts utilitaires (créés par configure-ollama.sh)

# Voir l'état complet du système
~/ollama-status.sh

# Tester les performances d'un modèle
~/test-vitesse.sh mistral

# Nettoyer la RAM avant utilisation (8GB uniquement)
~/prepare-ollama.sh

🐛 DÉPANNAGE RAPIDE

Problème : Mistral bloque ou est lent sur 8GB

Solution :

# Passez à un modèle 3B plus rapide
ollama pull qwen2.5:3b
ollama run qwen2.5:3b

Problème : "Out of memory"

Solution :

# Nettoyez la RAM
sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches
killall chrome firefox

# Redémarrez Ollama
sudo systemctl restart ollama

# Utilisez un modèle plus léger
ollama pull gemma:2b

Problème : Service ne démarre pas

Solution :

# Voir les logs d'erreur
sudo journalctl -u ollama -n 50

# Vérifier le port
sudo ss -tlnp | grep 11434

# Tuer les processus et redémarrer
sudo pkill ollama
sudo systemctl restart ollama

Problème : Réponses en anglais

Solution :

# Forcez le français dans le prompt
ollama run qwen2.5:3b "Réponds en français : [votre question]"

# Ou utilisez qwen2.5 (meilleur en français)
ollama pull qwen2.5:3b

Problème : Trop lent en général

Solutions selon RAM :

8GB :

# 1. Utilisez un modèle ultra-rapide
ollama pull qwen2.5:1.5b  # ou gemma:2b

# 2. Nettoyez la RAM
~/prepare-ollama.sh  # si créé

# 3. Réduisez le contexte
ollama run qwen2.5:3b --num-ctx 2048

16GB :

# Vérifiez votre configuration
cat /etc/systemd/system/ollama.service.d/override.conf

# Devrait avoir :
# OLLAMA_NUM_PARALLEL=2
# OLLAMA_MAX_LOADED_MODELS=2

📊 COMPARATIF RAPIDE DES MODÈLES

Pour 8GB RAM (CPU)

Modèle Vitesse Qualité Usage idéal RAM
qwen2.5:1.5b ⚡⚡⚡⚡⚡ ⭐⭐⭐ Code rapide 2GB
gemma:2b ⚡⚡⚡⚡⚡ ⭐⭐⭐⭐ Conversation 2GB
llama3.2:3b ⚡⚡⚡⚡ ⭐⭐⭐⭐⭐ Conversation 3GB
qwen2.5:3b ⚡⚡⚡⚡ ⭐⭐⭐⭐⭐ Code + Mixte 3GB

Pour 16GB RAM

Modèle Qualité Usage idéal RAM
mistral:7b ⭐⭐⭐⭐⭐ Polyvalent 5-6GB
llama3.1:8b ⭐⭐⭐⭐⭐ Conversation 6GB
deepseek-coder:6.7b ⭐⭐⭐⭐⭐ Code spécialisé 5GB
qwen2.5:7b ⭐⭐⭐⭐⭐ Code + Multilingue 5GB

💡 EXEMPLES D'UTILISATION

Exemple 1 : Assistance au code

ollama run qwen2.5:3b "Écris une fonction Python pour lire un fichier CSV et le convertir en JSON"

Exemple 2 : Traduction

ollama run qwen2.5:3b "Traduis en anglais : Bonjour, comment allez-vous aujourd'hui ?"

Exemple 3 : Explication de code

cat mon_script.py | ollama run qwen2.5:3b "Explique ce code en français"

Exemple 4 : Revue de code

ollama run deepseek-coder:6.7b "Analyse ce code et suggère des améliorations : [coller votre code]"

Exemple 5 : Génération de documentation

ollama run qwen2.5:7b "Génère une documentation markdown pour cette fonction : [coller votre code]"

⚙️ OPTIMISATIONS AVANCÉES

Pour 8GB RAM

Éditer la configuration :

sudo nano /etc/systemd/system/ollama.service.d/override.conf

Configuration optimale 8GB :

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
Environment="OLLAMA_MAX_LOADED_MODELS=1"
Environment="OLLAMA_NUM_PARALLEL=1"
Environment="OLLAMA_NUM_CTX=2048"

Appliquer :

sudo systemctl daemon-reload
sudo systemctl restart ollama

Pour 16GB RAM

Configuration optimale 16GB :

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=10m"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_NUM_CTX=4096"

Avec GPU NVIDIA

Ajouter à la configuration :

Environment="OLLAMA_NUM_GPU_LAYERS=999"
Environment="CUDA_VISIBLE_DEVICES=0"

Surveiller l'utilisation GPU :

watch -n 1 nvidia-smi

📚 DOCUMENTATION COMPLÈTE

Pour aller plus loin, consultez :

  • GUIDE-OLLAMA-COMPLET.md - Guide détaillé avec :

    • Solutions aux problèmes courants
    • Optimisations avancées
    • Scripts d'automatisation
    • Comparatifs détaillés
    • Workflows recommandés
  • CHOIX-MODELE-RAPIDE.md - Aide au choix :

    • Recommandations par usage
    • Tableaux comparatifs
    • Tests de performance
    • Commandes de test

🎓 WORKFLOW RECOMMANDÉ

Configuration 8GB - Usage Code

  1. Installation

    ./ollama-install-optimized.sh
    ./configure-ollama.sh  # Choisir "Code"
    
  2. Utilisation quotidienne

    # Avant de coder
    ~/prepare-ollama.sh  # Nettoyer la RAM
    
    # Utiliser l'assistant
    ollama run qwen2.5:3b
    
  3. Exemples de prompts

    >>> Écris une fonction Python pour parser un fichier XML
    >>> Explique-moi les décorateurs en Python
    >>> Corrige ce code : [coller votre code]
    

Configuration 16GB - Usage Mixte

  1. Installation

    ./ollama-install-optimized.sh
    ./configure-ollama.sh  # Choisir "Mixte"
    
  2. Modèles installés

    • mistral:7b → Conversation, usage général
    • deepseek-coder:6.7b → Code spécialisé
  3. Utilisation

    # Conversation générale
    ollama run mistral
    
    # Code
    ollama run deepseek-coder:6.7b
    

❓ FAQ

Q: Combien de temps prend l'installation ? R: 5-10 minutes selon votre connexion internet.

Q: Puis-je utiliser Ollama sans GPU ? R: Oui, tous les modèles fonctionnent sur CPU. Le GPU accélère juste.

Q: Combien d'espace disque nécessaire ? R:

  • Modèle 3B : ~2GB
  • Modèle 7B : ~4-5GB
  • Prévoyez 10-20GB pour plusieurs modèles

Q: Puis-je installer plusieurs modèles sur 8GB ? R: Oui, mais n'utilisez qu'UN SEUL modèle à la fois.

Q: Mistral est trop lent sur 8GB, que faire ? R: Utilisez qwen2.5:3b ou llama3.2:3b à la place.

Q: Comment désinstaller Ollama ? R:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama
sudo rm -rf ~/.ollama
sudo rm /etc/systemd/system/ollama.service
sudo systemctl daemon-reload

Q: Les modèles sont-ils gratuits ? R: Oui, tous les modèles Ollama sont gratuits et open-source.

Q: Ollama fonctionne-t-il hors ligne ? R: Oui, une fois les modèles téléchargés, tout fonctionne localement.


🔗 LIENS UTILES

  • Site officiel : https://ollama.com
  • Documentation : https://github.com/ollama/ollama
  • Liste des modèles : https://ollama.com/library
  • GitHub : https://github.com/ollama/ollama

🆘 BESOIN D'AIDE ?

  1. Consultez le guide complet : GUIDE-OLLAMA-COMPLET.md
  2. Exécutez le diagnostic :
    ~/ollama-diagnostic.sh  # Si créé par configure-ollama.sh
    
  3. Vérifiez les logs :
    sudo journalctl -u ollama -n 50
    

📝 NOTES

  • 8GB RAM : Privilégiez les modèles 3B (qwen2.5:3b, llama3.2:3b)
  • 16GB RAM : Tous les modèles 7B-8B sont utilisables
  • GPU NVIDIA : Accélération automatique si drivers installés
  • Première utilisation : Le premier chargement d'un modèle peut prendre quelques secondes

Version : 1.0 Date : Décembre 2024 Testé sur : Ubuntu 22.04, 24.04


✅ CHECKLIST POST-INSTALLATION

  • [ ] Ollama installé (ollama --version)
  • [ ] Service actif (systemctl status ollama)
  • [ ] Au moins un modèle téléchargé (ollama list)
  • [ ] Modèle testé (réponse en français)
  • [ ] Scripts utilitaires créés
  • [ ] Configuration optimisée selon RAM
  • [ ] Documentation sauvegardée

Si tout est coché : FÉLICITATIONS ! Ollama est opérationnel 🎉


Pour toute question ou amélioration : consultez la documentation complète ou les scripts, je vais les publier sur ce site.

Bon coding avec Ollama ! 🚀


Voici les commandes pour créer des raccourcis clavier pour Ollama sur Ubuntu/GNOME :

🎯 Méthode via Interface Graphique

Paramètres → Clavier → Raccourcis personnalisés

Exemples de raccourcis à créer :

NomCommandeRaccourci suggéré
Lancer Ollama (Phi)gnome-terminal -- ollama run phi:latestCtrl+Alt+O
Lancer Mistralgnome-terminal -- ollama run mistral:latestCtrl+Alt+1
Lancer Mistral Smallgnome-terminal -- ollama run mistral-small:latestCtrl+Alt+2
Liste modèlesgnome-terminal -- bash -c "ollama list; read -p 'Appuyez sur Entrée...'"Ctrl+Alt+L
État Ollamagnome-terminal -- bash -c "systemctl status ollama; read -p 'Appuyez sur Entrée...'"Ctrl+Alt+S

💻 Méthode via Terminal (plus rapide)

# Créer un raccourci pour lancer Phi (Ctrl+Alt+O)
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ name 'Ollama Phi'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ command 'gnome-terminal -- ollama run phi:latest'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ binding '<Primary><Alt>o'

# Créer un raccourci pour Mistral (Ctrl+Alt+1)
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ name 'Ollama Mistral'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ command 'gnome-terminal -- ollama run mistral:latest'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ binding '<Primary><Alt>1'

# Activer tous les raccourcis créés
gsettings set org.gnome.settings-daemon.plugins.media-keys custom-keybindings "['/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/', '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/']"

📝 Script Automatique Complet

#!/bin/bash
# Sauvegarder comme ~/create-ollama-shortcuts.sh

# Liste des raccourcis
SHORTCUTS_PATH="org.gnome.settings-daemon.plugins.media-keys"

# Réinitialiser les raccourcis personnalisés
gsettings set $SHORTCUTS_PATH custom-keybindings "[]"

# Fonction pour créer un raccourci
create_shortcut() {
    local name="$1"
    local command="$2"
    local binding="$3"
    local path="/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/$name/"
    
    gsettings set $SHORTCUTS_PATH.custom-keybinding:$path name "$name"
    gsettings set $SHORTCUTS_PATH.custom-keybinding:$path command "$command"
    gsettings set $SHORTCUTS_PATH.custom-keybinding:$path binding "$binding"
}

# Créer les raccourcis
create_shortcut "ollama-phi" "gnome-terminal -- ollama run phi:latest" "<Primary><Alt>o"
create_shortcut "ollama-mistral" "gnome-terminal -- ollama run mistral:latest" "<Primary><Alt>1"
create_shortcut "ollama-mistral-small" "gnome-terminal -- ollama run mistral-small:latest" "<Primary><Alt>2"
create_shortcut "ollama-list" "gnome-terminal -- bash -c 'ollama list; read -p Entrée...'" "<Primary><Alt>l"
create_shortcut "ollama-status" "gnome-terminal -- bash -c 'systemctl status ollama; read -p Entrée...'" "<Primary><Alt>s"

# Activer tous les raccourcis
gsettings set $SHORTCUTS_PATH custom-keybindings "[
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral-small/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-list/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-status/'
]"

echo "✅ Raccourcis créés avec succès !"

Pour l'utiliser :

chmod +x ~/create-ollama-shortcuts.sh
~/create-ollama-shortcuts.sh

🎹 Raccourcis créés :

  • Ctrl+Alt+O → Lancer Phi
  • Ctrl+Alt+1 → Lancer Mistral
  • Ctrl+Alt+2 → Lancer Mistral Small
  • Ctrl+Alt+L → Voir la liste des modèles
  • Ctrl+Alt+S → Voir l'état du service

Vous pouvez les tester immédiatement après avoir exécuté le script ! 🚀


Aucun commentaire:

Enregistrer un commentaire

Merci pour ce commentaire