dimanche 14 décembre 2025

GUIDE - LANCER OLLAMA SANS CONSOLE

 

🎨 GUIDE - LANCER OLLAMA GRAPHIQUEMENT SANS CONSOLE.


3 Méthodes simples pour utiliser Ollama avec des boutons/icônes


🚀 MÉTHODE 1 : LANCEURS D'APPLICATIONS (RECOMMANDÉ)

Installation automatique

chmod +x create-ollama-launchers.sh
./create-ollama-launchers.sh

Ce que ça crée :

1. Icônes dans le menu Applications

  • 🤖 Ollama Manager - Menu principal pour tout gérer
  • 📥 Télécharger un modèle - Installer de nouveaux modèles
  • 📊 État du système - Voir l'état d'Ollama
  • 💬 Un lanceur par modèle - Ex: "Ollama - Mistral", "Ollama - Qwen2.5"

2. Comment les utiliser ?

Sur Ubuntu/GNOME :

  1. Appuyez sur la touche Super (touche Windows)
  2. Tapez "Ollama"
  3. Cliquez sur l'icône voulue

Sur KDE/XFCE :

  1. Ouvrez le menu Applications
  2. Cherchez "Ollama" ou allez dans Développement/Utilitaires

3. Raccourci Bureau (optionnel)

  • Le script propose de créer une icône sur le bureau
  • Double-clic pour lancer directement

🎯 MÉTHODE 2 : INTERFACE WEB (TRÈS SIMPLE)

Installer une interface Web pour Ollama

# Installation d'Open WebUI (interface graphique moderne)
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Ou sans Docker (plus simple) :

# Installation via pip
pip install open-webui
open-webui serve

Utilisation :

  1. Ouvrez votre navigateur
  2. Allez sur http://localhost:3000
  3. Interface type ChatGPT pour Ollama !

Avantages :

  • ✅ Interface moderne et belle
  • ✅ Historique des conversations
  • ✅ Gestion des modèles par clic
  • ✅ Comme ChatGPT mais local

💻 MÉTHODE 3 : RACCOURCIS CLAVIER (ULTRA-RAPIDE)

Créer un raccourci clavier global

Sur Ubuntu/GNOME :

  1. Ouvrez ParamètresClavierRaccourcis personnalisés
  2. Cliquez sur "+" pour ajouter
  3. Remplissez :
Nom: Lancer Ollama
Commande: gnome-terminal -- ollama run qwen2.5:3b
Raccourci: Ctrl+Alt+O
  1. Maintenant : Ctrl+Alt+O = Ollama se lance !

Pour chaque modèle :

  • Ctrl+Alt+1 → Mistral
  • Ctrl+Alt+2 → Qwen2.5
  • Ctrl+Alt+3 → DeepSeek
  • etc.

📱 MÉTHODE 4 : EXTENSION GNOME (Pour Ubuntu)

Installer une extension Ollama pour la barre supérieure

# Installation de l'extension manager
sudo apt install gnome-shell-extension-manager

# Ensuite :
# 1. Ouvrez "Extension Manager"
# 2. Cherchez "Ollama" ou "AI Assistant"
# 3. Installez l'extension
# 4. Une icône apparaît dans votre barre supérieure

🎨 COMPARATIF DES MÉTHODES

Méthode Facilité Visuel Idéal pour
Lanceurs ⭐⭐⭐⭐⭐ ⭐⭐⭐ Usage quotidien
Web UI ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ Préférence interface web
Raccourcis ⭐⭐⭐⭐ ⭐⭐ Power users
Extension ⭐⭐⭐ ⭐⭐⭐⭐ Ubuntu/GNOME uniquement

🔥 SOLUTION COMPLÈTE : TOUT EN UN

Créer un lanceur "Ollama Hub" personnalisé

Voici un script qui crée une interface graphique simple avec zenity (déjà installé sur Ubuntu) :

#!/bin/bash
# Sauvegarder comme ~/ollama-gui.sh

ACTION=$(zenity --list \
  --title="Ollama - Hub" \
  --text="Que voulez-vous faire ?" \
  --column="Action" \
  --height=400 \
  --width=400 \
  "Lancer Mistral" \
  "Lancer Qwen2.5" \
  "Lancer Llama3.2" \
  "Télécharger un modèle" \
  "Voir les modèles installés" \
  "État du système" \
  "Redémarrer Ollama")

case "$ACTION" in
  "Lancer Mistral")
    gnome-terminal -- ollama run mistral
    ;;
  "Lancer Qwen2.5")
    gnome-terminal -- ollama run qwen2.5:3b
    ;;
  "Lancer Llama3.2")
    gnome-terminal -- ollama run llama3.2:3b
    ;;
  "Télécharger un modèle")
    MODEL=$(zenity --entry --title="Télécharger" --text="Nom du modèle :")
    if [ -n "$MODEL" ]; then
      gnome-terminal -- bash -c "ollama pull $MODEL; read -p 'Terminé. Appuyez sur Entrée...'"
    fi
    ;;
  "Voir les modèles installés")
    LIST=$(ollama list)
    zenity --text-info --title="Modèles installés" --width=600 --height=400 <<< "$LIST"
    ;;
  "État du système")
    gnome-terminal -- bash -c "~/ollama-status.sh 2>/dev/null || (echo 'État Ollama:'; systemctl status ollama); read -p 'Appuyez sur Entrée...'"
    ;;
  "Redémarrer Ollama")
    pkexec systemctl restart ollama
    zenity --info --text="Ollama redémarré avec succès !"
    ;;
esac

Installer :

chmod +x ~/ollama-gui.sh

# Créer un lanceur pour ce script
cat > ~/.local/share/applications/ollama-hub.desktop <<EOF
[Desktop Entry]
Version=1.0
Type=Application
Name=Ollama Hub
Comment=Interface graphique pour Ollama
Exec=$HOME/ollama-gui.sh
Icon=applications-utilities
Terminal=false
Categories=Development;Utility;
EOF

chmod +x ~/.local/share/applications/ollama-hub.desktop

🎯 RECOMMANDATION FINALE

Pour 90% des utilisateurs :

Méthode 1 + Ollama Hub personnalisé

# 1. Créer les lanceurs de base
./create-ollama-launchers.sh

# 2. Installer l'Ollama Hub graphique
chmod +x ~/ollama-gui.sh
# (code ci-dessus)

# 3. Optionnel : Interface web
pip install open-webui

Résultat :

  • ✅ Icônes dans le menu Applications
  • ✅ Interface graphique avec boutons
  • ✅ Interface web style ChatGPT
  • ✅ Aucune console nécessaire !

📸 À QUOI ÇA RESSEMBLE

Lanceurs dans le menu :

Applications
  └─ Développement
      ├─ 🤖 Ollama Manager
      ├─ 💬 Ollama - Mistral
      ├─ 💬 Ollama - Qwen2.5
      ├─ 📥 Télécharger un modèle
      └─ 📊 État du système

Ollama Hub (zenity) :

╔════════════════════════════╗
║      Ollama - Hub          ║
╠════════════════════════════╣
║  Lancer Mistral            ║
║  Lancer Qwen2.5            ║
║  Télécharger un modèle     ║
║  Voir les modèles          ║
║  État du système           ║
╚════════════════════════════╝
     [OK]      [Annuler]

Open WebUI (navigateur) :

┌─────────────────────────────────────┐
│  ☰  Open WebUI           [Modèles] │
├─────────────────────────────────────┤
│                                     │
│  💬 Nouvelle conversation           │
│  📝 Historique                      │
│  ⚙️  Paramètres                     │
│                                     │
│  ┌───────────────────────────────┐ │
│  │ Entrez votre message...       │ │
│  └───────────────────────────────┘ │
└─────────────────────────────────────┘

🚀 INSTALLATION RAPIDE (TOUT EN UNE COMMANDE)

# Installation complète interface graphique
chmod +x create-ollama-launchers.sh
./create-ollama-launchers.sh

C'est tout ! Vous pouvez maintenant utiliser Ollama sans jamais ouvrir la console ! 🎉


❓ FAQ

Q: Dois-je choisir une seule méthode ? R: Non ! Vous pouvez utiliser toutes les méthodes en même temps.

Q: Quelle est la plus simple ? R: Les lanceurs d'applications (Méthode 1). Un clic et c'est parti.

Q: Et si je veux une belle interface ? R: Open WebUI (Méthode 2) est parfaite. Interface moderne type ChatGPT.

Q: Ça marche sur toutes les distributions Linux ? R: Les lanceurs marchent partout. Open WebUI aussi. Extensions GNOME = Ubuntu uniquement.

Q: Je peux personnaliser les icônes ? R: Oui ! Modifiez simplement le fichier .desktop et changez Icon=...

OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION

 

🤖 OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION.

Ollama + PHI sur Ubuntu.


📚 Documentation complète pour installer et optimiser Ollama selon votre configuration


🚀 INSTALLATION RAPIDE (3 minutes)

Étape 1 : Télécharger les scripts

Tous les scripts sont dans ce dossier projet.

Étape 2 : Rendre exécutables

chmod +x ollama-install-optimized.sh
chmod +x configure-ollama.sh

Étape 3 : Installation

# Installation complète d'Ollama
./ollama-install-optimized.sh

Le script va automatiquement :

  • ✅ Détecter votre RAM (8GB ou 16GB+)
  • ✅ Détecter votre GPU (NVIDIA, AMD, Intel, ou CPU seul)
  • ✅ Installer Ollama
  • ✅ Installer les drivers GPU si nécessaire
  • ✅ Configurer le service
  • ✅ Proposer d'installer un premier modèle

Étape 4 : Configuration optimale

# Configuration intelligente selon votre usage
./configure-ollama.sh

Le script va :

  • ✅ Analyser votre système
  • ✅ Vous demander votre usage principal (code, conversation, traduction, mixte)
  • ✅ Recommander les meilleurs modèles pour votre config
  • ✅ Installer les modèles recommandés
  • ✅ Optimiser la configuration système
  • ✅ Créer des scripts utilitaires

C'EST TOUT ! Ollama est prêt 🎉


📖 FICHIERS INCLUS

Fichier Description
ollama-install-optimized.sh 🔧 Script d'installation principal
configure-ollama.sh ⚙️ Configuration intelligente
GUIDE-OLLAMA-COMPLET.md 📘 Guide détaillé (dépannage, optimisation)
CHOIX-MODELE-RAPIDE.md 🎯 Aide au choix du modèle
README.md 📄 Ce fichier

🎯 CHOIX RAPIDE DU MODÈLE

Vous avez 8GB RAM ?

Votre usage principal est le CODE ?

ollama pull qwen2.5:3b

✅ Excellent en code, rapide, ~3GB RAM

Votre usage principal est la CONVERSATION ?

ollama pull llama3.2:3b

✅ Excellent conversationnel, bon français, ~3GB RAM

Votre usage principal est la TRADUCTION ?

ollama pull qwen2.5:3b

✅ Excellent multilingue, 29 langues, ~3GB RAM

Usage MIXTE (code + conversation + traduction) ?

ollama pull qwen2.5:3b

✅ Polyvalent, bon partout, ~3GB RAM

⚠️ IMPORTANT 8GB :

  • Installez UN SEUL modèle à la fois
  • NE PAS utiliser mistral:7b (trop lent)
  • Utilisez qwen2.5:3b à la place

Vous avez 16GB RAM ?

Configuration POLYVALENTE :

ollama pull mistral:7b
ollama pull deepseek-coder:6.7b

✅ Mistral pour tout + DeepSeek pour le code

Configuration CODE :

ollama pull deepseek-coder:6.7b
ollama pull qwen2.5-coder:7b

✅ Spécialistes code

Configuration MULTILINGUE :

ollama pull qwen2.5:7b
ollama pull aya:8b

✅ Traduction excellente

Avec GPU NVIDIA :

ollama pull llama3.1:8b
ollama pull codellama:13b

✅ Modèles puissants accélérés GPU


🔧 COMMANDES ESSENTIELLES

Utilisation de base

# Lancer une conversation
ollama run mistral

# Poser une question directe
ollama run mistral "Explique-moi Python en 3 phrases"

# Lister les modèles installés
ollama list

# Télécharger un nouveau modèle
ollama pull llama3.2:3b

# Supprimer un modèle
ollama rm nom-du-modele

# Voir les modèles en cours d'exécution
ollama ps

Gestion du service

# Démarrer Ollama
sudo systemctl start ollama

# Arrêter Ollama
sudo systemctl stop ollama

# Redémarrer Ollama
sudo systemctl restart ollama

# Voir l'état du service
systemctl status ollama

# Voir les logs
sudo journalctl -u ollama -f

Scripts utilitaires (créés par configure-ollama.sh)

# Voir l'état complet du système
~/ollama-status.sh

# Tester les performances d'un modèle
~/test-vitesse.sh mistral

# Nettoyer la RAM avant utilisation (8GB uniquement)
~/prepare-ollama.sh

🐛 DÉPANNAGE RAPIDE

Problème : Mistral bloque ou est lent sur 8GB

Solution :

# Passez à un modèle 3B plus rapide
ollama pull qwen2.5:3b
ollama run qwen2.5:3b

Problème : "Out of memory"

Solution :

# Nettoyez la RAM
sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches
killall chrome firefox

# Redémarrez Ollama
sudo systemctl restart ollama

# Utilisez un modèle plus léger
ollama pull gemma:2b

Problème : Service ne démarre pas

Solution :

# Voir les logs d'erreur
sudo journalctl -u ollama -n 50

# Vérifier le port
sudo ss -tlnp | grep 11434

# Tuer les processus et redémarrer
sudo pkill ollama
sudo systemctl restart ollama

Problème : Réponses en anglais

Solution :

# Forcez le français dans le prompt
ollama run qwen2.5:3b "Réponds en français : [votre question]"

# Ou utilisez qwen2.5 (meilleur en français)
ollama pull qwen2.5:3b

Problème : Trop lent en général

Solutions selon RAM :

8GB :

# 1. Utilisez un modèle ultra-rapide
ollama pull qwen2.5:1.5b  # ou gemma:2b

# 2. Nettoyez la RAM
~/prepare-ollama.sh  # si créé

# 3. Réduisez le contexte
ollama run qwen2.5:3b --num-ctx 2048

16GB :

# Vérifiez votre configuration
cat /etc/systemd/system/ollama.service.d/override.conf

# Devrait avoir :
# OLLAMA_NUM_PARALLEL=2
# OLLAMA_MAX_LOADED_MODELS=2

📊 COMPARATIF RAPIDE DES MODÈLES

Pour 8GB RAM (CPU)

Modèle Vitesse Qualité Usage idéal RAM
qwen2.5:1.5b ⚡⚡⚡⚡⚡ ⭐⭐⭐ Code rapide 2GB
gemma:2b ⚡⚡⚡⚡⚡ ⭐⭐⭐⭐ Conversation 2GB
llama3.2:3b ⚡⚡⚡⚡ ⭐⭐⭐⭐⭐ Conversation 3GB
qwen2.5:3b ⚡⚡⚡⚡ ⭐⭐⭐⭐⭐ Code + Mixte 3GB

Pour 16GB RAM

Modèle Qualité Usage idéal RAM
mistral:7b ⭐⭐⭐⭐⭐ Polyvalent 5-6GB
llama3.1:8b ⭐⭐⭐⭐⭐ Conversation 6GB
deepseek-coder:6.7b ⭐⭐⭐⭐⭐ Code spécialisé 5GB
qwen2.5:7b ⭐⭐⭐⭐⭐ Code + Multilingue 5GB

💡 EXEMPLES D'UTILISATION

Exemple 1 : Assistance au code

ollama run qwen2.5:3b "Écris une fonction Python pour lire un fichier CSV et le convertir en JSON"

Exemple 2 : Traduction

ollama run qwen2.5:3b "Traduis en anglais : Bonjour, comment allez-vous aujourd'hui ?"

Exemple 3 : Explication de code

cat mon_script.py | ollama run qwen2.5:3b "Explique ce code en français"

Exemple 4 : Revue de code

ollama run deepseek-coder:6.7b "Analyse ce code et suggère des améliorations : [coller votre code]"

Exemple 5 : Génération de documentation

ollama run qwen2.5:7b "Génère une documentation markdown pour cette fonction : [coller votre code]"

⚙️ OPTIMISATIONS AVANCÉES

Pour 8GB RAM

Éditer la configuration :

sudo nano /etc/systemd/system/ollama.service.d/override.conf

Configuration optimale 8GB :

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
Environment="OLLAMA_MAX_LOADED_MODELS=1"
Environment="OLLAMA_NUM_PARALLEL=1"
Environment="OLLAMA_NUM_CTX=2048"

Appliquer :

sudo systemctl daemon-reload
sudo systemctl restart ollama

Pour 16GB RAM

Configuration optimale 16GB :

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=10m"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_NUM_CTX=4096"

Avec GPU NVIDIA

Ajouter à la configuration :

Environment="OLLAMA_NUM_GPU_LAYERS=999"
Environment="CUDA_VISIBLE_DEVICES=0"

Surveiller l'utilisation GPU :

watch -n 1 nvidia-smi

📚 DOCUMENTATION COMPLÈTE

Pour aller plus loin, consultez :

  • GUIDE-OLLAMA-COMPLET.md - Guide détaillé avec :

    • Solutions aux problèmes courants
    • Optimisations avancées
    • Scripts d'automatisation
    • Comparatifs détaillés
    • Workflows recommandés
  • CHOIX-MODELE-RAPIDE.md - Aide au choix :

    • Recommandations par usage
    • Tableaux comparatifs
    • Tests de performance
    • Commandes de test

🎓 WORKFLOW RECOMMANDÉ

Configuration 8GB - Usage Code

  1. Installation

    ./ollama-install-optimized.sh
    ./configure-ollama.sh  # Choisir "Code"
    
  2. Utilisation quotidienne

    # Avant de coder
    ~/prepare-ollama.sh  # Nettoyer la RAM
    
    # Utiliser l'assistant
    ollama run qwen2.5:3b
    
  3. Exemples de prompts

    >>> Écris une fonction Python pour parser un fichier XML
    >>> Explique-moi les décorateurs en Python
    >>> Corrige ce code : [coller votre code]
    

Configuration 16GB - Usage Mixte

  1. Installation

    ./ollama-install-optimized.sh
    ./configure-ollama.sh  # Choisir "Mixte"
    
  2. Modèles installés

    • mistral:7b → Conversation, usage général
    • deepseek-coder:6.7b → Code spécialisé
  3. Utilisation

    # Conversation générale
    ollama run mistral
    
    # Code
    ollama run deepseek-coder:6.7b
    

❓ FAQ

Q: Combien de temps prend l'installation ? R: 5-10 minutes selon votre connexion internet.

Q: Puis-je utiliser Ollama sans GPU ? R: Oui, tous les modèles fonctionnent sur CPU. Le GPU accélère juste.

Q: Combien d'espace disque nécessaire ? R:

  • Modèle 3B : ~2GB
  • Modèle 7B : ~4-5GB
  • Prévoyez 10-20GB pour plusieurs modèles

Q: Puis-je installer plusieurs modèles sur 8GB ? R: Oui, mais n'utilisez qu'UN SEUL modèle à la fois.

Q: Mistral est trop lent sur 8GB, que faire ? R: Utilisez qwen2.5:3b ou llama3.2:3b à la place.

Q: Comment désinstaller Ollama ? R:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama
sudo rm -rf ~/.ollama
sudo rm /etc/systemd/system/ollama.service
sudo systemctl daemon-reload

Q: Les modèles sont-ils gratuits ? R: Oui, tous les modèles Ollama sont gratuits et open-source.

Q: Ollama fonctionne-t-il hors ligne ? R: Oui, une fois les modèles téléchargés, tout fonctionne localement.


🔗 LIENS UTILES

  • Site officiel : https://ollama.com
  • Documentation : https://github.com/ollama/ollama
  • Liste des modèles : https://ollama.com/library
  • GitHub : https://github.com/ollama/ollama

🆘 BESOIN D'AIDE ?

  1. Consultez le guide complet : GUIDE-OLLAMA-COMPLET.md
  2. Exécutez le diagnostic :
    ~/ollama-diagnostic.sh  # Si créé par configure-ollama.sh
    
  3. Vérifiez les logs :
    sudo journalctl -u ollama -n 50
    

📝 NOTES

  • 8GB RAM : Privilégiez les modèles 3B (qwen2.5:3b, llama3.2:3b)
  • 16GB RAM : Tous les modèles 7B-8B sont utilisables
  • GPU NVIDIA : Accélération automatique si drivers installés
  • Première utilisation : Le premier chargement d'un modèle peut prendre quelques secondes

Version : 1.0 Date : Décembre 2024 Testé sur : Ubuntu 22.04, 24.04


✅ CHECKLIST POST-INSTALLATION

  • [ ] Ollama installé (ollama --version)
  • [ ] Service actif (systemctl status ollama)
  • [ ] Au moins un modèle téléchargé (ollama list)
  • [ ] Modèle testé (réponse en français)
  • [ ] Scripts utilitaires créés
  • [ ] Configuration optimisée selon RAM
  • [ ] Documentation sauvegardée

Si tout est coché : FÉLICITATIONS ! Ollama est opérationnel 🎉


Pour toute question ou amélioration : consultez la documentation complète ou les scripts, je vais les publier sur ce site.

Bon coding avec Ollama ! 🚀

Installation d'Ollama et de PHI sur UBUNTU

 Installation d'Ollama et de PHI ou mieux de Mistral sur un PC avec 8 Go ou 16 Go de RAM.

Voici mes commentaires et suggestions d'amélioration pour ce script et ma documentation :

Les points forts de cette approche

  1. Détection automatique du GPU - excellent pour adapter l'installation
  2. Structure claire du script avec émojis pour faciliter la lecture
  3. Documentation complète sur les méthodes de démarrage/arrêt
  4. Puis, suggestions d'amélioration des scripts.
  5. Modèles recommandés selon la RAM
Ollama sur UBUNTU avec PHI.


La méthode pour relancer Ollama dépend de la façon dont vous l'avez arrêté, mais en général, la façon la plus simple sur Ubuntu est de le démarrer comme un service système.

Voici les deux principales méthodes pour relancer Ollama. Bien entendu cela demande des améliorations, mais ceci fonctionne.
 

1. Démarrage via systemd (Méthode Recommandée).


Si vous avez précédemment arrêté Ollama avec sudo systemctl stop ollama, ou si vous voulez qu'il fonctionne en arrière-plan comme un service, utilisez la commande suivante :

.

  • Démarrez le service Ollama :

    Bash
    sudo systemctl start ollama
    
  • Vérifiez le statut (Optionnel) :

    Pour vous assurer qu'il est bien en cours d'exécution :

    Bash
    systemctl status ollama
    

    Vous devriez voir Active: active (running).

  • Redémarrez le service (Si vous étiez en train de le modifier) :

    Si Ollama était déjà en cours d'exécution, mais que vous voulez appliquer des changements de configuration (comme des variables d'environnement), utilisez restart :

    Bash
    sudo systemctl restart ollama
    

2. Démarrage en mode manuel

Si vous préférez exécuter Ollama dans votre terminal pour voir directement les logs, ou si vous ne l'avez pas installé en tant que service systemd :

  • Exécutez la commande serve :

    Bash
    ollama serve
    

    Cette commande va lancer le serveur Ollama. Il restera actif tant que vous ne fermerez pas la fenêtre du terminal ou que vous n'appuyerez pas sur Ctrl+C.

  • Lancer en arrière-plan (Démon) :

    Si vous voulez le lancer manuellement sans bloquer votre terminal, vous pouvez ajouter & à la fin de la commande :

    Bash
    ollama serve &
    

    Vous pourrez ensuite utiliser votre terminal pour d'autres commandes. Vous devrez le tuer manuellement plus tard (par exemple avec pkill ollama) si vous voulez l'arrêter.


Astuce : Une fois qu'Ollama est démarré, vous pouvez tester sa disponibilité en exécutant un modèle :

Bash
ollama run llama3

Voici les lignes de commandes SUDO pour Ollama sur Ubuntu.


C'est MISTRAL.

Mes trois models sur Ollama.

Ollama.

Commandes pour Ollama.

Suggestions d'amélioration du script :

1. Gestion du redémarrage NVIDIA

bash
# Au lieu de forcer un reboot immédiat :
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "🚀 Installation driver NVIDIA + CUDA"
  sudo add-apt-repository ppa:graphics-drivers/ppa -y
  sudo apt update
  sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
  
  echo "⚠️  Un redémarrage est nécessaire pour activer les drivers NVIDIA"
  echo "Appuyez sur [Entrée] pour redémarrer maintenant, ou Ctrl+C pour le faire plus tard"
  read
  sudo reboot
fi

2. Vérification préalable d'Ollama

bash
# Avant l'installation, vérifier si déjà installé
if command -v ollama &> /dev/null; then
  echo "⚠️  Ollama est déjà installé (version $(ollama --version))"
  echo "Voulez-vous réinstaller ? [o/N]"
  read -r response
  if [[ ! "$response" =~ ^[Oo]$ ]]; then
    exit 0
  fi
fi

3. Test plus robuste après installation

bash
# Au lieu de juste tester Mistral, proposer un choix
echo "📥 Modèles suggérés selon votre RAM :"
total_ram=$(free -g | awk '/^Mem:/{print $2}')

if [ "$total_ram" -ge 16 ]; then
  echo "  - mistral (7B) - Recommandé"
  echo "  - llama3.2 (3B) - Plus rapide"
else
  echo "  - phi (2.7B) - Recommandé pour 8GB RAM"
  echo "  - llama3.2 (3B)"
fi

echo "Entrez le nom du modèle à télécharger [mistral] :"
read -r model_choice
model_choice=${model_choice:-mistral}

ollama pull "$model_choice"
ollama run "$model_choice" "Bonjour, peux-tu te présenter en français ?"

4. Gestion des logs

bash
# Ajouter une fonction pour vérifier les logs en cas de problème
echo "📝 Pour consulter les logs d'Ollama :"
echo "   sudo journalctl -u ollama -f"
echo ""
echo "📊 Pour vérifier l'utilisation GPU :"
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "   watch -n 1 nvidia-smi"
fi

5. Configuration de la mémoire

bash
# Créer un fichier de configuration pour optimiser selon la RAM
sudo mkdir -p /etc/systemd/system/ollama.service.d/
cat <<EOF | sudo tee /etc/systemd/system/ollama.service.d/override.conf
[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
EOF

sudo systemctl daemon-reload

Suggestions pour la documentation

Ajouter une section dépannage

markdown
## Dépannage

### Ollama ne démarre pas
```bash
# Vérifier les logs
sudo journalctl -u ollama -n 50

# Vérifier le port
sudo netstat -tlnp | grep 11434
```

### Modèle trop lent
- Pour 8GB RAM : utilisez phi, gemma:2b, ou llama3.2:1b
- Pour 16GB RAM : mistral, llama3.2, phi3
- Arrêtez les autres applications gourmandes en RAM

### Erreur "out of memory"
```bash
# Limiter le nombre de couches GPU
OLLAMA_NUM_GPU_LAYERS=20 ollama run mistral
```

Script de test rapide

Créez un fichier test-ollama.sh :

bash
#!/bin/bash
echo "🧪 Test d'Ollama..."

# Vérifier le service
if systemctl is-active --quiet ollama; then
  echo "✅ Service actif"
else
  echo "❌ Service inactif - Démarrage..."
  sudo systemctl start ollama
  sleep 3
fi

# Lister les modèles
echo -e "\n📦 Modèles installés :"
ollama list

# Test de performance
echo -e "\n⚡ Test de vitesse :"
time ollama run phi "Compte de 1 à 10" --verbose

Modèles recommandés selon la RAM

Pour 8 GB RAM :

  • phi (2.7B) - Équilibré
  • gemma:2b - Très rapide
  • qwen2.5:3b - Bon en code

Pour 16 GB RAM :

  • mistral (7B) - Excellent polyvalent
  • llama3.2 (3B) - Rapide et performant
  • deepseek-coder:6.7b - Spécialisé code

                  OLLAMA - AIDE-MÉMOIRE RAPIDE                    


 🚀 INSTALLATION (PREMIÈRE FOIS)                                   


  1. Installation d'Ollama

     $ chmod +x ollama-install-optimized.sh

     $ ./ollama-install-optimized.sh


  2. Configuration optimale

     $ chmod +x configure-ollama.sh

     $ ./configure-ollama.sh


 💻 UTILISATION QUOTIDIENNE                                         

  Lancer une conversation

  $ ollama run mistral


  Question rapide

  $ ollama run qwen2.5:3b "Explique-moi les listes en Python"


  Utiliser un fichier

  $ cat script.py | ollama run qwen2.5:3b "Explique ce code"


  📦 GESTION DES MODÈLES                                             

  Lister les modèles installés

  $ ollama list


  Télécharger un modèle

  $ ollama pull llama3.2:3b


  Supprimer un modèle

  $ ollama rm nom-du-modele


  Voir les modèles actifs

  $ ollama ps


 🔧 SERVICE OLLAMA                                                   


  Démarrer

  $ sudo systemctl start ollama


  Arrêter

  $ sudo systemctl stop ollama


  Redémarrer

  $ sudo systemctl restart ollama


  Voir l'état

  $ systemctl status ollama


  Voir les logs

  $ sudo journalctl -u ollama -f


 🛠️ SCRIPTS UTILITAIRES                                             


  État complet du système

  $ ~/ollama-status.sh


  Test de performance

  $ ~/test-vitesse.sh mistral


  Nettoyer la RAM (8GB seulement)

  $ ~/prepare-ollama.sh


🎯 MODÈLES RECOMMANDÉS                                             

  8GB RAM - Code

  $ ollama pull qwen2.5:3b


  8GB RAM - Conversation

  $ ollama pull llama3.2:3b


  8GB RAM - Ultra-rapide

  $ ollama pull gemma:2b


  16GB RAM - Polyvalent

  $ ollama pull mistral:7b


  16GB RAM - Code spécialisé

  $ ollama pull deepseek-coder:6.7b


  16GB RAM - Multilingue

  $ ollama pull qwen2.5:7b


🐛 DÉPANNAGE RAPIDE                                             


  Modèle trop lent (8GB) ?

  → Utilisez qwen2.5:3b ou gemma:2b au lieu de mistral:7b


  Out of memory ?

  → sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches

  → sudo systemctl restart ollama


  Service ne démarre pas ?

  → sudo journalctl -u ollama -n 50

  → sudo pkill ollama

  → sudo systemctl restart ollama


  Réponses en anglais ?

  → Utilisez qwen2.5:3b (meilleur en français)

  → Forcez : "Réponds en français : [question]"


 💡 ASTUCES                                                      


  Réduire l'utilisation RAM

  $ ollama run mistral --num-ctx 2048


  Mode verbeux (voir les stats)

  $ ollama run mistral --verbose "Test"


  Sauvegarder une réponse

  $ ollama run mistral "Question" > reponse.txt


  Utiliser le GPU (si NVIDIA)

  → Automatique, surveillez avec : watch -n 1 nvidia-smi


  Forcer CPU uniquement

  $ OLLAMA_NUM_GPU_LAYERS=0 ollama run mistral

  

📚 DOCUMENTATION                                                    │


  README.md                                      → Guide complet d'installation

  GUIDE-OLLAMA-COMPLET.md    → Dépannage et optimisations

  CHOIX-MODELE-RAPIDE.md         → Aide au choix du modèle


 🔗 LIENS UTILES                                                   


  Site officiel    : https://ollama.com

  Liste modèles    : https://ollama.com/library

  GitHub           : https://github.com/ollama/ollama


 💾 RAPPEL RAM                                                       

 8GB  → Modèles 3B uniquement (qwen2.5:3b, llama3.2:3b, gemma:2b)   

16GB → Modèles 7B-8B utilisables (mistral, deepseek-coder, etc.)   


  ⚠️ RÈGLE D'OR 8GB                                                  

 • UN SEUL modèle actif à la fois                                   

• NE PAS utiliser mistral:7b (trop lent)                           

 • Fermez les applications gourmandes avant utilisation