12/14/2025

Installation d'Ollama et de PHI sur UBUNTU

 Installation d'Ollama et de PHI ou mieux de Mistral sur un PC avec 8 Go ou 16 Go de RAM.

Voici mes commentaires et suggestions d'amélioration pour ce script et ma documentation :

Les points forts de cette approche

  1. Détection automatique du GPU - excellent pour adapter l'installation
  2. Structure claire du script avec émojis pour faciliter la lecture
  3. Documentation complète sur les méthodes de démarrage/arrêt
  4. Puis, suggestions d'amélioration des scripts.
  5. Modèles recommandés selon la RAM
Ollama sur UBUNTU avec PHI.


La méthode pour relancer Ollama dépend de la façon dont vous l'avez arrêté, mais en général, la façon la plus simple sur Ubuntu est de le démarrer comme un service système.

Je dispose de deux ordinateurs l'un pour Ubuntu et l'autre pour Windows 11.

Voici les deux principales méthodes pour relancer Ollama. Bien entendu cela demande des améliorations, mais ceci fonctionne.
 

1. Démarrage via systemd (Méthode Recommandée).


Si vous avez précédemment arrêté Ollama avec sudo systemctl stop ollama, ou si vous voulez qu'il fonctionne en arrière-plan comme un service, utilisez la commande suivante :

.

  • Démarrez le service Ollama :

    Bash
    sudo systemctl start ollama
    
  • Vérifiez le statut (Optionnel) :

    Pour vous assurer qu'il est bien en cours d'exécution :

    Bash
    systemctl status ollama
    

    Vous devriez voir Active: active (running).

  • Redémarrez le service (Si vous étiez en train de le modifier) :

    Si Ollama était déjà en cours d'exécution, mais que vous voulez appliquer des changements de configuration (comme des variables d'environnement), utilisez restart :

    Bash
    sudo systemctl restart ollama
    

2. Démarrage en mode manuel

Si vous préférez exécuter Ollama dans votre terminal pour voir directement les logs, ou si vous ne l'avez pas installé en tant que service systemd :

  • Exécutez la commande serve :

    Bash
    ollama serve
    

    Cette commande va lancer le serveur Ollama. Il restera actif tant que vous ne fermerez pas la fenêtre du terminal ou que vous n'appuyerez pas sur Ctrl+C.

  • Lancer en arrière-plan (Démon) :

    Si vous voulez le lancer manuellement sans bloquer votre terminal, vous pouvez ajouter & à la fin de la commande :

    Bash
    ollama serve &
    

    Vous pourrez ensuite utiliser votre terminal pour d'autres commandes. Vous devrez le tuer manuellement plus tard (par exemple avec pkill ollama) si vous voulez l'arrêter.


Astuce : Une fois qu'Ollama est démarré, vous pouvez tester sa disponibilité en exécutant un modèle :

Bash
ollama run llama3

Voici les lignes de commandes SUDO pour Ollama sur Ubuntu.


C'est MISTRAL.

Mes trois models sur Ollama.

Ollama.

Commandes pour Ollama.

Suggestions d'amélioration du script :

1. Gestion du redémarrage NVIDIA

bash
# Au lieu de forcer un reboot immédiat :
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "🚀 Installation driver NVIDIA + CUDA"
  sudo add-apt-repository ppa:graphics-drivers/ppa -y
  sudo apt update
  sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
  
  echo "⚠️  Un redémarrage est nécessaire pour activer les drivers NVIDIA"
  echo "Appuyez sur [Entrée] pour redémarrer maintenant, ou Ctrl+C pour le faire plus tard"
  read
  sudo reboot
fi

2. Vérification préalable d'Ollama

bash
# Avant l'installation, vérifier si déjà installé
if command -v ollama &> /dev/null; then
  echo "⚠️  Ollama est déjà installé (version $(ollama --version))"
  echo "Voulez-vous réinstaller ? [o/N]"
  read -r response
  if [[ ! "$response" =~ ^[Oo]$ ]]; then
    exit 0
  fi
fi

3. Test plus robuste après installation

bash
# Au lieu de juste tester Mistral, proposer un choix
echo "📥 Modèles suggérés selon votre RAM :"
total_ram=$(free -g | awk '/^Mem:/{print $2}')

if [ "$total_ram" -ge 16 ]; then
  echo "  - mistral (7B) - Recommandé"
  echo "  - llama3.2 (3B) - Plus rapide"
else
  echo "  - phi (2.7B) - Recommandé pour 8GB RAM"
  echo "  - llama3.2 (3B)"
fi

echo "Entrez le nom du modèle à télécharger [mistral] :"
read -r model_choice
model_choice=${model_choice:-mistral}

ollama pull "$model_choice"
ollama run "$model_choice" "Bonjour, peux-tu te présenter en français ?"

4. Gestion des logs

bash
# Ajouter une fonction pour vérifier les logs en cas de problème
echo "📝 Pour consulter les logs d'Ollama :"
echo "   sudo journalctl -u ollama -f"
echo ""
echo "📊 Pour vérifier l'utilisation GPU :"
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "   watch -n 1 nvidia-smi"
fi

5. Configuration de la mémoire

bash
# Créer un fichier de configuration pour optimiser selon la RAM
sudo mkdir -p /etc/systemd/system/ollama.service.d/
cat <<EOF | sudo tee /etc/systemd/system/ollama.service.d/override.conf
[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
EOF

sudo systemctl daemon-reload

Suggestions pour la documentation

Ajouter une section dépannage

markdown
## Dépannage

### Ollama ne démarre pas
```bash
# Vérifier les logs
sudo journalctl -u ollama -n 50

# Vérifier le port
sudo netstat -tlnp | grep 11434
```

### Modèle trop lent
- Pour 8GB RAM : utilisez phi, gemma:2b, ou llama3.2:1b
- Pour 16GB RAM : mistral, llama3.2, phi3
- Arrêtez les autres applications gourmandes en RAM

### Erreur "out of memory"
```bash
# Limiter le nombre de couches GPU
OLLAMA_NUM_GPU_LAYERS=20 ollama run mistral
```

Script de test rapide

Créez un fichier test-ollama.sh :

bash
#!/bin/bash
echo "🧪 Test d'Ollama..."

# Vérifier le service
if systemctl is-active --quiet ollama; then
  echo "✅ Service actif"
else
  echo "❌ Service inactif - Démarrage..."
  sudo systemctl start ollama
  sleep 3
fi

# Lister les modèles
echo -e "\n📦 Modèles installés :"
ollama list

# Test de performance
echo -e "\n⚡ Test de vitesse :"
time ollama run phi "Compte de 1 à 10" --verbose

Modèles recommandés selon la RAM

Pour 8 GB RAM :

  • phi (2.7B) - Équilibré
  • gemma:2b - Très rapide
  • qwen2.5:3b - Bon en code

Pour 16 GB RAM :

  • mistral (7B) - Excellent polyvalent
  • llama3.2 (3B) - Rapide et performant
  • deepseek-coder:6.7b - Spécialisé code

                  OLLAMA - AIDE-MÉMOIRE RAPIDE                    


 🚀 INSTALLATION (PREMIÈRE FOIS)                                   


  1. Installation d'Ollama

     $ chmod +x ollama-install-optimized.sh

     $ ./ollama-install-optimized.sh


  2. Configuration optimale

     $ chmod +x configure-ollama.sh

     $ ./configure-ollama.sh


 💻 UTILISATION QUOTIDIENNE                                         

  Lancer une conversation

  $ ollama run mistral


  Question rapide

  $ ollama run qwen2.5:3b "Explique-moi les listes en Python"


  Utiliser un fichier

  $ cat script.py | ollama run qwen2.5:3b "Explique ce code"


  📦 GESTION DES MODÈLES                                             

  Lister les modèles installés

  $ ollama list


  Télécharger un modèle

  $ ollama pull llama3.2:3b


  Supprimer un modèle

  $ ollama rm nom-du-modele


  Voir les modèles actifs

  $ ollama ps


 🔧 SERVICE OLLAMA                                                   


  Démarrer

  $ sudo systemctl start ollama


  Arrêter

  $ sudo systemctl stop ollama


  Redémarrer

  $ sudo systemctl restart ollama


  Voir l'état

  $ systemctl status ollama


  Voir les logs

  $ sudo journalctl -u ollama -f


 🛠️ SCRIPTS UTILITAIRES                                             


  État complet du système

  $ ~/ollama-status.sh


  Test de performance

  $ ~/test-vitesse.sh mistral


  Nettoyer la RAM (8GB seulement)

  $ ~/prepare-ollama.sh


🎯 MODÈLES RECOMMANDÉS                                             

  8GB RAM - Code

  $ ollama pull qwen2.5:3b


  8GB RAM - Conversation

  $ ollama pull llama3.2:3b


  8GB RAM - Ultra-rapide

  $ ollama pull gemma:2b


  16GB RAM - Polyvalent

  $ ollama pull mistral:7b


  16GB RAM - Code spécialisé

  $ ollama pull deepseek-coder:6.7b


  16GB RAM - Multilingue

  $ ollama pull qwen2.5:7b


🐛 DÉPANNAGE RAPIDE                                             


  Modèle trop lent (8GB) ?

  → Utilisez qwen2.5:3b ou gemma:2b au lieu de mistral:7b


  Out of memory ?

  → sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches

  → sudo systemctl restart ollama


  Service ne démarre pas ?

  → sudo journalctl -u ollama -n 50

  → sudo pkill ollama

  → sudo systemctl restart ollama


  Réponses en anglais ?

  → Utilisez qwen2.5:3b (meilleur en français)

  → Forcez : "Réponds en français : [question]"


 💡 ASTUCES                                                      


  Réduire l'utilisation RAM

  $ ollama run mistral --num-ctx 2048


  Mode verbeux (voir les stats)

  $ ollama run mistral --verbose "Test"


  Sauvegarder une réponse

  $ ollama run mistral "Question" > reponse.txt


  Utiliser le GPU (si NVIDIA)

  → Automatique, surveillez avec : watch -n 1 nvidia-smi


  Forcer CPU uniquement

  $ OLLAMA_NUM_GPU_LAYERS=0 ollama run mistral

  

📚 DOCUMENTATION                                                    │


  README.md                                      → Guide complet d'installation

  GUIDE-OLLAMA-COMPLET.md    → Dépannage et optimisations

  CHOIX-MODELE-RAPIDE.md         → Aide au choix du modèle


 🔗 LIENS UTILES                                                   


  Site officiel    : https://ollama.com

  Liste modèles    : https://ollama.com/library

  GitHub           : https://github.com/ollama/ollama


 💾 RAPPEL RAM                                                       

 8GB  → Modèles 3B uniquement (qwen2.5:3b, llama3.2:3b, gemma:2b)   

16GB → Modèles 7B-8B utilisables (mistral, deepseek-coder, etc.)   


  ⚠️ RÈGLE D'OR 8GB                                                  

 • UN SEUL modèle actif à la fois                                   

• NE PAS utiliser mistral:7b (trop lent)                           

 • Fermez les applications gourmandes avant utilisation