samedi 13 décembre 2025

Ollama sur Ubuntu.

Ollama s’installe parfaitement sur Ubuntu.

Voici les points essentiels pour t’aider rapidement.



✔️ Installation d’Ollama sur Ubuntu (officielle)

  1. Télécharger le script d’installation :

    curl -fsSL https://ollama.com/install.sh | bash
    
  2. Mettre à jour :

    ollama update
    
  3. Vérifier l’état du service :

    systemctl status ollama
    
  4. Tester avec un modèle :

    ollama run mistral
    

✔️ Pré-requis RAM & GPU

💾 RAM minimale

  • 8 Go : fonctionnement possible mais limité (petits modèles : 3B–7B)

  • 16 Go : idéal pour Mistral 7B, LLaMA 8B, Phi 3.5 Mini

  • 32 Go : recommandé pour modèles 13B et optimisation

  • 64 Go+ : pour modèles 30B et au-dessus

👉 Le modèle doit tenir dans la RAM CPU + VRAM combinées.


✔️ GPU sous Ubuntu

🎮 GPU pris en charge

  • NVIDIA (CUDA) → support officiel, le plus simple et le plus stable

  • AMD (ROCm) → expérimental, dépend des drivers

  • Intel ARC → support via iGPU + oneAPI (pas encore top pour les très gros modèles)

GPU externe (eGPU)

Oui, c’est possible avec :

  • Boîtier eGPU Thunderbolt

  • Carte NVIDIA (idéal)

  • Drivers CUDA installés sur Ubuntu
    ⚠️ Performances inférieures à un GPU interne, mais parfait pour des tests.


✔️ Exemple : installation GPU NVIDIA

sudo apt update
sudo apt install nvidia-driver-550
sudo apt install nvidia-cuda-toolkit

Puis vérifier :

nvidia-smi

💸 Prix de départ (GPU pour LLM local)

🚀 Budget "entrée de gamme" (tests)

  • NVIDIA RTX 4060 → 8 Go VRAM → 300–350€

    Suffisant pour Mistral 7B, Phi 3.5, LLaMA 8B.

⚡ Budget "confort"

  • RTX 4070 Super → 12 Go VRAM → 550–650€

    Permet Mistral/LLaMA 13B et 70 tokens/s rapides.

🔥 Budget "pro"

  • RTX 4090 → 24 Go VRAM → 1700€

    Peut gérer 34B, voire 70B quantisés.


✔️ GPU “open-source” ?

Il n'existe pas vraiment de GPU open-source (matériel).
Mais il existe des pilotes open-source :

  • Nouveau pour NVIDIA (mais inutilisable pour le LLM, pas de CUDA)

  • AMDGPU (open-source, performant pour Linux)

  • Intel ARC Drivers (open source aussi)

👉 Pour du LLM sérieux, CUDA (NVIDIA) reste obligatoire.


Voici un script Bash complet “clé en main” pour Ubuntu qui :

✅ détecte automatiquement CPU / NVIDIA / AMD

✅ installe les drivers GPU si nécessaires

✅ installe Ollama

✅ configure le service systemd

✅ teste le fonctionnement avec un modèle LLM


🧠 Script : installation Ollama sur Ubuntu (auto GPU)

Compatible Ubuntu 20.04 / 22.04 / 24.04


📄 install-ollama-ubuntu.sh

#!/usr/bin/env bash
set -e

echo "==========================================="
echo "  Installation Ollama sur Ubuntu"
echo "  Détection automatique GPU"
echo "==========================================="

# --- Vérification Ubuntu ---
if ! grep -qi ubuntu /etc/os-release; then
  echo "❌ Ce script est prévu uniquement pour Ubuntu."
  exit 1
fi

# --- Mise à jour système ---
echo "🔄 Mise à jour du système..."
sudo apt update && sudo apt upgrade -y

# --- Outils de base ---
echo "📦 Installation des dépendances..."
sudo apt install -y curl wget lsb-release pciutils software-properties-common

# --- Détection GPU ---
GPU_TYPE="CPU"

if lspci | grep -qi nvidia; then
  GPU_TYPE="NVIDIA"
elif lspci | grep -qi amd; then
  GPU_TYPE="AMD"
elif lspci | grep -qi intel; then
  GPU_TYPE="INTEL"
fi

echo "🎯 GPU détecté : $GPU_TYPE"

# --- NVIDIA ---
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "🚀 Installation driver NVIDIA + CUDA"
  sudo add-apt-repository ppa:graphics-drivers/ppa -y
  sudo apt update
  sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
  sudo systemctl reboot || true
fi

# --- AMD ---
if [ "$GPU_TYPE" = "AMD" ]; then
  echo "⚠️ AMD détecté (ROCm expérimental)"
  sudo apt install -y rocm-opencl-runtime rocm-hip-runtime || true
fi

# --- Ollama ---
echo "🤖 Installation Ollama..."
curl -fsSL https://ollama.com/install.sh | bash

# --- Activation service ---
echo "🔧 Activation du service Ollama..."
sudo systemctl enable ollama
sudo systemctl start ollama

# --- Vérification ---
echo "🧪 Vérification installation..."
ollama --version || {
  echo "❌ Ollama n'est pas correctement installé"
  exit 1
}

# --- Test modèle ---
echo "📥 Téléchargement et test du modèle Mistral..."
ollama pull mistral
ollama run mistral "Bonjour, es-tu opérationnel ?"

echo "==========================================="
echo "✅ Installation terminée avec succès"
echo "GPU utilisé : $GPU_TYPE"
echo "==========================================="


▶️ Utilisation

chmod +x install-ollama-ubuntu.sh
./install-ollama-ubuntu.sh

⚠️ Si NVIDIA est installé, un redémarrage est requis après les drivers.


🔍 Vérifications post-installation

GPU NVIDIA

nvidia-smi

Ollama

ollama list
ollama run mistral

🧩 Bonus (facultatif)

🔥 Forcer l’usage GPU

export OLLAMA_GPU_OVERHEAD=1

🌐 API locale Ollama

curl http://localhost:11434/api/tags


Parfait 👍
J’ai ajouté le support multi-modèles complet directement dans la V2 du script (mise à jour visible dans le canvas).


🧠 Modèles maintenant supportés nativement

mistral
llama3
mixtral
phi

Tu peux évidemment en ajouter d’autres très facilement (SUPPORTED_MODELS=(...)).


🎛️ Nouveaux modes d’utilisation

🔹 Installer un seul modèle précis

./Installation-Ollama-Ubuntu-V2.sh --model llama3
./Installation-Ollama-Ubuntu-V2.sh --model mixtral
./Installation-Ollama-Ubuntu-V2.sh --model phi

➡️ Le modèle choisi devient aussi celui testé en fin de script.


🔹 Installer tous les modèles supportés

./Installation-Ollama-Ubuntu-V2.sh --all-models

➡️ Télécharge successivement :

  • Mistral

  • Llama 3

  • Mixtral

  • Phi

Le test final reste fait sur le modèle par défaut (mistral), modifiable.


🔹 Aide intégrée

./Installation-Ollama-Ubuntu-V2.sh --help

Affiche désormais :

  • options CPU

  • upgrade

  • sélection modèle

  • installation complète multi-modèles


🧩 Structure interne (pour maintenance)

SUPPORTED_MODELS=( "mistral" "llama3" "mixtral" "phi" )
INSTALL_ALL_MODELS=false
SELECTED_MODEL=""

➡️ Architecture claire, extensible, idéale pour :

  • benchmarks

  • démos

  • lab IA

  • formation

  • documentation GitHub


🚀 Prochaines évolutions possibles (V3)

Pour aller encore plus loin, je peux ajouter :

  1. Sélection interactive des modèles (menu TUI)

  2. Détection RAM / VRAM → modèle conseillé

  3. Tags précis (llama3:8b, mixtral:8x7b)

  4. Benchmark automatique après installation

  5. Export config (JSON/YAML)





Aucun commentaire:

Enregistrer un commentaire

Merci pour ce commentaire