samedi 13 décembre 2025

Ollama sur Ubuntu.

Ollama s’installe parfaitement sur Ubuntu.

Voici les points essentiels pour t’aider rapidement. Je dispose de deux ordinateurs l'un pour Ubuntu et l'autre pour Windows 11.



✔️ Installation d’Ollama sur Ubuntu (officielle)

  1. Télécharger le script d’installation :

    curl -fsSL https://ollama.com/install.sh | bash
    
  2. Mettre à jour :

    ollama update
    
  3. Vérifier l’état du service :

    systemctl status ollama
    
  4. Tester avec un modèle :

    ollama run mistral
    

✔️ Pré-requis RAM & GPU

💾 RAM minimale

  • 8 Go : fonctionnement possible mais limité (petits modèles : 3B–7B)

  • 16 Go : idéal pour Mistral 7B, LLaMA 8B, Phi 3.5 Mini

  • 32 Go : recommandé pour modèles 13B et optimisation

  • 64 Go+ : pour modèles 30B et au-dessus

👉 Le modèle doit tenir dans la RAM CPU + VRAM combinées.


✔️ GPU sous Ubuntu

🎮 GPU pris en charge

  • NVIDIA (CUDA) → support officiel, le plus simple et le plus stable

  • AMD (ROCm) → expérimental, dépend des drivers

  • Intel ARC → support via iGPU + oneAPI (pas encore top pour les très gros modèles)

GPU externe (eGPU)

Oui, c’est possible avec :

  • Boîtier eGPU Thunderbolt

  • Carte NVIDIA (idéal)

  • Drivers CUDA installés sur Ubuntu
    ⚠️ Performances inférieures à un GPU interne, mais parfait pour des tests.


✔️ Exemple : installation GPU NVIDIA

sudo apt update
sudo apt install nvidia-driver-550
sudo apt install nvidia-cuda-toolkit

Puis vérifier :

nvidia-smi

💸 Prix de départ (GPU pour LLM local)

🚀 Budget "entrée de gamme" (tests)

  • NVIDIA RTX 4060 → 8 Go VRAM → 300–350€

    Suffisant pour Mistral 7B, Phi 3.5, LLaMA 8B.

⚡ Budget "confort"

  • RTX 4070 Super → 12 Go VRAM → 550–650€

    Permet Mistral/LLaMA 13B et 70 tokens/s rapides.

🔥 Budget "pro"

  • RTX 4090 → 24 Go VRAM → 1700€

    Peut gérer 34B, voire 70B quantisés.


✔️ GPU “open-source” ?

Il n'existe pas vraiment de GPU open-source (matériel).
Mais il existe des pilotes open-source :

  • Nouveau pour NVIDIA (mais inutilisable pour le LLM, pas de CUDA)

  • AMDGPU (open-source, performant pour Linux)

  • Intel ARC Drivers (open source aussi)

👉 Pour du LLM sérieux, CUDA (NVIDIA) reste obligatoire.


Voici un script Bash complet “clé en main” pour Ubuntu qui :

✅ détecte automatiquement CPU / NVIDIA / AMD

✅ installe les drivers GPU si nécessaires

✅ installe Ollama

✅ configure le service systemd

✅ teste le fonctionnement avec un modèle LLM


🧠 Script : installation Ollama sur Ubuntu (auto GPU)

Compatible Ubuntu 20.04 / 22.04 / 24.04


📄 install-ollama-ubuntu.sh

#!/usr/bin/env bash
set -e

echo "==========================================="
echo "  Installation Ollama sur Ubuntu"
echo "  Détection automatique GPU"
echo "==========================================="

# --- Vérification Ubuntu ---
if ! grep -qi ubuntu /etc/os-release; then
  echo "❌ Ce script est prévu uniquement pour Ubuntu."
  exit 1
fi

# --- Mise à jour système ---
echo "🔄 Mise à jour du système..."
sudo apt update && sudo apt upgrade -y

# --- Outils de base ---
echo "📦 Installation des dépendances..."
sudo apt install -y curl wget lsb-release pciutils software-properties-common

# --- Détection GPU ---
GPU_TYPE="CPU"

if lspci | grep -qi nvidia; then
  GPU_TYPE="NVIDIA"
elif lspci | grep -qi amd; then
  GPU_TYPE="AMD"
elif lspci | grep -qi intel; then
  GPU_TYPE="INTEL"
fi

echo "🎯 GPU détecté : $GPU_TYPE"

# --- NVIDIA ---
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "🚀 Installation driver NVIDIA + CUDA"
  sudo add-apt-repository ppa:graphics-drivers/ppa -y
  sudo apt update
  sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
  sudo systemctl reboot || true
fi

# --- AMD ---
if [ "$GPU_TYPE" = "AMD" ]; then
  echo "⚠️ AMD détecté (ROCm expérimental)"
  sudo apt install -y rocm-opencl-runtime rocm-hip-runtime || true
fi

# --- Ollama ---
echo "🤖 Installation Ollama..."
curl -fsSL https://ollama.com/install.sh | bash

# --- Activation service ---
echo "🔧 Activation du service Ollama..."
sudo systemctl enable ollama
sudo systemctl start ollama

# --- Vérification ---
echo "🧪 Vérification installation..."
ollama --version || {
  echo "❌ Ollama n'est pas correctement installé"
  exit 1
}

# --- Test modèle ---
echo "📥 Téléchargement et test du modèle Mistral..."
ollama pull mistral
ollama run mistral "Bonjour, es-tu opérationnel ?"

echo "==========================================="
echo "✅ Installation terminée avec succès"
echo "GPU utilisé : $GPU_TYPE"
echo "==========================================="


▶️ Utilisation

chmod +x install-ollama-ubuntu.sh
./install-ollama-ubuntu.sh

⚠️ Si NVIDIA est installé, un redémarrage est requis après les drivers.


🔍 Vérifications post-installation

GPU NVIDIA

nvidia-smi

Ollama

ollama list
ollama run mistral

🧩 Bonus (facultatif)

🔥 Forcer l’usage GPU

export OLLAMA_GPU_OVERHEAD=1

🌐 API locale Ollama

curl http://localhost:11434/api/tags


Parfait 👍
J’ai ajouté le support multi-modèles complet directement dans la V2 du script (mise à jour visible dans le canvas).


🧠 Modèles maintenant supportés nativement

mistral
llama3
mixtral
phi

Tu peux évidemment en ajouter d’autres très facilement (SUPPORTED_MODELS=(...)).


🎛️ Nouveaux modes d’utilisation

🔹 Installer un seul modèle précis

./Installation-Ollama-Ubuntu-V2.sh --model llama3
./Installation-Ollama-Ubuntu-V2.sh --model mixtral
./Installation-Ollama-Ubuntu-V2.sh --model phi

➡️ Le modèle choisi devient aussi celui testé en fin de script.


🔹 Installer tous les modèles supportés

./Installation-Ollama-Ubuntu-V2.sh --all-models

➡️ Télécharge successivement :

  • Mistral

  • Llama 3

  • Mixtral

  • Phi

Le test final reste fait sur le modèle par défaut (mistral), modifiable.


🔹 Aide intégrée

./Installation-Ollama-Ubuntu-V2.sh --help

Affiche désormais :

  • options CPU

  • upgrade

  • sélection modèle

  • installation complète multi-modèles


🧩 Structure interne (pour maintenance)

SUPPORTED_MODELS=( "mistral" "llama3" "mixtral" "phi" )
INSTALL_ALL_MODELS=false
SELECTED_MODEL=""

➡️ Architecture claire, extensible, idéale pour :

  • benchmarks

  • démos

  • lab IA

  • formation

  • documentation GitHub


🚀 Prochaines évolutions possibles (V3)

Pour aller encore plus loin, je peux ajouter :

  1. Sélection interactive des modèles (menu TUI)

  2. Détection RAM / VRAM → modèle conseillé

  3. Tags précis (llama3:8b, mixtral:8x7b)

  4. Benchmark automatique après installation

  5. Export config (JSON/YAML)

GOUVERNANCES.: 🛡️ PRAN - Plan de Reprise d'Activité Numérique.




Aucun commentaire:

Enregistrer un commentaire

Merci pour ce commentaire