Ollama s’installe parfaitement sur Ubuntu.
Voici les points essentiels pour t’aider rapidement.
✔️ Installation d’Ollama sur Ubuntu (officielle)
Télécharger le script d’installation :
curl -fsSL https://ollama.com/install.sh | bashMettre à jour :
ollama updateVérifier l’état du service :
systemctl status ollamaTester avec un modèle :
ollama run mistral
✔️ Pré-requis RAM & GPU
💾 RAM minimale
8 Go : fonctionnement possible mais limité (petits modèles : 3B–7B)
16 Go : idéal pour Mistral 7B, LLaMA 8B, Phi 3.5 Mini
32 Go : recommandé pour modèles 13B et optimisation
64 Go+ : pour modèles 30B et au-dessus
👉 Le modèle doit tenir dans la RAM CPU + VRAM combinées.
✔️ GPU sous Ubuntu
🎮 GPU pris en charge
NVIDIA (CUDA) → support officiel, le plus simple et le plus stable
AMD (ROCm) → expérimental, dépend des drivers
Intel ARC → support via iGPU + oneAPI (pas encore top pour les très gros modèles)
❓ GPU externe (eGPU)
Oui, c’est possible avec :
Boîtier eGPU Thunderbolt
Carte NVIDIA (idéal)
Drivers CUDA installés sur Ubuntu
⚠️ Performances inférieures à un GPU interne, mais parfait pour des tests.
✔️ Exemple : installation GPU NVIDIA
sudo apt update
sudo apt install nvidia-driver-550
sudo apt install nvidia-cuda-toolkit
Puis vérifier :
nvidia-smi
💸 Prix de départ (GPU pour LLM local)
🚀 Budget "entrée de gamme" (tests)
NVIDIA RTX 4060 → 8 Go VRAM → 300–350€
Suffisant pour Mistral 7B, Phi 3.5, LLaMA 8B.
⚡ Budget "confort"
RTX 4070 Super → 12 Go VRAM → 550–650€
Permet Mistral/LLaMA 13B et 70 tokens/s rapides.
🔥 Budget "pro"
RTX 4090 → 24 Go VRAM → 1700€
Peut gérer 34B, voire 70B quantisés.
✔️ GPU “open-source” ?
Il n'existe pas vraiment de GPU open-source (matériel).
Mais il existe des pilotes open-source :
Nouveau pour NVIDIA (mais inutilisable pour le LLM, pas de CUDA)
AMDGPU (open-source, performant pour Linux)
Intel ARC Drivers (open source aussi)
👉 Pour du LLM sérieux, CUDA (NVIDIA) reste obligatoire.
Voici un script Bash complet “clé en main” pour Ubuntu qui :
✅ détecte automatiquement CPU / NVIDIA / AMD
✅ installe les drivers GPU si nécessaires
✅ installe Ollama
✅ configure le service systemd
✅ teste le fonctionnement avec un modèle LLM
🧠 Script : installation Ollama sur Ubuntu (auto GPU)
Compatible Ubuntu 20.04 / 22.04 / 24.04
📄 install-ollama-ubuntu.sh
#!/usr/bin/env bash
set -e
echo "==========================================="
echo " Installation Ollama sur Ubuntu"
echo " Détection automatique GPU"
echo "==========================================="
# --- Vérification Ubuntu ---
if ! grep -qi ubuntu /etc/os-release; then
echo "❌ Ce script est prévu uniquement pour Ubuntu."
exit 1
fi
# --- Mise à jour système ---
echo "🔄 Mise à jour du système..."
sudo apt update && sudo apt upgrade -y
# --- Outils de base ---
echo "📦 Installation des dépendances..."
sudo apt install -y curl wget lsb-release pciutils software-properties-common
# --- Détection GPU ---
GPU_TYPE="CPU"
if lspci | grep -qi nvidia; then
GPU_TYPE="NVIDIA"
elif lspci | grep -qi amd; then
GPU_TYPE="AMD"
elif lspci | grep -qi intel; then
GPU_TYPE="INTEL"
fi
echo "🎯 GPU détecté : $GPU_TYPE"
# --- NVIDIA ---
if [ "$GPU_TYPE" = "NVIDIA" ]; then
echo "🚀 Installation driver NVIDIA + CUDA"
sudo add-apt-repository ppa:graphics-drivers/ppa -y
sudo apt update
sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
sudo systemctl reboot || true
fi
# --- AMD ---
if [ "$GPU_TYPE" = "AMD" ]; then
echo "⚠️ AMD détecté (ROCm expérimental)"
sudo apt install -y rocm-opencl-runtime rocm-hip-runtime || true
fi
# --- Ollama ---
echo "🤖 Installation Ollama..."
curl -fsSL https://ollama.com/install.sh | bash
# --- Activation service ---
echo "🔧 Activation du service Ollama..."
sudo systemctl enable ollama
sudo systemctl start ollama
# --- Vérification ---
echo "🧪 Vérification installation..."
ollama --version || {
echo "❌ Ollama n'est pas correctement installé"
exit 1
}
# --- Test modèle ---
echo "📥 Téléchargement et test du modèle Mistral..."
ollama pull mistral
ollama run mistral "Bonjour, es-tu opérationnel ?"
echo "==========================================="
echo "✅ Installation terminée avec succès"
echo "GPU utilisé : $GPU_TYPE"
echo "==========================================="
▶️ Utilisation
chmod +x install-ollama-ubuntu.sh
./install-ollama-ubuntu.sh
⚠️ Si NVIDIA est installé, un redémarrage est requis après les drivers.
🔍 Vérifications post-installation
GPU NVIDIA
nvidia-smi
Ollama
ollama list
ollama run mistral
🧩 Bonus (facultatif)
🔥 Forcer l’usage GPU
export OLLAMA_GPU_OVERHEAD=1
🌐 API locale Ollama
curl http://localhost:11434/api/tags
Parfait 👍
J’ai ajouté le support multi-modèles complet directement dans la V2 du script (mise à jour visible dans le canvas).
🧠 Modèles maintenant supportés nativement
mistral
llama3
mixtral
phi
Tu peux évidemment en ajouter d’autres très facilement (SUPPORTED_MODELS=(...)).
🎛️ Nouveaux modes d’utilisation
🔹 Installer un seul modèle précis
./Installation-Ollama-Ubuntu-V2.sh --model llama3
./Installation-Ollama-Ubuntu-V2.sh --model mixtral
./Installation-Ollama-Ubuntu-V2.sh --model phi
➡️ Le modèle choisi devient aussi celui testé en fin de script.
🔹 Installer tous les modèles supportés
./Installation-Ollama-Ubuntu-V2.sh --all-models
➡️ Télécharge successivement :
Mistral
Llama 3
Mixtral
Phi
Le test final reste fait sur le modèle par défaut (mistral), modifiable.
🔹 Aide intégrée
./Installation-Ollama-Ubuntu-V2.sh --help
Affiche désormais :
options CPU
upgrade
sélection modèle
installation complète multi-modèles
🧩 Structure interne (pour maintenance)
SUPPORTED_MODELS=( "mistral" "llama3" "mixtral" "phi" )
INSTALL_ALL_MODELS=false
SELECTED_MODEL=""
➡️ Architecture claire, extensible, idéale pour :
benchmarks
démos
lab IA
formation
documentation GitHub
🚀 Prochaines évolutions possibles (V3)
Pour aller encore plus loin, je peux ajouter :
✅ Sélection interactive des modèles (menu TUI)
✅ Détection RAM / VRAM → modèle conseillé
✅ Tags précis (
llama3:8b,mixtral:8x7b)✅ Benchmark automatique après installation
✅ Export config (JSON/YAML)

Aucun commentaire:
Enregistrer un commentaire
Merci pour ce commentaire