Affichage des articles dont le libellé est installation. Afficher tous les articles
Affichage des articles dont le libellé est installation. Afficher tous les articles

12/14/2025

OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION

 

🤖 OLLAMA SUR UBUNTU - GUIDE COMPLET D'INSTALLATION.

Ollama + PHI sur Ubuntu.

Je dispose de deux ordinateurs l'un pour Ubuntu et l'autre pour Windows 11.

📚 Documentation complète pour installer et optimiser Ollama selon votre configuration


🚀 INSTALLATION RAPIDE (3 minutes)

Étape 1 : Télécharger les scripts

Tous les scripts sont dans ce dossier projet.

Étape 2 : Rendre exécutables

chmod +x ollama-install-optimized.sh
chmod +x configure-ollama.sh

Étape 3 : Installation

# Installation complète d'Ollama
./ollama-install-optimized.sh

Le script va automatiquement :

  • ✅ Détecter votre RAM (8GB ou 16GB+)
  • ✅ Détecter votre GPU (NVIDIA, AMD, Intel, ou CPU seul)
  • ✅ Installer Ollama
  • ✅ Installer les drivers GPU si nécessaire
  • ✅ Configurer le service
  • ✅ Proposer d'installer un premier modèle

Étape 4 : Configuration optimale

# Configuration intelligente selon votre usage
./configure-ollama.sh

Le script va :

  • ✅ Analyser votre système
  • ✅ Vous demander votre usage principal (code, conversation, traduction, mixte)
  • ✅ Recommander les meilleurs modèles pour votre config
  • ✅ Installer les modèles recommandés
  • ✅ Optimiser la configuration système
  • ✅ Créer des scripts utilitaires

C'EST TOUT ! Ollama est prêt 🎉


📖 FICHIERS INCLUS

Fichier Description
ollama-install-optimized.sh 🔧 Script d'installation principal
configure-ollama.sh ⚙️ Configuration intelligente
GUIDE-OLLAMA-COMPLET.md 📘 Guide détaillé (dépannage, optimisation)
CHOIX-MODELE-RAPIDE.md 🎯 Aide au choix du modèle
README.md 📄 Ce fichier

🎯 CHOIX RAPIDE DU MODÈLE

Vous avez 8GB RAM ?

Votre usage principal est le CODE ?

ollama pull qwen2.5:3b

✅ Excellent en code, rapide, ~3GB RAM

Votre usage principal est la CONVERSATION ?

ollama pull llama3.2:3b

✅ Excellent conversationnel, bon français, ~3GB RAM

Votre usage principal est la TRADUCTION ?

ollama pull qwen2.5:3b

✅ Excellent multilingue, 29 langues, ~3GB RAM

Usage MIXTE (code + conversation + traduction) ?

ollama pull qwen2.5:3b

✅ Polyvalent, bon partout, ~3GB RAM

⚠️ IMPORTANT 8GB :

  • Installez UN SEUL modèle à la fois
  • NE PAS utiliser mistral:7b (trop lent)
  • Utilisez qwen2.5:3b à la place

Vous avez 16GB RAM ?

Configuration POLYVALENTE :

ollama pull mistral:7b
ollama pull deepseek-coder:6.7b

✅ Mistral pour tout + DeepSeek pour le code

Configuration CODE :

ollama pull deepseek-coder:6.7b
ollama pull qwen2.5-coder:7b

✅ Spécialistes code

Configuration MULTILINGUE :

ollama pull qwen2.5:7b
ollama pull aya:8b

✅ Traduction excellente

Avec GPU NVIDIA :

ollama pull llama3.1:8b
ollama pull codellama:13b

✅ Modèles puissants accélérés GPU


🔧 COMMANDES ESSENTIELLES

Utilisation de base

# Lancer une conversation
ollama run mistral

# Poser une question directe
ollama run mistral "Explique-moi Python en 3 phrases"

# Lister les modèles installés
ollama list

# Télécharger un nouveau modèle
ollama pull llama3.2:3b

# Supprimer un modèle
ollama rm nom-du-modele

# Voir les modèles en cours d'exécution
ollama ps

Gestion du service

# Démarrer Ollama
sudo systemctl start ollama

# Arrêter Ollama
sudo systemctl stop ollama

# Redémarrer Ollama
sudo systemctl restart ollama

# Voir l'état du service
systemctl status ollama

# Voir les logs
sudo journalctl -u ollama -f

Scripts utilitaires (créés par configure-ollama.sh)

# Voir l'état complet du système
~/ollama-status.sh

# Tester les performances d'un modèle
~/test-vitesse.sh mistral

# Nettoyer la RAM avant utilisation (8GB uniquement)
~/prepare-ollama.sh

🐛 DÉPANNAGE RAPIDE

Problème : Mistral bloque ou est lent sur 8GB

Solution :

# Passez à un modèle 3B plus rapide
ollama pull qwen2.5:3b
ollama run qwen2.5:3b

Problème : "Out of memory"

Solution :

# Nettoyez la RAM
sudo sync && echo 3 | sudo tee /proc/sys/vm/drop_caches
killall chrome firefox

# Redémarrez Ollama
sudo systemctl restart ollama

# Utilisez un modèle plus léger
ollama pull gemma:2b

Problème : Service ne démarre pas

Solution :

# Voir les logs d'erreur
sudo journalctl -u ollama -n 50

# Vérifier le port
sudo ss -tlnp | grep 11434

# Tuer les processus et redémarrer
sudo pkill ollama
sudo systemctl restart ollama

Problème : Réponses en anglais

Solution :

# Forcez le français dans le prompt
ollama run qwen2.5:3b "Réponds en français : [votre question]"

# Ou utilisez qwen2.5 (meilleur en français)
ollama pull qwen2.5:3b

Problème : Trop lent en général

Solutions selon RAM :

8GB :

# 1. Utilisez un modèle ultra-rapide
ollama pull qwen2.5:1.5b  # ou gemma:2b

# 2. Nettoyez la RAM
~/prepare-ollama.sh  # si créé

# 3. Réduisez le contexte
ollama run qwen2.5:3b --num-ctx 2048

16GB :

# Vérifiez votre configuration
cat /etc/systemd/system/ollama.service.d/override.conf

# Devrait avoir :
# OLLAMA_NUM_PARALLEL=2
# OLLAMA_MAX_LOADED_MODELS=2

📊 COMPARATIF RAPIDE DES MODÈLES

Pour 8GB RAM (CPU)

Modèle Vitesse Qualité Usage idéal RAM
qwen2.5:1.5b ⚡⚡⚡⚡⚡ ⭐⭐⭐ Code rapide 2GB
gemma:2b ⚡⚡⚡⚡⚡ ⭐⭐⭐⭐ Conversation 2GB
llama3.2:3b ⚡⚡⚡⚡ ⭐⭐⭐⭐⭐ Conversation 3GB
qwen2.5:3b ⚡⚡⚡⚡ ⭐⭐⭐⭐⭐ Code + Mixte 3GB

Pour 16GB RAM

Modèle Qualité Usage idéal RAM
mistral:7b ⭐⭐⭐⭐⭐ Polyvalent 5-6GB
llama3.1:8b ⭐⭐⭐⭐⭐ Conversation 6GB
deepseek-coder:6.7b ⭐⭐⭐⭐⭐ Code spécialisé 5GB
qwen2.5:7b ⭐⭐⭐⭐⭐ Code + Multilingue 5GB

💡 EXEMPLES D'UTILISATION

Exemple 1 : Assistance au code

ollama run qwen2.5:3b "Écris une fonction Python pour lire un fichier CSV et le convertir en JSON"

Exemple 2 : Traduction

ollama run qwen2.5:3b "Traduis en anglais : Bonjour, comment allez-vous aujourd'hui ?"

Exemple 3 : Explication de code

cat mon_script.py | ollama run qwen2.5:3b "Explique ce code en français"

Exemple 4 : Revue de code

ollama run deepseek-coder:6.7b "Analyse ce code et suggère des améliorations : [coller votre code]"

Exemple 5 : Génération de documentation

ollama run qwen2.5:7b "Génère une documentation markdown pour cette fonction : [coller votre code]"

⚙️ OPTIMISATIONS AVANCÉES

Pour 8GB RAM

Éditer la configuration :

sudo nano /etc/systemd/system/ollama.service.d/override.conf

Configuration optimale 8GB :

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=5m"
Environment="OLLAMA_MAX_LOADED_MODELS=1"
Environment="OLLAMA_NUM_PARALLEL=1"
Environment="OLLAMA_NUM_CTX=2048"

Appliquer :

sudo systemctl daemon-reload
sudo systemctl restart ollama

Pour 16GB RAM

Configuration optimale 16GB :

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"
Environment="OLLAMA_KEEP_ALIVE=10m"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_NUM_CTX=4096"

Avec GPU NVIDIA

Ajouter à la configuration :

Environment="OLLAMA_NUM_GPU_LAYERS=999"
Environment="CUDA_VISIBLE_DEVICES=0"

Surveiller l'utilisation GPU :

watch -n 1 nvidia-smi

📚 DOCUMENTATION COMPLÈTE

Pour aller plus loin, consultez :

  • GUIDE-OLLAMA-COMPLET.md - Guide détaillé avec :

    • Solutions aux problèmes courants
    • Optimisations avancées
    • Scripts d'automatisation
    • Comparatifs détaillés
    • Workflows recommandés
  • CHOIX-MODELE-RAPIDE.md - Aide au choix :

    • Recommandations par usage
    • Tableaux comparatifs
    • Tests de performance
    • Commandes de test

🎓 WORKFLOW RECOMMANDÉ

Configuration 8GB - Usage Code

  1. Installation

    ./ollama-install-optimized.sh
    ./configure-ollama.sh  # Choisir "Code"
    
  2. Utilisation quotidienne

    # Avant de coder
    ~/prepare-ollama.sh  # Nettoyer la RAM
    
    # Utiliser l'assistant
    ollama run qwen2.5:3b
    
  3. Exemples de prompts

    >>> Écris une fonction Python pour parser un fichier XML
    >>> Explique-moi les décorateurs en Python
    >>> Corrige ce code : [coller votre code]
    

Configuration 16GB - Usage Mixte

  1. Installation

    ./ollama-install-optimized.sh
    ./configure-ollama.sh  # Choisir "Mixte"
    
  2. Modèles installés

    • mistral:7b → Conversation, usage général
    • deepseek-coder:6.7b → Code spécialisé
  3. Utilisation

    # Conversation générale
    ollama run mistral
    
    # Code
    ollama run deepseek-coder:6.7b
    

❓ FAQ

Q: Combien de temps prend l'installation ? R: 5-10 minutes selon votre connexion internet.

Q: Puis-je utiliser Ollama sans GPU ? R: Oui, tous les modèles fonctionnent sur CPU. Le GPU accélère juste.

Q: Combien d'espace disque nécessaire ? R:

  • Modèle 3B : ~2GB
  • Modèle 7B : ~4-5GB
  • Prévoyez 10-20GB pour plusieurs modèles

Q: Puis-je installer plusieurs modèles sur 8GB ? R: Oui, mais n'utilisez qu'UN SEUL modèle à la fois.

Q: Mistral est trop lent sur 8GB, que faire ? R: Utilisez qwen2.5:3b ou llama3.2:3b à la place.

Q: Comment désinstaller Ollama ? R:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama
sudo rm -rf ~/.ollama
sudo rm /etc/systemd/system/ollama.service
sudo systemctl daemon-reload

Q: Les modèles sont-ils gratuits ? R: Oui, tous les modèles Ollama sont gratuits et open-source.

Q: Ollama fonctionne-t-il hors ligne ? R: Oui, une fois les modèles téléchargés, tout fonctionne localement.


🔗 LIENS UTILES

  • Site officiel : https://ollama.com
  • Documentation : https://github.com/ollama/ollama
  • Liste des modèles : https://ollama.com/library
  • GitHub : https://github.com/ollama/ollama

🆘 BESOIN D'AIDE ?

  1. Consultez le guide complet : GUIDE-OLLAMA-COMPLET.md
  2. Exécutez le diagnostic :
    ~/ollama-diagnostic.sh  # Si créé par configure-ollama.sh
    
  3. Vérifiez les logs :
    sudo journalctl -u ollama -n 50
    

📝 NOTES

  • 8GB RAM : Privilégiez les modèles 3B (qwen2.5:3b, llama3.2:3b)
  • 16GB RAM : Tous les modèles 7B-8B sont utilisables
  • GPU NVIDIA : Accélération automatique si drivers installés
  • Première utilisation : Le premier chargement d'un modèle peut prendre quelques secondes

Version : 1.0 Date : Décembre 2024 Testé sur : Ubuntu 22.04, 24.04


✅ CHECKLIST POST-INSTALLATION

  • [ ] Ollama installé (ollama --version)
  • [ ] Service actif (systemctl status ollama)
  • [ ] Au moins un modèle téléchargé (ollama list)
  • [ ] Modèle testé (réponse en français)
  • [ ] Scripts utilitaires créés
  • [ ] Configuration optimisée selon RAM
  • [ ] Documentation sauvegardée

Si tout est coché : FÉLICITATIONS ! Ollama est opérationnel 🎉


Pour toute question ou amélioration : consultez la documentation complète ou les scripts, je vais les publier sur ce site.

Bon coding avec Ollama ! 🚀

12/13/2025

Installer Ubuntu sur un PC,

Installer Ubuntu sur un PC

Que ce soit en tant que système d'exploitation principal, en dual-boot avec Windows (ou un autre OS), ou même dans une machine virtuelle. Je dispose de deux ordinateurs l'un pour Ubuntu et l'autre pour Windows 11.

Points clés à vérifier avant l'installation :

  1. Compatibilité matérielle :

    • Ubuntu fonctionne sur la plupart des PC modernes (32 ou 64 bits).
    • Vérifie que ton processeur, carte graphique et périphériques sont supportés (surtout pour les ).
  2. Espace disque :

    • Ubuntu nécessite au moins 25 Go d'espace libre pour une installation complète (plus si tu veux stocker des fichiers).
  3. Méthode d'installation :

    • Clé USB bootable (recommandé) : Utilise l'outil Rufus (Windows) ou dd (Linux/macOS) pour créer une clé USB depuis l'ISO d'Ubuntu.
    • DVD : Moins courant, mais possible.
    • Machine virtuelle : Avec VirtualBox ou VMware si tu veux tester sans modifier ton système actuel.
  4. Sauvegarde des données :

    • Si tu installes Ubuntu en dual-boot ou en remplacement de Windows, sauvegarde tes données importantes avant de partitionner le disque.
  5. Téléchargement de l'ISO :

    • Télécharge la dernière version stable d'Ubuntu depuis le site officiel.

Étapes simplifiées pour installer Ubuntu :

  1. Créer une clé USB bootable avec l'ISO d'Ubuntu.
  2. Démarrer sur la clé USB (via le BIOS/UEFI, généralement en appuyant sur F2, F12, DEL ou ESC au démarrage).
  3. Choisir "Essayer Ubuntu" pour tester sans installer, ou "Installer Ubuntu" pour lancer l'installation.
  4. Suivre les instructions (langue, clavier, partitionnement, utilisateur, etc.).
  5. Redémarrer et profiter d'Ubuntu !


Voici mon 1er PB à l'installation, que j'ai résolu ainsi :

Réponse rapide :
L’erreur que tu rencontres (code F5 / arrêt après quelques minutes) provient très probablement d’un problème de compatibilité entre la clé USB créée avec Rufus et le BIOS/UEFI HP.

 Les causes fréquentes sont : ISO corrompu, mauvais schéma de partition (MBR vs GPT), Secure Boot activé, ou incompatibilité avec Rufus

La solution la plus fiable est de recréer la clé avec un autre outil (balenaEtcher ou Ventoy), vérifier le checksum de l’ISO, et ajuster les paramètres BIOS (désactiver Secure Boot, activer AHCI, choisir UEFI/GPT) HP Support Community Ask Ubuntu HP Support Community Ask Ubuntu.


✅ Étapes de diagnostic et de correction

1. Vérifier l’intégrité de l’ISO

  • Télécharge à nouveau Ubuntu 24.04.3 LTS depuis le site officiel.
  • Vérifie le SHA256 checksum pour t’assurer que l’image n’est pas corrompue HP Support Community.

2. Recréer la clé USB

3. Paramètres BIOS/UEFI HP

4. Contournements fréquents

  • Si l’écran se bloque au logo HP ou après quelques minutes :
    • Dans le menu GRUB, appuie sur e pour éditer la ligne de boot.
    • Ajoute nomodeset avant quiet splash puis lance avec Ctrl+X Ask Ubuntu.
    • Cela évite les blocages liés aux cartes graphiques (notamment NVIDIA).
  • Si l’installation échoue encore, essaie une version Ubuntu 24.04.2 LTS (certains utilisateurs HP ont résolu le problème ainsi) HP Support Community.

🔎 Tableau comparatif des solutions

Problème constatéCause probableSolution recommandée
Code erreur F5 / arrêt après 3-4 minISO corrompu ou clé mal crééeVérifier checksum, recréer clé avec GPT/FAT32
USB non reconnu par HP BIOSSecure Boot actif ou mauvais modeDésactiver Secure Boot, activer Legacy/UEFI correct
Blocage écran HP / GRUBConflit graphique (NVIDIA/Intel)Ajouter nomodeset dans GRUB
Installation impossible avec RufusRufus incompatible avec certaines versions HPEssayer balenaEtcher ou Ventoy
Ubuntu 24.04.3 ne démarre pasBug spécifique à l’imageEssayer Ubuntu 24.04.2 LTS

⚠️ Points critiques à surveiller

  • HP est notoirement capricieux avec Linux : parfois il faut créer une entrée UEFI manuelle pointant vers EFI/ubuntu/grubx64.efi HP Support Community.
  • Si ton BIOS est 32 bits EFI (rare mais possible sur anciens HP), Ubuntu 64 bits ne pourra pas booter Forum Ubuntu-fr.org.
  • Toujours tester la clé sur un autre PC pour confirmer qu’elle est fonctionnelle.

👉 Je te conseille de refaire ta clé avec balenaEtcher en GPT/UEFI, de désactiver Secure Boot, et d’ajouter nomodeset si ça bloque. Si ça échoue encore, essaie Ubuntu 24.04.2 LTS qui semble plus stable sur HP HP Support Community.


Le pourquoi de cette démarche ?

Essayer de préparer un PRAN (plan de reprise d'activité numérique) afin de pouvoir redémarrer ses activités en cas de coupure de liaison avec le net ou de coupure de services des GAFAM. 

Tenir un PC formaté indépendant avec une IA et des solutions "Office" et mail sans se servir des chemins balisés par les USA.

61 % des DSI européens privilégient les fournisseurs cloud locaux : la souveraineté numérique n'est plus un simple slogan - Actualite Cloud

[Dossier] Les logiciels libres et open source en Europe : un état des lieux - Labo

Souveraineté numérique : et si vous testiez l'un de ces 7 clouds européens ?


European Alternatives : Une initiative pour promouvoir les services numériques Européens - Sans catégorie - Dessein-Tech

European Alternatives : des alternatives à Google, Microsoft et Apple

Quels sont les logiciels libres que l’État conseille en 2025 ? - Numerama

Le socle interministériel de logiciels libres est un ensemble de logiciels libres préconisés par l'État français depuis 2013.

Logiciels Souverains - European Digital Sovereignty Comparison Platform


Installation d'Ollama et de PHI ou mieux de Mistral sur un PC avec 8 Go ou 16 Go de RAM.
C'est fait :

Ollama sur UBUNTU avec PHI.


La méthode pour relancer Ollama dépend de la façon dont vous l'avez arrêté, mais en général, la façon la plus simple sur Ubuntu est de le démarrer comme un service système.

Voici les deux principales méthodes pour relancer Ollama. Bien entendu cela demande des améliorations, mais ceci fonctionne.
 

1. Démarrage via systemd (Méthode Recommandée)

Si vous avez précédemment arrêté Ollama avec sudo systemctl stop ollama, ou si vous voulez qu'il fonctionne en arrière-plan comme un service, utilisez la commande suivante :

  • Démarrez le service Ollama :

    Bash
    sudo systemctl start ollama
    
  • Vérifiez le statut (Optionnel) :

    Pour vous assurer qu'il est bien en cours d'exécution :

    Bash
    systemctl status ollama
    

    Vous devriez voir Active: active (running).

  • Redémarrez le service (Si vous étiez en train de le modifier) :

    Si Ollama était déjà en cours d'exécution, mais que vous voulez appliquer des changements de configuration (comme des variables d'environnement), utilisez restart :

    Bash
    sudo systemctl restart ollama
    

2. Démarrage en mode manuel

Si vous préférez exécuter Ollama dans votre terminal pour voir directement les logs, ou si vous ne l'avez pas installé en tant que service systemd :

  • Exécutez la commande serve :

    Bash
    ollama serve
    

    Cette commande va lancer le serveur Ollama. Il restera actif tant que vous ne fermerez pas la fenêtre du terminal ou que vous n'appuyerez pas sur Ctrl+C.

  • Lancer en arrière-plan (Démon) :

    Si vous voulez le lancer manuellement sans bloquer votre terminal, vous pouvez ajouter & à la fin de la commande :

    Bash
    ollama serve &
    

    Vous pourrez ensuite utiliser votre terminal pour d'autres commandes. Vous devrez le tuer manuellement plus tard (par exemple avec pkill ollama) si vous voulez l'arrêter.


Astuce : Une fois qu'Ollama est démarré, vous pouvez tester sa disponibilité en exécutant un modèle :

Bash
ollama run llama3

Voici les lignes de commandes SUDO pour Ollama sur Ubuntu.


C'est MISTRAL.

Mes trois models sur Ollama.

Ollama.

Commandes pour Ollama.

GOUVERNANCES.: 🛡️ PRAN - Plan de Reprise d'Activité Numérique.