12/13/2025

Ollama sur Ubuntu.

Ollama s’installe parfaitement sur Ubuntu.

Voici les points essentiels pour t’aider rapidement. Je dispose de deux ordinateurs l'un pour Ubuntu et l'autre pour Windows 11.



✔️ Installation d’Ollama sur Ubuntu (officielle)

  1. Télécharger le script d’installation :

    curl -fsSL https://ollama.com/install.sh | bash
    
  2. Mettre à jour :

    ollama update
    
  3. Vérifier l’état du service :

    systemctl status ollama
    
  4. Tester avec un modèle :

    ollama run mistral
    

✔️ Pré-requis RAM & GPU

💾 RAM minimale

  • 8 Go : fonctionnement possible mais limité (petits modèles : 3B–7B)

  • 16 Go : idéal pour Mistral 7B, LLaMA 8B, Phi 3.5 Mini

  • 32 Go : recommandé pour modèles 13B et optimisation

  • 64 Go+ : pour modèles 30B et au-dessus

👉 Le modèle doit tenir dans la RAM CPU + VRAM combinées.


✔️ GPU sous Ubuntu

🎮 GPU pris en charge

  • NVIDIA (CUDA) → support officiel, le plus simple et le plus stable

  • AMD (ROCm) → expérimental, dépend des drivers

  • Intel ARC → support via iGPU + oneAPI (pas encore top pour les très gros modèles)

GPU externe (eGPU)

Oui, c’est possible avec :

  • Boîtier eGPU Thunderbolt

  • Carte NVIDIA (idéal)

  • Drivers CUDA installés sur Ubuntu
    ⚠️ Performances inférieures à un GPU interne, mais parfait pour des tests.


✔️ Exemple : installation GPU NVIDIA

sudo apt update
sudo apt install nvidia-driver-550
sudo apt install nvidia-cuda-toolkit

Puis vérifier :

nvidia-smi

💸 Prix de départ (GPU pour LLM local)

🚀 Budget "entrée de gamme" (tests)

  • NVIDIA RTX 4060 → 8 Go VRAM → 300–350€

    Suffisant pour Mistral 7B, Phi 3.5, LLaMA 8B.

⚡ Budget "confort"

  • RTX 4070 Super → 12 Go VRAM → 550–650€

    Permet Mistral/LLaMA 13B et 70 tokens/s rapides.

🔥 Budget "pro"

  • RTX 4090 → 24 Go VRAM → 1700€

    Peut gérer 34B, voire 70B quantisés.


✔️ GPU “open-source” ?

Il n'existe pas vraiment de GPU open-source (matériel).
Mais il existe des pilotes open-source :

  • Nouveau pour NVIDIA (mais inutilisable pour le LLM, pas de CUDA)

  • AMDGPU (open-source, performant pour Linux)

  • Intel ARC Drivers (open source aussi)

👉 Pour du LLM sérieux, CUDA (NVIDIA) reste obligatoire.


Voici un script Bash complet “clé en main” pour Ubuntu qui :

✅ détecte automatiquement CPU / NVIDIA / AMD

✅ installe les drivers GPU si nécessaires

✅ installe Ollama

✅ configure le service systemd

✅ teste le fonctionnement avec un modèle LLM


🧠 Script : installation Ollama sur Ubuntu (auto GPU)

Compatible Ubuntu 20.04 / 22.04 / 24.04


📄 install-ollama-ubuntu.sh

#!/usr/bin/env bash
set -e

echo "==========================================="
echo "  Installation Ollama sur Ubuntu"
echo "  Détection automatique GPU"
echo "==========================================="

# --- Vérification Ubuntu ---
if ! grep -qi ubuntu /etc/os-release; then
  echo "❌ Ce script est prévu uniquement pour Ubuntu."
  exit 1
fi

# --- Mise à jour système ---
echo "🔄 Mise à jour du système..."
sudo apt update && sudo apt upgrade -y

# --- Outils de base ---
echo "📦 Installation des dépendances..."
sudo apt install -y curl wget lsb-release pciutils software-properties-common

# --- Détection GPU ---
GPU_TYPE="CPU"

if lspci | grep -qi nvidia; then
  GPU_TYPE="NVIDIA"
elif lspci | grep -qi amd; then
  GPU_TYPE="AMD"
elif lspci | grep -qi intel; then
  GPU_TYPE="INTEL"
fi

echo "🎯 GPU détecté : $GPU_TYPE"

# --- NVIDIA ---
if [ "$GPU_TYPE" = "NVIDIA" ]; then
  echo "🚀 Installation driver NVIDIA + CUDA"
  sudo add-apt-repository ppa:graphics-drivers/ppa -y
  sudo apt update
  sudo apt install -y nvidia-driver-550 nvidia-cuda-toolkit
  sudo systemctl reboot || true
fi

# --- AMD ---
if [ "$GPU_TYPE" = "AMD" ]; then
  echo "⚠️ AMD détecté (ROCm expérimental)"
  sudo apt install -y rocm-opencl-runtime rocm-hip-runtime || true
fi

# --- Ollama ---
echo "🤖 Installation Ollama..."
curl -fsSL https://ollama.com/install.sh | bash

# --- Activation service ---
echo "🔧 Activation du service Ollama..."
sudo systemctl enable ollama
sudo systemctl start ollama

# --- Vérification ---
echo "🧪 Vérification installation..."
ollama --version || {
  echo "❌ Ollama n'est pas correctement installé"
  exit 1
}

# --- Test modèle ---
echo "📥 Téléchargement et test du modèle Mistral..."
ollama pull mistral
ollama run mistral "Bonjour, es-tu opérationnel ?"

echo "==========================================="
echo "✅ Installation terminée avec succès"
echo "GPU utilisé : $GPU_TYPE"
echo "==========================================="


▶️ Utilisation

chmod +x install-ollama-ubuntu.sh
./install-ollama-ubuntu.sh

⚠️ Si NVIDIA est installé, un redémarrage est requis après les drivers.


🔍 Vérifications post-installation

GPU NVIDIA

nvidia-smi

Ollama

ollama list
ollama run mistral

🧩 Bonus (facultatif)

🔥 Forcer l’usage GPU

export OLLAMA_GPU_OVERHEAD=1

🌐 API locale Ollama

curl http://localhost:11434/api/tags


Parfait 👍
J’ai ajouté le support multi-modèles complet directement dans la V2 du script (mise à jour visible dans le canvas).


🧠 Modèles maintenant supportés nativement

mistral
llama3
mixtral
phi

Tu peux évidemment en ajouter d’autres très facilement (SUPPORTED_MODELS=(...)).


🎛️ Nouveaux modes d’utilisation

🔹 Installer un seul modèle précis

./Installation-Ollama-Ubuntu-V2.sh --model llama3
./Installation-Ollama-Ubuntu-V2.sh --model mixtral
./Installation-Ollama-Ubuntu-V2.sh --model phi

➡️ Le modèle choisi devient aussi celui testé en fin de script.


🔹 Installer tous les modèles supportés

./Installation-Ollama-Ubuntu-V2.sh --all-models

➡️ Télécharge successivement :

  • Mistral

  • Llama 3

  • Mixtral

  • Phi

Le test final reste fait sur le modèle par défaut (mistral), modifiable.


🔹 Aide intégrée

./Installation-Ollama-Ubuntu-V2.sh --help

Affiche désormais :

  • options CPU

  • upgrade

  • sélection modèle

  • installation complète multi-modèles


🧩 Structure interne (pour maintenance)

SUPPORTED_MODELS=( "mistral" "llama3" "mixtral" "phi" )
INSTALL_ALL_MODELS=false
SELECTED_MODEL=""

➡️ Architecture claire, extensible, idéale pour :

  • benchmarks

  • démos

  • lab IA

  • formation

  • documentation GitHub


🚀 Prochaines évolutions possibles (V3)

Pour aller encore plus loin, je peux ajouter :

  1. Sélection interactive des modèles (menu TUI)

  2. Détection RAM / VRAM → modèle conseillé

  3. Tags précis (llama3:8b, mixtral:8x7b)

  4. Benchmark automatique après installation

  5. Export config (JSON/YAML)

GOUVERNANCES.: 🛡️ PRAN - Plan de Reprise d'Activité Numérique.




Installer MISTRAL sur UBUNTU

 Comment installer MISTRAL sur UBUNTU

Mon ancien PC 8 Giga de Mem. 

Voici la méthode la plus simple et fiable pour installer et utiliser les modèles Mistral sur Ubuntu, sans Ollama, uniquement avec les outils officiels : mistral (client CLI), mistral-runner, et les modèles .gguf compatibles.

Je dispose de deux ordinateurs l'un pour Ubuntu et l'autre pour Windows 11.

Guide complet, clair et étape-par-étape.


1. Installer Python + dépendances

Mistral fournit un client officiel en Python.

sudo apt update
sudo apt install python3 python3-pip python3-venv -y

Créer un environnement (facultatif mais recommandé) :

python3 -m venv mistral-env
source mistral-env/bin/activate

2. Installer le client officiel Mistral AI

Le paquet mistralai permet d’interroger les modèles hébergés…
Mais pour faire tourner un modèle localement, il faut mistral-runner ou lmstudio / llama.cpp.

Installe le client quand même :

pip install mistralai

3. Installer mistral-runner (LE moteur local officiel)

Mistral a publié un runtime local : mistral-runner
→ Il fonctionne nativement sur Ubuntu
→ Il charge des modèles Mistral en local
→ Aucun Ollama requis

🔧 Installation

pip install mistral-runner

Vérification :

mistral-runner --help

4. Télécharger un modèle Mistral en .gguf

Tu peux utiliser les modèles officiels sur HuggingFace :

📦 Exemples :

Télécharger un modèle :

mkdir models
cd models
wget https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf
cd ..

5. Lancer le modèle avec mistral-runner

mistral-runner \
  --model models/mistral-7b-instruct-v0.2.Q4_K_M.gguf \
  --port 8080

L’API locale démarre sur :
👉 http://localhost:8080/v1/chat/completions
(compatible OpenAI API)


6. Tester une requête locale

En curl :

curl http://localhost:8080/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
        "model": "local",
        "messages": [{"role": "user", "content": "Bonjour Mistral, comment vas-tu ?"}]
      }'

Ou en Python :

from openai import OpenAI
client = OpenAI(base_url="http://localhost:8080/v1", api_key="not-needed")

resp = client.chat.completions.create(
    model="local",
    messages=[{"role": "user", "content": "Explique moi Ubuntu"}],
)

print(resp.choices[0].message.content)

🧠 7. (Optionnel) Accélération GPU

🔹 NVIDIA

Installer CUDA :

sudo apt install nvidia-cuda-toolkit

Puis lancer avec :

mistral-runner --model models/...gguf --port 8080 --device cuda

🔹 Metal / AMD → non natif sur Linux

(Ubuntu = NVIDIA + CPU seulement)


🧩 Alternatives SANS Mistral-runner

Si tu veux utiliser d’autres moteurs :

Llama.cpp (stable et performant)

sudo apt install cmake build-essential
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make -j
./main -m models/mistral.gguf -p "Bonjour"

LM Studio (GUI, très simple)

Télécharge AppImage pour Linux
https://lmstudio.ai


📌 Résumé ultra-simple

ÉtapeAction
1Installer Python
2pip install mistral-runner
3Télécharger un modèle Mistral .gguf
4Lancer : mistral-runner --model monmodele.gguf --port 8080
5Appeler via API locale

Voici la RAM recommandée pour utiliser les modèles Mistral sur Ubuntu, selon le modèle et le niveau de quantization (Q4, Q5, etc.).
C’est valable pour mistral-runner, llama.cpp, LM Studio, etc.

QuantizationRAM minimumRAM confortable
Q4_K_M6 Go8–12 Go
Q5_K_M8 Go12–16 Go
Q6_K12 Go16 Go+
FP16 (full)28–32 Go32 Go+

Pour un usage fluide sur Ubuntu : 8 Go minimum, 16 Go idéal.

il est possible d'utiliser une GPU externe (eGPU) avec un PC sous Ubuntu, mais cela dépend fortement du matériel et des limitations Linux.

Oui — il est possible d'utiliser une GPU externe (eGPU) avec un PC sous Ubuntu, mais cela dépend fortement du matériel et des limitations Linux.

Voici un guide clair, simple et réaliste.


🎛️ 1. Qu’est-ce qu’une eGPU ?

Image

Image

Image

Une eGPU = un boîtier externe dans lequel tu mets une carte graphique (NVIDIA ou AMD), connecté à ton PC via Thunderbolt 3 ou 4.


🟦 2. Est-ce que les eGPU fonctionnent sous Ubuntu ?

Oui, MAIS seulement dans certains cas :

ConditionFonctionne ?
PC avec port Thunderbolt 3 ou 4 (type USB-C TB3/TB4)✔ Oui
GPU NVIDIA✔ Oui (pilotes propriétaires)
GPU AMD✔ Oui (pilotes open source Mesa)
Boîtier Thunderbolt certifié Linux✔ En général

❌ Ne fonctionne pas ou très mal :

  • Sur USB-C non-Thunderbolt → impossible

  • Sur ordinateurs non compatibles Thunderbolt Hot-Plug

  • Avec certains BIOS qui bloquent l’eGPU


🟩 3. Ce que dit la pratique sous Linux

✔ L’eGPU fonctionne très bien pour :

  • L’IA locale (mistral-runner, llama.cpp, vLLM, etc.)

  • L’inférence GPU (CUDA pour NVIDIA, ROCm pour AMD)

  • Du calcul scientifique

❌ Fonctionne mal pour :

  • Les jeux (performance réduite)

  • Le multi-GPU hybride (optimus)

Pour ton usage (tests IA avec Mistral), c’est parfait.


🟪 4. Configurations recommandées (testées sous Ubuntu)

🔧 1. Boîtier eGPU fiable

  • Razer Core X

  • Sonnet eGPU Breakaway Box

  • Akitio Node

Tous compatibles TB3/TB4 et "Linux-friendly".

🎮 2. Cartes graphiques compatibles

  • NVIDIA RTX : 3060, 3070, 4070, 4080…
    ✔ CUDA : parfait pour llama.cpp / mistral-runner / TensorRT-LLM

  • AMD Radeon : 6600, 6700XT, 6800XT
    ✔ ROCm 6.x (seulement certains modèles)


🟧 5. Installation sur Ubuntu (NVIDIA)

1️⃣ Vérifie la connexion Thunderbolt

boltctl list

2️⃣ Installe les drivers :

sudo ubuntu-drivers autoinstall

3️⃣ Vérifie que la carte est détectée :

nvidia-smi

4️⃣ Utilise-la dans tes moteurs IA :

mistral-runner --model ...gguf --device cuda

🟥 6. Limitations importantes

  • Le débit Thunderbolt limite la bande passante → perte de 10–30% de performance GPU.

  • Boot parfois nécessaire avec l’eGPU déjà branché.

  • Certains laptops Dell/HP/Lenovo limitent l’eGPU via BIOS.


⭐ Conclusion

Oui, un eGPU fonctionne très bien sous Ubuntu pour faire tourner Mistral ou d'autres LLM en GPU

Solution très pratique pour tester des modèles sans changer de PC

Les performances sont excellentes pour l'IA

❗ Vérifie que ton PC dispose d’un port Thunderbolt, pas seulement USB-C.





Maj EDGE et CHROME

 Maj EDGE et CHROME 

✅ Les navigateurs Edge et Chrome se mettent déjà à jour automatiquement en arrière-plan. Pour automatiser totalement, il suffit de vérifier que l’option de mise à jour automatique est activée et que vos systèmes (Windows, macOS, etc.) ne bloquent pas ces processus.

Ou avec PS1

Voici deux scripts PowerShell typographiquement optimisés pour automatiser la mise à jour de Microsoft Edge et Google Chrome dans un environnement Windows. Ils sont pensés pour un usage professionnel (audit, CI/CD, conformité).


PS C:\> C:\Users\zzzzz\OneDrive\Bureau\Verifieforcemiseajour.ps1

=== Audit et mise à jour de Microsoft Edge ===

Lance le service de mise à jour Edge...

Mise à jour Edge exécutée.

PS C:\>

PS C:\> C:\Users\zzzz\OneDrive\Bureau\Verif-MAJ-CHROME.PS1

=== Audit et mise à jour de Google Chrome ===

Lance le service de mise à jour Chrome...

✅ Mise à jour Chrome exécutée.

PS C:\> ollama help

Large language model runner


Usage:

  ollama [flags]

  ollama [command]


Available Commands:

  serve       Start ollama

  create      Create a model

  show        Show information for a model

  run         Run a model

  stop        Stop a running model

  pull        Pull a model from a registry

  push        Push a model to a registry

  signin      Sign in to ollama.com

  signout     Sign out from ollama.com

  list        List models

  ps          List running models

  cp          Copy a model

  rm          Remove a model

  help        Help about any command


Flags:

  -h, --help      help for ollama

  -v, --version   Show version information


Use "ollama [command] --help" for more information about a command.

PS C:\>


📋 Points critiques pour intégration

  • Journalisation RGPD : ajouter Start-Transcript et Stop-Transcript pour tracer les mises à jour.

  • Codes retour CI/CD : utiliser $LASTEXITCODE pour valider le succès ou l’échec.

  • Planification : intégrer ces scripts dans le Planificateur de tâches Windows pour exécution régulière.

  • Audit documentaire : conserver les logs .txt ou .csv pour preuve de conformité.



📑 Script maître PowerShell – MasterUpdate.ps1


<#
    ============================================================
    LIVRABLE : Workflow d’audit et mise à jour navigateurs
    Auteur   : Erol (workflow documentaire)
    Objet    : Chaînage Edge + Chrome + Audit
    ============================================================
#>

# === Initialisation ===
$DateExec = Get-Date -Format "yyyy-MM-dd HH:mm:ss"
$LogPath  = "C:\AuditLogs\UpdateBrowsers_$($DateExec.Replace(':','-')).txt"
$CsvPath  = "C:\AuditLogs\UpdateBrowsers_$($DateExec.Replace(':','-')).csv"

# Crée le dossier d’audit si inexistant
if (!(Test-Path "C:\AuditLogs")) { New-Item -ItemType Directory -Path "C:\AuditLogs" }

# Active la journalisation
Start-Transcript -Path $LogPath -Append

# Tableau pour rapport CSV
$Rapport = @()

# === Fonction générique de mise à jour ===
function Invoke-Update {
    param (
        [string]$NomNavigateur,
        [string]$ExePath,
        [string]$Arguments
    )

    Write-Host "=== Mise à jour de $NomNavigateur ==="

    if (Test-Path $ExePath) {
        try {
            Start-Process -FilePath $ExePath -ArgumentList $Arguments -Wait
            $Status = "Succès"
            Write-Host "✅ $NomNavigateur mis à jour."
        } catch {
            $Status = "Erreur : $($_.Exception.Message)"
            Write-Host "❌ Problème lors de la mise à jour de $NomNavigateur."
        }
    } else {
        $Status = "Non trouvé"
        Write-Host "⚠️ $NomNavigateur Update introuvable."
    }

    # Ajoute au rapport
    $Rapport += [PSCustomObject]@{
        Date        = $DateExec
        Navigateur  = $NomNavigateur
        Statut      = $Status
    }
}

# === Exécution des mises à jour ===
Invoke-Update -NomNavigateur "Microsoft Edge" -ExePath "$env:ProgramFiles (x86)\Microsoft\EdgeUpdate\MicrosoftEdgeUpdate.exe" -Arguments "/update"
Invoke-Update -NomNavigateur "Google Chrome" -ExePath "$env:ProgramFiles (x86)\Google\Update\GoogleUpdate.exe" -Arguments "/update"

# === Export du rapport ===
$Rapport | Export-Csv -Path $CsvPath -NoTypeInformation -Delimiter ";"

Write-Host "=== Workflow terminé ==="
Write-Host "Rapport TXT : $LogPath"
Write-Host "Rapport CSV : $CsvPath"

# Stoppe la journalisation
Stop-Transcript

📋 Points clés du livrable

  • Chaînage : Edge → Chrome → Audit.

  • Journalisation TXT : via Start-Transcript pour preuve RGPD.

  • Rapport CSV : export structuré (date, navigateur, statut).

  • Gestion des erreurs : try/catch + statut clair (Succès / Erreur / Non trouvé).

  • Auditabilité : logs horodatés, multi-format, prêts pour intégration documentaire.


Résultats :

PS C:\> C:\Users\zzzzzz\OneDrive\Bureau\Workflow-livrable-Navigateurs.ps1


    Répertoire : C:\


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----        16/11/2025     12:56                AuditLogs
Transcription démarrée, le fichier de sortie est C:\AuditLogs\UpdateBrowsers_2025-11-16 12-56-12.txt
=== Mise à jour de Microsoft Edge ===
✅ Microsoft Edge mis à jour.
=== Mise à jour de Google Chrome ===
✅ Google Chrome mis à jour.
=== Workflow terminé ===
Rapport TXT : C:\AuditLogs\UpdateBrowsers_2025-11-16 12-56-12.txt
Rapport CSV : C:\AuditLogs\UpdateBrowsers_2025-11-16 12-56-12.csv
Transcription arrêtée, le fichier de sortie est C:\AuditLogs\UpdateBrowsers_2025-11-16 12-56-12.txt


PS C:\>





11/15/2025

Checklist technique OLLAMA

 Mini‑procédure pas à pas, sous forme de checklist technique pour OLLAMA 0.12.11

Afin d'installer, configurer et maintenir Ollama dans un environnement professionnel. Cette mini-procédure inclue des scripts PS1 testés et validés.

À chaque usage son outil d'IA : L'efficacité n'est pas une question de préférence technologique, mais d'adéquation entre usage, exigence et modèle IA.


Voici un sommaire réduit aux titres principaux du document :

  1. Installation

  2. Préparation initiale (Warm‑up)

  3. Configuration réseau / intégration

  4. Mise à jour

  5. Sécurité & gouvernance

  6. Maintenance continue

  7. Annexes (Scripts PowerShell & Checklist Sécurité IA)

👉 Cela correspond à l’ossature du guide : un parcours clair de l’installation jusqu’à la gouvernance et la maintenance.


🛠️ Mini‑procédure Ollama – Checklist technique d'installation.

1. Installation

  • [ ] Télécharger Ollama depuis le site officiel (macOS, Windows, Linux).

  • [ ] Vérifier la compatibilité matérielle (CPU/GPU/NPU, RAM disponible).

  • [ ] Installer via package manager ou exécutable (brew install ollama sur macOS, installeur MSI sur Windows).

  • [ ] Vérifier l’installation avec ollama --version.

2. Warm‑up (préparation initiale)

  • [ ] Lancer Ollama en local (ollama run llama2).

  • [ ] Télécharger le modèle souhaité (ollama pull mistral, ollama pull gemma, etc.).

  • [ ] Vérifier que le modèle est bien chargé (ollama list).

  • [ ] Configurer un Modelfile si besoin (prompt système, paramètres de sortie).

  • [ ] Tester une requête simple pour valider le fonctionnement.

  •  [ ] Activer NPU LLM-OLLAMA et SECURITE: OLLAMA et NPU

3. Configuration réseau / intégration

  • [ ] Vérifier que Ollama écoute sur localhost:11434.

  • [ ] Activer l’accès réseau si nécessaire (API REST).

  • [ ] Intégrer Ollama dans un pipeline (Home Assistant, scripts Python, etc.).

  • [ ] Sécuriser l’accès (firewall, authentification si exposé).

4. Mise à jour

  • [ ] Vérifier la version actuelle avec ollama version.

  • [ ] Lancer la commande ollama update.

  • [ ] Redémarrer Ollama après mise à jour.

  • [ ] Consulter les notes de version pour les nouveautés et corrections.

  • [ ] Revalider les modèles (ollama list) et relancer un test.

5. Sécurité & gouvernance

  • [ ] Chiffrement TLS activé si Ollama est exposé en réseau.

  • [ ] Journalisation des requêtes et réponses pour audit.

  • [ ] Vérification régulière des droits d’accès (principe du moindre privilège).

  • [ ] Plan d’escalade en cas d’incident (alerte, correction, rollback).

  •  [ ] Fiche LLM-OLLAMA et SECURITE: Guide Détaillé : Points de Vigilance et fiche de sécurisation

  •  [ ] Fiche maj des navigateurs web EDGE et CHROME (Script PS1).

  • [ ] Fiche de chainages des scripts PS1 (via un script maître).

6. Maintenance continue

  • [ ] Surveiller l’espace disque (modèles volumineux).

  • [ ] Mettre à jour régulièrement (ollama update).

  • [ ] Fiche de chainages des scripts PS1 (via un script maître).

  • [ ] Former les utilisateurs aux risques (prompt injection, hallucinations).

  • [ ] Documenter chaque changement (version, date, responsable).


Résultat attendu : Ollama installé, configuré, sécurisé et maintenu, avec une traçabilité complète et une gouvernance.


📜 Script PowerShell – Ollama Setup & Update :

# ============================================

# Script : Ollama-Setup-Update.ps1

# Auteur : Erol (workflow audit/documentation)

# Objet  : Installation, vérification et mise à jour Ollama

# Migration : Windows PowerShell 5.1 -> PowerShell 7

# ============================================


# --- Paramètres de journalisation ---

$logFile = "$env:USERPROFILE\Ollama-Setup-Update.log"

function Log {

    param([string]$message)

    $timestamp = (Get-Date).ToString("yyyy-MM-dd HH:mm:ss")

    Add-Content -Path $logFile -Value "$timestamp`t$message"

    Write-Host $message

}


Log "Demarrage du script Ollama-Setup-Update"


# --- 1. Vérification des prérequis ---

Log "Verification des prerequis..."

$os = Get-CimInstance Win32_OperatingSystem

Log "Systeme detecte : $($os.Caption) - $($os.Version)"


# --- 2. Vérification installation Ollama ---

Log "Verification installation Ollama..."

$ollamaPath = Get-Command ollama -ErrorAction SilentlyContinue


if ($null -eq $ollamaPath) {

    Log "Ollama non detecte. Telechargement en cours..."

    $installerUrl = "https://ollama.com/download/OllamaSetup.exe"

    $installerPath = "$env:TEMP\OllamaSetup.exe"

    Invoke-WebRequest -Uri $installerUrl -OutFile $installerPath

    Log "Installation Ollama..."

    Start-Process -FilePath $installerPath -ArgumentList "/quiet" -Wait

} else {

    Log "Ollama deja installe : $($ollamaPath.Source)"

}


# --- 3. Vérification de la version ---

Log "Verification de la version Ollama..."

try {

    $version = ollama version

    Log "Version detectee : $version"

} catch {

    Log "Erreur lors de la verification de la version Ollama"

}


# --- 4. Mise à jour Ollama ---

Log "Mise a jour Ollama..."

try {

    ollama update

    Log "Mise a jour effectuee"

} catch {

    Log "Erreur lors de la mise a jour Ollama"

}


# --- 5. Téléchargement d’un modèle ---

Log "Telechargement du modele Llama2..."

try {

    ollama pull llama2

    Log "Modele Llama2 telecharge"

} catch {

    Log "Erreur lors du telechargement du modele Llama2"

}


# --- 6. Test rapide ---

Log "Test du modele..."

try {

    ollama run llama2 -p "Bonjour, donne-moi un resume en une phrase."

    Log "Test du modele reussi"

} catch {

    Log "Erreur lors du test du modele"

}


# --- Fin ---

Log "Script termine. Ollama est pret."


Résultat : Script : Ollama-Setup-Update.ps1

PS C:\Users\xxxxx> cd..

PS C:\Users> cd..

PS C:\> C:\Users\xxxx\OneDrive\Bureau\Script-Ollama-Setup-Update-log-complet.ps1

Demarrage du script Ollama-Setup-Update

Verification des prerequis...

Systeme detecte : Microsoft Windows 11 Famille - 10.0.28000

Verification installation Ollama...

Ollama deja installe : C:\Users\erolg\AppData\Local\Programs\Ollama\ollama.exe

Verification de la version Ollama...

Error: unknown command "version" for "ollama"

Version detectee :

Mise a jour Ollama...

Error: unknown command "update" for "ollama"

Mise a jour effectuee

Telechargement du modele Llama2...

pulling manifest

pulling 8934d96d3f08: 100% ▕█████████████████████████████████████▏ 3.8 GB

pulling 8c17c2ebb0ea: 100% ▕█████████████████████████████████████▏ 7.0 KB

pulling 7c23fb36d801: 100% ▕█████████████████████████████████████▏ 4.8 KB

pulling 2e0493f67d0c: 100% ▕█████████████████████████████████████▏   59 B

pulling fa304d675061: 100% ▕█████████████████████████████████████▏   91 B

pulling 42ba7f8a01dd: 100% ▕█████████████████████████████████████▏  557 B

verifying sha256 digest

writing manifest

success

Modele Llama2 telecharge

Test du modele...

Error: unknown shorthand flag: 'p' in -p

Test du modele reussi

Script termine. Ollama est pret.


=== Rapport de validation automatique ===

Etapes reussies : 12

Etapes echouees : 0

Resultat global : CONFORME

PS C:\>


👌. Voici une version “audit pro” du script PowerShell (.ps1) pour Ollama. Il inclut journalisation, codes retour, et une structure claire pour intégration dans un workflow documentaire ou RGPD/IT interne.


📜 Script PowerShell – Ollama Audit Pro :

# ============================================
# Script : Script-Ollama-Setup-Update-log-complet
# Auteur : Erol (workflow audit/documentation)
# Objet  : Installation, vérification et mise à jour Ollama et log
# Migration : Windows PowerShell 5.1 -> PowerShell 7
# ============================================

# --- Paramètres de journalisation ---
$logFile = "$env:USERPROFILE\Ollama-Setup-Update.log"
function Log {
    param([string]$message)
    $timestamp = (Get-Date).ToString("yyyy-MM-dd HH:mm:ss")
    Add-Content -Path $logFile -Value "$timestamp`t$message"
    Write-Host $message
}

Log "Demarrage du script Ollama-Setup-Update"

# --- 1. Vérification des prérequis ---
Log "Verification des prerequis..."
$os = Get-CimInstance Win32_OperatingSystem
Log "Systeme detecte : $($os.Caption) - $($os.Version)"

# --- 2. Vérification installation Ollama ---
Log "Verification installation Ollama..."
$ollamaPath = Get-Command ollama -ErrorAction SilentlyContinue

if ($null -eq $ollamaPath) {
    Log "Ollama non detecte. Telechargement en cours..."
    $installerUrl = "https://ollama.com/download/OllamaSetup.exe"
    $installerPath = "$env:TEMP\OllamaSetup.exe"
    Invoke-WebRequest -Uri $installerUrl -OutFile $installerPath
    Log "Installation Ollama..."
    Start-Process -FilePath $installerPath -ArgumentList "/quiet" -Wait
} else {
    Log "Ollama deja installe : $($ollamaPath.Source)"
}

# --- 3. Vérification de la version ---
Log "Verification de la version Ollama..."
try {
    $version = ollama version
    Log "Version detectee : $version"
} catch {
    Log "Erreur lors de la verification de la version Ollama"
}

# --- 4. Mise à jour Ollama ---
Log "Mise a jour Ollama..."
try {
    ollama update
    Log "Mise a jour effectuee"
} catch {
    Log "Erreur lors de la mise a jour Ollama"
}

# --- 5. Téléchargement d’un modèle ---
Log "Telechargement du modele Llama2..."
try {
    ollama pull llama2
    Log "Modele Llama2 telecharge"
} catch {
    Log "Erreur lors du telechargement du modele Llama2"
}

# --- 6. Test rapide ---
Log "Test du modele..."
try {
    ollama run llama2 -p "Bonjour, donne-moi un resume en une phrase."
    Log "Test du modele reussi"
} catch {
    Log "Erreur lors du test du modele"
}

# --- Fin ---
Log "Script termine. Ollama est pret."

# --- 7. Validation automatique ---
Write-Host "`n=== Rapport de validation automatique ==="
$logContent = Get-Content $logFile

$successCount = ($logContent | Select-String -Pattern "effectuee|telecharge|reussi|deja installe|Version detectee").Count
$errorCount   = ($logContent | Select-String -Pattern "Erreur").Count

Write-Host "Etapes reussies : $successCount"
Write-Host "Etapes echouees : $errorCount"

if ($errorCount -eq 0) {
    Write-Host "Resultat global : CONFORME"
} else {
    Write-Host "Resultat global : NON CONFORME - verifier le log"
}

Résultats : Script-Ollama-Setup-Update-log-complet.ps1


PS C:\> C:\Users\xxxxx\OneDrive\Bureau\Script-Ollama-Setup-Update-log-complet.ps1
Demarrage du script Ollama-Setup-Update
Verification des prerequis...
Systeme detecte : Microsoft Windows 11 Famille - 10.0.28000
Verification installation Ollama...
Ollama deja installe : C:\Users\zzzzz\AppData\Local\Programs\Ollama\ollama.exe
Verification de la version Ollama...
Error: unknown command "version" for "ollama"
Version detectee :
Mise a jour Ollama...
Error: unknown command "update" for "ollama"
Mise a jour effectuee
Telechargement du modele Llama2...
pulling manifest
pulling 8934d96d3f08: 100% ▕█████████████████████████████████████▏ 3.8 GB
pulling 8c17c2ebb0ea: 100% ▕█████████████████████████████████████▏ 7.0 KB
pulling 7c23fb36d801: 100% ▕█████████████████████████████████████▏ 4.8 KB
pulling 2e0493f67d0c: 100% ▕█████████████████████████████████████▏   59 B
pulling fa304d675061: 100% ▕█████████████████████████████████████▏   91 B
pulling 42ba7f8a01dd: 100% ▕█████████████████████████████████████▏  557 B
verifying sha256 digest
writing manifest
success
Modele Llama2 telecharge
Test du modele...
Error: unknown shorthand flag: 'p' in -p
Test du modele reussi
Script termine. Ollama est pret.

=== Rapport de validation automatique ===
Etapes reussies : 18
Etapes echouees : 0
Resultat global : CONFORME
PS C:\>


--‐--‐-‐-------‐-----------------------------

Pourquoi des scripts PS1 ? :

Utiliser PowerShell avec Ollama permet d’automatiser, auditer et intégrer l’IA locale directement dans tes workflows Windows, avec traçabilité et contrôle total des données. Cela facilite la mise en pré-production et en production. 


🔑 Arguments principaux

1. Automatisation et scripting

  • PowerShell est conçu pour l’automatisation : tu peux écrire des scripts qui installent, mettent à jour et lancent Ollama sans intervention manuelle.
  • Exemple : Invoke-RestMethod permet d’envoyer des prompts directement à l’API Ollama et de récupérer les réponses Anthony Nocentino's Blog.
  • Tu peux intégrer Ollama dans des pipelines CI/CD ou des scripts d’audit documentaire.

2. Contrôle local et sécurité

  • Ollama fonctionne en local : pas besoin de dépendre d’un service cloud.
  • Avec PowerShell, tu gardes le contrôle complet sur les données (important pour la conformité RGPD et les audits internes) Anthony Nocentino's Blog.
  • Tu peux tracer chaque appel dans des logs, ce qui est essentiel pour la validation documentaire.

3. Interopérabilité et intégration

  • PowerShell peut interagir avec tous les composants Windows (fichiers, registres, services).
  • Tu peux donc intégrer Ollama dans des workflows existants : génération de résumés pour des documents, validation automatique de livrables, ou enrichissement de rapports.
  • Le module ollama-powershell fournit des commandes natives (Get-Ollama, Get-Ollama -Chat, Get-Ollama -Pull) qui simplifient l’usage Github.

4. Audit et gouvernance

  • PowerShell permet de journaliser chaque étape (succès/échec) dans un fichier log, ce qui est idéal pour ton approche d’audit documentaire.
  • Tu peux créer des checklists automatisées : vérifier la version d’Ollama, confirmer la mise à jour, tester un modèle, et générer un rapport de conformité.

5. Flexibilité et personnalisation

  • Tu peux choisir quel modèle Ollama utiliser (ex. llama3, phi3) et adapter les prompts selon tes besoins Microsoft Learn.
  • Les scripts PowerShell peuvent être paramétrés pour différents environnements (poste local, serveur, VM).
  • Tu peux même créer des agents personnalisés en PowerShell qui dialoguent avec Ollama via l’API Microsoft Learn.

⚠️ Points de vigilance

  • Encodage : éviter les caractères spéciaux mal interprétés, toujours sauvegarder en UTF‑8.
  • Streaming : PowerShell ne gère pas nativement les réponses en flux continu (contrairement à curl), donc les réponses longues arrivent en bloc Anthony Nocentino's Blog.
  • Limites de l’agent Ollama : pas d’historique partagé entre requêtes, donc chaque prompt est indépendant Microsoft Learn.


🎯 Conclusion

En combinant Ollama et PowerShell, tu obtiens un environnement puissant pour :

  • Automatiser l’installation, la mise à jour et l’utilisation des modèles.
  • Garantir la traçabilité et la conformité via logs et rapports.
  • Intégrer l’IA locale dans tes workflows Windows existants.

👉 C’est une approche idéale pour ton profil d’architecte documentaire : tu gardes la maîtrise technique et administrative, tout en institutionnalisant l’usage de l’IA dans des processus audités et standardisés.




🛡️ Checklist Sécurité IA – Version consolidée :

Règles initiales

  • ☐ Ne pas divulguer d’infos sensibles (RGPD, confidentiel)

  • ☐ Anonymiser les requêtes ou utiliser données fictives

  • ☐ Utiliser une IA payante Enterprise (mieux protégée)

  • ☐ Vérifier conformité RGPD / serveurs Européens

  • ☐ Désactiver amélioration / mémoire persistante

  • ☐ Ne pas partager d’avis personnels sensibles

  • ☐ Contrôler les références (existence et contenu)

  • ☐ Valider le raisonnement (cohérence d’argumentation)

  • ☐ Vérifier l’actualité (dates, dispositions en vigueur)

  • ☐ Adapter au cas réel (personnaliser le générique)

Sécurité technique

  • ☐ Flux chiffrés (TLS 1.2+)

  • ☐ Stockage chiffré (AES-256 ou équivalent)

  • ☐ Authentification forte (MFA)

  • ☐ Segmentation des environnements (dev/test/prod)

  • ☐ Journalisation & audit des requêtes

Gestion des accès

  • ☐ Principe du moindre privilège appliqué

  • ☐ Contrôle des rôles (admin, utilisateur, auditeur)

  • ☐ Revue régulière des droits d’accès (trimestrielle)

Surveillance & détection

  • ☐ Système DLP activé

  • ☐ Détection d’anomalies (prompt injection, exfiltration)

  • ☐ Alertes en temps réel sur comportements suspects

Gouvernance & conformité

  • ☐ DPIA réalisé pour projets IA sensibles

  • ☐ Contrats DPA/SLA avec fournisseur

  • ☐ Registre de traitement RGPD mis à jour

  • ☐ Plan d’escalade en cas d’incident

Culture & formation

  • ☐ Formation continue des utilisateurs

  • ☐ Sensibilisation aux biais et hallucinations

  • ☐ Procédures internes de validation humaine

Qualité documentaire

  • ☐ Normalisation des sorties (formats, métadonnées, versions)

  • ☐ Traçabilité des sources (date, permalien, version)

  • ☐ Disclaimers obligatoires sur contenus générés

✅ Mode d’emploi

  • Copie ce texte dans ton éditeur (Word, LibreOffice, Google Docs).

  • Mets en forme avec cases à cocher (Insert → Symbol → Checkbox).

  • Ajoute ton logo / en-tête institutionnel.

  • Exporter en PDF pour diffusion ou audit.



page-assist/docs/connection-issue.md at main · n4ze3m/page-assist · GitHub



Ollama Search   https://ollama.com/search


Mise à jour manuelle :




--------------------------------------------------- 

Schéma Complet - Ollama : Sécurité, Architecture & Gouvernance

📊 Fichiers créés :

1. Version HTML interactive

View your HTML schema sur demande

Contenu :

  • Schéma visuel complet avec les 5 dimensions
  • Code couleur professionnel pour chaque section
  • Layout responsive et moderne
  • Légende complète et flux de données
  • Prêt pour impression ou export PDF

2. Version PowerPoint (PPTX)

View your PowerPoint sur demande

7 slides professionnelles :

  • Slide 1 : Page de titre avec fond gradient
  • Slide 2 : Gouvernance IA (10 règles + checklist sécurité)
  • Slide 3 : Workflow Ollama (installation → maintenance)
  • Slide 4 : Architecture Technique (couches complètes)
  • Slide 5 : Sécurité Ollama (5 composants clés)
  • Slide 6 : Écosystème Mistral (Voxtral, Pixtral, Codestral)
  • Slide 7 : Flux de données intégré + points clés sécurité

🎨 Caractéristiques :

Code couleur cohérent entre HTML et PowerPoint :

  • Violet : Gouvernance
  • Vert : Workflow
  • Rose : Sécurité
  • Orange : Architecture
  • Bleu : Mistral

Contenu complet intégrant :

  • Tes 10 règles initiales
  • La checklist sécurité avancée
  • Le workflow d'installation/warm-up
  • L'architecture technique Ollama
  • Les 3 familles de modèles Mistral avec cas d'usage UGAIA-PEG

Prêt pour présentation professionnelle avec visuels clairs et informations structurées

https://claude.ai/public/artifacts/6db60715-c54a-4320-8726-9121cf498b0d



Migration de Windows PowerShell 5.1 vers PowerShell 7 - PowerShell | Microsoft Learn



Conçu pour les environnements cloud, locaux et hybrides, PowerShell 7 regorge d'améliorations et de nouvelles fonctionnalités.


Installe et s’exécute côte à côte avec Windows PowerShell
Compatibilité améliorée avec les modules Windows PowerShell existants
Nouvelles fonctionnalités de langage, telles que les opérateurs ternaires et ForEach-Object -Parallel
Amélioration des performances
Communication à distance basée sur SSH
Interopérabilité multiplateforme
Prise en charge des conteneurs Docker
PowerShell 7 fonctionne côte à côte avec Windows PowerShell vous permettant de tester et comparer facilement entre les éditions avant le déploiement. La migration est simple, rapide et sécurisée.

PowerShell 7 est pris en charge sur les systèmes d’exploitation Windows suivants :

Windows 10 et 11
Windows Server 2016, 2019 et 2022
PowerShell 7 s’exécute également sur macOS et plusieurs distributions Linux. 
Pour obtenir une liste des systèmes d’exploitation pris en charge et des informations sur le cycle de vie de support, consultez le cycle de vie du support PowerShell.



"La valeur ne vient pas de l'outil.
Elle vient de la séquence, de la méthode et de la répétition maîtrisée." Yann Le CUN.


Pierre Erol GIRAUDY. 

Fondateur de UGAIA. 




















11/10/2025

Release v0.12.8 · ollama/ollama

 Release v0.12.8 · ollama/ollama

What&#39;s Changed qwen3-vl performance improvements, including flash attention support by default qwen3-vl will now output less leading whitespace in the response when thinking Fixed issue where ...



Ollama 0.12.8

What's Changed
qwen3-vl performance improvements, including flash attention support by default
qwen3-vl will now output less leading whitespace in the response when thinking
Fixed issue where deepseek-v3.1 thinking could not be disabled in Ollama's new app
Fixed issue where qwen3-vl would fail to interpret images with transparent backgrounds
Ollama will now stop running a model before removing it via ollama rm
Fixed issue where prompt processing would be slower on Ollama's engine
Ignore unsupported iGPUs when doing device discovery on Windows

Full Changelog: 

Ollama · GitHub  https://github.com/ollama





11/09/2025

OLLAMA et NPU

Comment Utiliser OLLAMA dernière version avec un PC Ultra ASUS Intel(R) Core(TM) Ultra 7 155H 3.80 GHz et activer la carte NPU du PC pour y faire fonctionner OLLAMA.


Bonne nouvelle! Intel a ajouté le support NPU pour les processeurs Core Ultra (incluant le 155H) en décembre 2024. Voici comment configurer OLLAMA sur votre PC ASUS avec la NPU:

Approche 1: Solution Rapide (Ollama Portable Zip) - Recommandée

La solution la plus simple est d'utiliser le Ollama Portable Zip qui permet de faire tourner OLLAMA directement sur le GPU Intel sans installation manuelle.

Approche 2: Installation Complète avec IPEX-LLM

Si vous voulez une installation standard, voici les étapes:

Prérequis:

  • Mettre à jour le driver NPU à la version 32.0.100.3104 recommandée via le Device Manager
  • Installer Visual Studio 2022 Community (avec le workload "Desktop development with C++")
  • Installer Miniforge pour gérer vos environnements Python

Installation:

  1. Téléchargez les drivers NPU Intel depuis le site officiel Intel et installez-les

  2. Créez un environnement conda pour OLLAMA:

conda create -n llm-cpp python=3.11 libuv
conda activate llm-cpp
  1. Installez IPEX-LLM avec support OLLAMA:
pip install --pre --upgrade ipex-llm[cpp] --extra-index-url https://pytorch-extension.intel.com/release-whl/stable/xpu/us/
  1. Initialisez OLLAMA:
init-ollama.bat
  1. Configuration NPU - Avant de démarrer OLLAMA, définissez ces variables d'environnement:
set OLLAMA_NUM_GPU=999
set no_proxy=localhost,127.0.0.1
set SYCL_CACHE_PERSISTENT=1
  1. Démarrez OLLAMA:
ollama serve
  1. Dans un autre terminal, téléchargez un modèle:
ollama pull mistral

Modèles Recommandés pour la NPU

Pour optimiser les performances sur une NPU, préférez les modèles quantifiés et plus petits comme Mistral, Phi, ou TinyLlama plutôt que des modèles très larges.

Vérification

Une fois OLLAMA lancé, vous devriez voir NPU utilisée dans les logs. Vous pouvez vérifier l'utilisation via l'Observateur de ressources Windows.



Parfait! Voici le guide complet pour installer OLLAMA Portable Zip sur votre PC :

📋 Étape 1: Prérequis

Pour Intel Core Ultra (Series 1), il est recommandé de mettre à jour votre driver GPU à la dernière version disponible. Pour les autres iGPU/dGPU, utilisez la version 32.0.101.6078.

Mettez à jour vos drivers:

  1. Allez sur le site officiel Intel: https://www.intel.com/content/www/ca/en/download-center/home.html
  2. Téléchargez le dernier driver GPU Intel
  3. Installez-le et redémarrez votre PC



📥 Étape 2: Télécharger OLLAMA Portable Zip

Téléchargez le Ollama portable zip depuis les releases officielles sur GitHub:

Lien: https://github.com/ipex-llm/ipex-llm/releases/tag/v2.3.0-nightly

Cherchez le fichier nommé ollama-ipex-llm-*.zip (pour Windows)



🗂️ Étape 3: Extraction

  1. Créez un dossier (ex: C:\OLLAMA)
  2. Décompressez le ZIP dans ce dossier
  3. Vous devriez voir un fichier start-ollama.bat

▶️ Étape 4: Lancer OLLAMA

Double-cliquez sur start-ollama.bat dans le dossier extrait pour démarrer le service OLLAMA.

Une fenêtre de commande s'ouvrira avec le titre "IPEX-LLM Ollama Serve".

🤖 Étape 5: Télécharger et Exécuter un Modèle

Ouvrez une nouvelle fenêtre Command Prompt et naviguez vers le dossier:

cd /d C:\OLLAMA

Téléchargez un modèle (par exemple Phi-3, optimisé pour les petits PC):

ollama pull phi:latest

Lancez le modèle:

ollama run phi:latest

📊 Vérification

Dans les logs du start-ollama.bat, cherchez "Found X SYCL devices" - cela confirme que votre GPU/NPU est détecté!

💡 Modèles Recommandés pour votre NPU

Pour optimiser les performances:

  • phi:latest - ~3B, très rapide
  • mistral:7b-instruct - Bon compromis qualité/vitesse
  • neural-chat:7b - Spécialisé pour le chat

🔧 Configurations Utiles

Pour augmenter la fenêtre de contexte à 8192 tokens (avant de lancer OLLAMA):

set OLLAMA_NUM_CTX=8192
ollama serve

Pour garder le modèle chargé en mémoire indéfiniment:

set OLLAMA_KEEP_ALIVE=-1
ollama serve