mercredi 8 octobre 2025

Gérer Ollama avec PowerShell

 Gérer Ollama avec PowerShell 💻

Pour administrer un serveur Ollama sous Windows 11, vous pouvez utiliser des scripts PowerShell (PS1). Ces scripts simplifient des tâches courantes comme le démarrage, l'arrêt, la vérification du statut ou la gestion des modèles. Voici quelques exemples de scripts que vous pouvez utiliser.


Scripts PowerShell pour Ollama

1. Démarrer et arrêter le service Ollama

Ces commandes sont essentielles pour contrôler l'état du serveur Ollama. Le service par défaut est nommé ollama.

  • Démarrer le service

    Ce script lance le service Ollama.

    PowerShell
    # Démarre le service Ollama
    Start-Service -Name "ollama"
    Write-Host "Le service Ollama a été démarré."
    
  • Arrêter le service

    Ce script arrête le service Ollama, ce qui peut être utile pour libérer des ressources ou effectuer des mises à jour.

    PowerShell
    # Arrête le service Ollama
    Stop-Service -Name "ollama"
    Write-Host "Le service Ollama a été arrêté."
    

2. Vérifier le statut du service Ollama

Pour vous assurer que le service fonctionne correctement, vous pouvez utiliser ce script.

PowerShell
# Vérifie le statut du service Ollama
$status = Get-Service -Name "ollama"
Write-Host "Statut du service Ollama :"
Write-Host "  Nom: $($status.Name)"
Write-Host "  Statut: $($status.Status)"
Write-Host "  Démarrage: $($status.StartType)"

# Affiche un message plus explicite
if ($status.Status -eq "Running") {
    Write-Host "Le service Ollama est en cours d'exécution. ✅"
} else {
    Write-Host "Le service Ollama n'est pas en cours d'exécution. ❌"
}

Scripts pour la gestion des modèles

Les commandes PowerShell peuvent aussi interagir avec l'exécutable ollama.exe directement pour gérer les modèles. Assurez-vous que le répertoire où se trouve ollama.exe est dans votre PATH ou spécifiez le chemin complet. Le chemin par défaut est souvent %LOCALAPPDATA%\Ollama.

1. Télécharger un modèle

Ce script télécharge un modèle spécifique depuis le registre Ollama. Remplacez "nom_du_modele" par le modèle de votre choix (par exemple, "llama3").

PowerShell
# Télécharge un modèle Ollama
$modelName = "llama3" # Remplacez par le nom du modèle que vous voulez
$ollamaPath = "$env:LOCALAPPDATA\Ollama\ollama.exe"

Write-Host "Téléchargement du modèle '$modelName'..."
& $ollamaPath pull $modelName

if ($LASTEXITCODE -eq 0) {
    Write-Host "Le modèle '$modelName' a été téléchargé avec succès. ✅"
} else {
    Write-Host "Échec du téléchargement du modèle '$modelName'. ❌"
}

2. Supprimer un modèle

Ce script supprime un modèle pour libérer de l'espace disque.

PowerShell
# Supprime un modèle Ollama
$modelName = "llama3" # Remplacez par le nom du modèle à supprimer
$ollamaPath = "$env:LOCALAPPDATA\Ollama\ollama.exe"

Write-Host "Suppression du modèle '$modelName'..."
& $ollamaPath rm $modelName

if ($LASTEXITCODE -eq 0) {
    Write-Host "Le modèle '$modelName' a été supprimé avec succès. ✅"
} else {
    Write-Host "Échec de la suppression du modèle '$modelName'. ❌"
}

3. Lister les modèles installés

Ce script affiche la liste de tous les modèles actuellement installés sur votre machine.

PowerShell
# Liste les modèles Ollama installés
$ollamaPath = "$env:LOCALAPPDATA\Ollama\ollama.exe"

Write-Host "Liste des modèles Ollama installés :"
& $ollamaPath list

Conseils d'administration supplémentaires

  • Variables d'environnement : Vous pouvez stocker le chemin de l'exécutable Ollama dans une variable d'environnement pour rendre vos scripts plus portables et faciles à lire, par exemple : $ollamaPath = "C:\Program Files\Ollama\ollama.exe".

  • Gestion des erreurs : Ajoutez des blocs try/catch pour gérer les erreurs de manière plus robuste, par exemple si un service ne se trouve pas.

  • Automatisation : Combinez ces scripts dans des fichiers .ps1 pour créer des tâches automatisées, comme une vérification régulière du service ou une mise à jour des modèles. Vous pouvez les planifier via le Planificateur de tâches de Windows.

https://learn.microsoft.com/fr-fr/powershell/utility-modules/aishell/developer/ollama-agent-readme?view=ps-modules

Guide pratique pour utiliser la documentation PowerShell - PowerShell | Microsoft Learn

https://learn.microsoft.com/fr-fr/powershell/scripting/how-to-use-docs?view=powershell-7.5

Comment créer un agent pour Ollama - PowerShell | Microsoft Learn

https://learn.microsoft.com/fr-fr/powershell/utility-modules/aishell/developer/create-ollama-agent?view=ps-modules&source=recommendations

W11 :


Learn  PowerShell  Modules utilitaires 

Plug-in Ollama

17/05/2025

Dans cet article

Conditions préalables à l’utilisation de l’agent

Paramétrage

Limitations connues

Cet agent est utilisé pour interagir avec un modèle de langage exécuté localement en utilisant l’API Ollama. Avant d’utiliser cet agent, vous devez installer et exécuter Ollama. Pour créer un agent, vous devez implémenter l’interface IAgent .

Vous pouvez également utiliser cet exemple de code comme modèle pour créer votre propre agent.


Conditions préalables à l’utilisation de l’agent

Installer Ollama

Installez un modèle Ollama, nous vous suggérons d’utiliser le phi3 modèle car il est défini comme modèle par défaut dans le code

Démarrer le serveur d’API Ollama

Paramétrage

Pour modifier le modèle, vous devez modifier la requête dans le code de la classe OllamaChatService. Le modèle par défaut est phi3.


Le point de terminaison par défaut est http://localhost:11434/api/generate avec 11434 étant le port par défaut. Cela peut être modifié dans le code et éventuellement être ajouté à un fichier de configuration.


Une version mise à jour de l’agent Ollama est disponible dans le dépôt AI Shell. Voir le fichier README pour le plugin Ollama.


Limitations connues

Il n’y a pas d’historique partagé entre les requêtes afin que le modèle ne puisse pas mémoriser les requêtes précédentes

La diffusion en continu n’est actuellement pas prise en charge si vous modifiez la valeur de flux en true dans les données à envoyer à l’API qu’elle ne fonctionnera pas

Commentaires

Cette page a-t-elle été utile ?


Ressources supplémentaires

Documentation


Comment créer un agent pour Ollama - PowerShell


Découvrez comment créer un agent pour le modèle de langage Ollama dans AI Shell.


Architecture d’AI Shell - PowerShell

Cet article explique l’architecture d’AI Shell et d’API requise pour prendre en charge les agents.

Agent OpenAI - PowerShell

Découvrez comment configurer l’agent OpenAI.

Afficher 2 de plus

Entrainement

Module

Projet de défi - Créer un agent déclaratif pour discuter avec vos données - Training

Démontrez votre capacité à créer un agent déclaratif pour les Microsoft 365 Copilot qui accèdent aux données à partir d’une API externe.


Avantages de l'architecture composable : 

Échangez facilement des modèles et des outils. Calcul hybride : Combinez la vitesse des petits modèles locaux (via Ollama) avec les outils web cloud de Tavily. 

Modèles de production : Exploitez la journalisation, les métriques, les variables d'environnement, la gestion des erreurs et la mémoire de session. 

Les métriques sont essentielles pour comprendre les performances des agents, optimiser leurs comportements et surveiller l'utilisation des ressources. 

Le SDK Strands Agents fournit des métriques complètes, vous permettant de visualiser le fonctionnement de vos agents. 

Il suit automatiquement les statistiques clés, notamment l'utilisation des jetons, la latence, l'utilisation des outils et les cycles d'événements, tout au long de l'exécution.

(5) Build a Web Research Agent with Strands Agents, Ollama, Qwen3, and Tavily MCP Server | LinkedIn



Aucun commentaire:

Enregistrer un commentaire

Merci pour ce commentaire