dimanche 14 décembre 2025

GUIDE - LANCER OLLAMA SANS CONSOLE

 

🎨 GUIDE - LANCER OLLAMA GRAPHIQUEMENT SANS CONSOLE.


3 Méthodes simples pour utiliser Ollama avec des boutons/icônes


🚀 MÉTHODE 1 : LANCEURS D'APPLICATIONS (RECOMMANDÉ)

Installation automatique

chmod +x create-ollama-launchers.sh
./create-ollama-launchers.sh

Ce que ça crée :

1. Icônes dans le menu Applications

  • 🤖 Ollama Manager - Menu principal pour tout gérer
  • 📥 Télécharger un modèle - Installer de nouveaux modèles
  • 📊 État du système - Voir l'état d'Ollama
  • 💬 Un lanceur par modèle - Ex: "Ollama - Mistral", "Ollama - Qwen2.5"

2. Comment les utiliser ?

Sur Ubuntu/GNOME :

  1. Appuyez sur la touche Super (touche Windows)
  2. Tapez "Ollama"
  3. Cliquez sur l'icône voulue

Sur KDE/XFCE :

  1. Ouvrez le menu Applications
  2. Cherchez "Ollama" ou allez dans Développement/Utilitaires

3. Raccourci Bureau (optionnel)

  • Le script propose de créer une icône sur le bureau
  • Double-clic pour lancer directement

🎯 MÉTHODE 2 : INTERFACE WEB (TRÈS SIMPLE)

Installer une interface Web pour Ollama

# Installation d'Open WebUI (interface graphique moderne)
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Ou sans Docker (plus simple) :

# Installation via pip
pip install open-webui
open-webui serve

Utilisation :

  1. Ouvrez votre navigateur
  2. Allez sur http://localhost:3000
  3. Interface type ChatGPT pour Ollama !

Avantages :

  • ✅ Interface moderne et belle
  • ✅ Historique des conversations
  • ✅ Gestion des modèles par clic
  • ✅ Comme ChatGPT mais local

💻 MÉTHODE 3 : RACCOURCIS CLAVIER (ULTRA-RAPIDE)

Créer un raccourci clavier global

Sur Ubuntu/GNOME :

  1. Ouvrez ParamètresClavierRaccourcis personnalisés
  2. Cliquez sur "+" pour ajouter
  3. Remplissez :
Nom: Lancer Ollama
Commande: gnome-terminal -- ollama run qwen2.5:3b
Raccourci: Ctrl+Alt+O
  1. Maintenant : Ctrl+Alt+O = Ollama se lance !

Pour chaque modèle :

  • Ctrl+Alt+1 → Mistral
  • Ctrl+Alt+2 → Qwen2.5
  • Ctrl+Alt+3 → DeepSeek
  • etc.

📱 MÉTHODE 4 : EXTENSION GNOME (Pour Ubuntu)

Installer une extension Ollama pour la barre supérieure

# Installation de l'extension manager
sudo apt install gnome-shell-extension-manager

# Ensuite :
# 1. Ouvrez "Extension Manager"
# 2. Cherchez "Ollama" ou "AI Assistant"
# 3. Installez l'extension
# 4. Une icône apparaît dans votre barre supérieure

🎨 COMPARATIF DES MÉTHODES

Méthode Facilité Visuel Idéal pour
Lanceurs ⭐⭐⭐⭐⭐ ⭐⭐⭐ Usage quotidien
Web UI ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ Préférence interface web
Raccourcis ⭐⭐⭐⭐ ⭐⭐ Power users
Extension ⭐⭐⭐ ⭐⭐⭐⭐ Ubuntu/GNOME uniquement

🔥 SOLUTION COMPLÈTE : TOUT EN UN

Créer un lanceur "Ollama Hub" personnalisé

Voici un script qui crée une interface graphique simple avec zenity (déjà installé sur Ubuntu) :

#!/bin/bash
# Sauvegarder comme ~/ollama-gui.sh

ACTION=$(zenity --list \
  --title="Ollama - Hub" \
  --text="Que voulez-vous faire ?" \
  --column="Action" \
  --height=400 \
  --width=400 \
  "Lancer Mistral" \
  "Lancer Qwen2.5" \
  "Lancer Llama3.2" \
  "Télécharger un modèle" \
  "Voir les modèles installés" \
  "État du système" \
  "Redémarrer Ollama")

case "$ACTION" in
  "Lancer Mistral")
    gnome-terminal -- ollama run mistral
    ;;
  "Lancer Qwen2.5")
    gnome-terminal -- ollama run qwen2.5:3b
    ;;
  "Lancer Llama3.2")
    gnome-terminal -- ollama run llama3.2:3b
    ;;
  "Télécharger un modèle")
    MODEL=$(zenity --entry --title="Télécharger" --text="Nom du modèle :")
    if [ -n "$MODEL" ]; then
      gnome-terminal -- bash -c "ollama pull $MODEL; read -p 'Terminé. Appuyez sur Entrée...'"
    fi
    ;;
  "Voir les modèles installés")
    LIST=$(ollama list)
    zenity --text-info --title="Modèles installés" --width=600 --height=400 <<< "$LIST"
    ;;
  "État du système")
    gnome-terminal -- bash -c "~/ollama-status.sh 2>/dev/null || (echo 'État Ollama:'; systemctl status ollama); read -p 'Appuyez sur Entrée...'"
    ;;
  "Redémarrer Ollama")
    pkexec systemctl restart ollama
    zenity --info --text="Ollama redémarré avec succès !"
    ;;
esac

Installer :

chmod +x ~/ollama-gui.sh

# Créer un lanceur pour ce script
cat > ~/.local/share/applications/ollama-hub.desktop <<EOF
[Desktop Entry]
Version=1.0
Type=Application
Name=Ollama Hub
Comment=Interface graphique pour Ollama
Exec=$HOME/ollama-gui.sh
Icon=applications-utilities
Terminal=false
Categories=Development;Utility;
EOF

chmod +x ~/.local/share/applications/ollama-hub.desktop

🎯 RECOMMANDATION FINALE

Pour 90% des utilisateurs :

Méthode 1 + Ollama Hub personnalisé

# 1. Créer les lanceurs de base
./create-ollama-launchers.sh

# 2. Installer l'Ollama Hub graphique
chmod +x ~/ollama-gui.sh
# (code ci-dessus)

# 3. Optionnel : Interface web
pip install open-webui

Résultat :

  • ✅ Icônes dans le menu Applications
  • ✅ Interface graphique avec boutons
  • ✅ Interface web style ChatGPT
  • ✅ Aucune console nécessaire !

📸 À QUOI ÇA RESSEMBLE

Lanceurs dans le menu :

Applications
  └─ Développement
      ├─ 🤖 Ollama Manager
      ├─ 💬 Ollama - Mistral
      ├─ 💬 Ollama - Qwen2.5
      ├─ 📥 Télécharger un modèle
      └─ 📊 État du système

Ollama Hub (zenity) :

╔════════════════════════════╗
║      Ollama - Hub          ║
╠════════════════════════════╣
║  Lancer Mistral            ║
║  Lancer Qwen2.5            ║
║  Télécharger un modèle     ║
║  Voir les modèles          ║
║  État du système           ║
╚════════════════════════════╝
     [OK]      [Annuler]

Open WebUI (navigateur) :

┌─────────────────────────────────────┐
│  ☰  Open WebUI           [Modèles] │
├─────────────────────────────────────┤
│                                     │
│  💬 Nouvelle conversation           │
│  📝 Historique                      │
│  ⚙️  Paramètres                     │
│                                     │
│  ┌───────────────────────────────┐ │
│  │ Entrez votre message...       │ │
│  └───────────────────────────────┘ │
└─────────────────────────────────────┘

🚀 INSTALLATION RAPIDE (TOUT EN UNE COMMANDE)

# Installation complète interface graphique
chmod +x create-ollama-launchers.sh
./create-ollama-launchers.sh

C'est tout ! Vous pouvez maintenant utiliser Ollama sans jamais ouvrir la console ! 🎉


❓ FAQ

Q: Dois-je choisir une seule méthode ? R: Non ! Vous pouvez utiliser toutes les méthodes en même temps.

Q: Quelle est la plus simple ? R: Les lanceurs d'applications (Méthode 1). Un clic et c'est parti.

Q: Et si je veux une belle interface ? R: Open WebUI (Méthode 2) est parfaite. Interface moderne type ChatGPT.

Q: Ça marche sur toutes les distributions Linux ? R: Les lanceurs marchent partout. Open WebUI aussi. Extensions GNOME = Ubuntu uniquement.

Q: Je peux personnaliser les icônes ? R: Oui ! Modifiez simplement le fichier .desktop et changez Icon=...

A tester

#!/bin/bash


# Ollama Hub - Interface graphique simple avec Zenity

# Double-clic pour lancer, aucune console nécessaire


# Vérifier que zenity est installé

if ! command -v zenity &> /dev/null; then

    # Installer zenity si nécessaire

    if command -v apt &> /dev/null; then

        pkexec apt install -y zenity

    else

        echo "Veuillez installer zenity manuellement"

        exit 1

    fi

fi


# Vérifier qu'Ollama est installé

if ! command -v ollama &> /dev/null; then

    zenity --error --text="Ollama n'est pas installé.\n\nInstallez-le d'abord avec :\n./ollama-install-optimized.sh"

    exit 1

fi


# Fonction pour lister les modèles

get_models() {

    ollama list 2>/dev/null | tail -n +2 | awk '{print $1}' | grep -v "^$"

}


# Boucle principale

while true; do

    # Récupérer les modèles installés

    MODELS=$(get_models)

    

    # Créer les options du menu

    OPTIONS=()

    

    # Ajouter les modèles installés

    if [ -n "$MODELS" ]; then

        while IFS= read -r model; do

            OPTIONS+=("FALSE" "💬 Lancer $model")

        done <<< "$MODELS"

    fi

    

    # Ajouter les actions système

    OPTIONS+=(

        "FALSE" "📥 Télécharger un nouveau modèle"

        "FALSE" "📋 Voir les modèles installés"

        "FALSE" "📊 État du système Ollama"

        "FALSE" "🗑️ Supprimer un modèle"

        "FALSE" "🔄 Redémarrer le service Ollama"

        "FALSE" "❌ Quitter"

    )

    

    # Afficher le menu

    CHOICE=$(zenity --list \

        --title="🤖 Ollama Hub" \

        --text="Que voulez-vous faire ?" \

        --radiolist \

        --column="" --column="Action" \

        "${OPTIONS[@]}" \

        --height=500 \

        --width=450 \

        2>/dev/null)

    

    # Si l'utilisateur annule

    if [ $? -ne 0 ]; then

        exit 0

    fi

    

    # Traiter le choix

    case "$CHOICE" in

        "❌ Quitter")

            exit 0

            ;;

            

        "📥 Télécharger un nouveau modèle")

            # Afficher les recommandations

            INFO="MODÈLES RECOMMANDÉS\n\n"

            INFO+="Pour 8GB RAM :\n"

            INFO+="• llama3.2:3b (conversation)\n"

            INFO+="• qwen2.5:3b (code + mixte)\n"

            INFO+="• gemma:2b (ultra-rapide)\n\n"

            INFO+="Pour 16GB RAM :\n"

            INFO+="• mistral:7b (polyvalent)\n"

            INFO+="• deepseek-coder:6.7b (code)\n"

            INFO+="• qwen2.5:7b (multilingue)\n\n"

            INFO+="Entrez le nom du modèle :"

            

            MODEL=$(zenity --entry \

                --title="Télécharger un modèle" \

                --text="$INFO" \

                --width=400 \

                2>/dev/null)

            

            if [ -n "$MODEL" ]; then

                # Télécharger le modèle avec une barre de progression

                (

                    echo "10" ; echo "# Connexion au serveur Ollama..."

                    sleep 1

                    echo "30" ; echo "# Téléchargement de $MODEL en cours..."

                    ollama pull "$MODEL" 2>&1 | while read line; do

                        echo "50" ; echo "# $line"

                    done

                    echo "100" ; echo "# Téléchargement terminé !"

                ) | zenity --progress \

                    --title="Téléchargement" \

                    --text="Téléchargement de $MODEL..." \

                    --percentage=0 \

                    --auto-close \

                    --width=400 \

                    2>/dev/null

                

                if [ $? -eq 0 ]; then

                    zenity --info --text="✅ Modèle $MODEL téléchargé avec succès !" --width=300 2>/dev/null

                else

                    zenity --error --text="❌ Erreur lors du téléchargement de $MODEL" --width=300 2>/dev/null

                fi

            fi

            ;;

            

        "📋 Voir les modèles installés")

            LIST=$(ollama list 2>&1)

            zenity --text-info \

                --title="📦 Modèles installés" \

                --width=700 \

                --height=400 \

                --filename=<(echo "$LIST") \

                2>/dev/null

            ;;

            

        "📊 État du système Ollama")

            # Créer un rapport d'état

            REPORT="═══════════════════════════════════════\n"

            REPORT+="       ÉTAT DU SYSTÈME OLLAMA\n"

            REPORT+="═══════════════════════════════════════\n\n"

            

            # Service

            REPORT+="📊 SERVICE\n"

            if systemctl is-active --quiet ollama; then

                REPORT+="✅ Statut : ACTIF\n"

            else

                REPORT+="❌ Statut : INACTIF\n"

            fi

            REPORT+="\n"

            

            # RAM

            REPORT+="💾 MÉMOIRE RAM\n"

            REPORT+=$(free -h | grep Mem | awk '{print "Total: "$2" | Utilisé: "$3" | Libre: "$4}')

            REPORT+="\n\n"

            

            # Modèles

            REPORT+="📦 MODÈLES INSTALLÉS\n"

            MODEL_COUNT=$(get_models | wc -l)

            REPORT+="Nombre : $MODEL_COUNT\n\n"

            

            # GPU (si disponible)

            if command -v nvidia-smi &> /dev/null; then

                REPORT+="🎮 GPU NVIDIA\n"

                GPU_INFO=$(nvidia-smi --query-gpu=name,memory.used,memory.total --format=csv,noheader 2>/dev/null)

                REPORT+="$GPU_INFO\n"

            fi

            

            zenity --text-info \

                --title="État du système" \

                --width=600 \

                --height=400 \

                --filename=<(echo -e "$REPORT") \

                2>/dev/null

            ;;

            

        "🗑️ Supprimer un modèle")

            if [ -z "$MODELS" ]; then

                zenity --error --text="Aucun modèle installé" --width=300 2>/dev/null

            else

                MODEL=$(zenity --list \

                    --title="Supprimer un modèle" \

                    --text="Choisissez le modèle à supprimer :" \

                    --column="Modèle" \

                    $MODELS \

                    --height=300 \

                    --width=400 \

                    2>/dev/null)

                

                if [ -n "$MODEL" ]; then

                    if zenity --question --text="Êtes-vous sûr de vouloir supprimer $MODEL ?" --width=300 2>/dev/null; then

                        ollama rm "$MODEL" 2>&1

                        if [ $? -eq 0 ]; then

                            zenity --info --text="✅ Modèle $MODEL supprimé" --width=300 2>/dev/null

                        else

                            zenity --error --text="❌ Erreur lors de la suppression" --width=300 2>/dev/null

                        fi

                    fi

                fi

            fi

            ;;

            

        "🔄 Redémarrer le service Ollama")

            (

                echo "30" ; echo "# Arrêt du service..."

                pkexec systemctl stop ollama

                echo "60" ; echo "# Démarrage du service..."

                pkexec systemctl start ollama

                sleep 1

                echo "100" ; echo "# Service redémarré !"

            ) | zenity --progress \

                --title="Redémarrage" \

                --text="Redémarrage du service Ollama..." \

                --percentage=0 \

                --auto-close \

                --width=400 \

                2>/dev/null

            

            zenity --info --text="✅ Service Ollama redémarré" --width=300 2>/dev/null

            ;;

            

        💬*)

            # Lancer un modèle

            MODEL=$(echo "$CHOICE" | sed 's/💬 Lancer //')

            

            # Vérifier le terminal disponible

            if command -v gnome-terminal &> /dev/null; then

                gnome-terminal --title="Ollama - $MODEL" -- bash -c "ollama run '$MODEL'; exec bash" &

            elif command -v xfce4-terminal &> /dev/null; then

                xfce4-terminal --title="Ollama - $MODEL" -e "bash -c 'ollama run $MODEL; exec bash'" &

            elif command -v konsole &> /dev/null; then

                konsole --title "Ollama - $MODEL" -e bash -c "ollama run '$MODEL'; exec bash" &

            elif command -v xterm &> /dev/null; then

                xterm -T "Ollama - $MODEL" -e bash -c "ollama run '$MODEL'; exec bash" &

            else

                zenity --error --text="Aucun émulateur de terminal trouvé" --width=300 2>/dev/null

            fi

            

            # Petit délai pour laisser le terminal s'ouvrir

            sleep 0.5

            ;;

    esac

done

A tester

#!/usr/bin/env bash


# Script de création de lanceurs graphiques pour Ollama

# Crée des boutons/icônes cliquables sur Ubuntu


set -e


RED='\033[0;31m'

GREEN='\033[0;32m'

YELLOW='\033[1;33m'

BLUE='\033[0;34m'

NC='\033[0m'


info() { echo -e "${BLUE}ℹ${NC} $1"; }

success() { echo -e "${GREEN}✅${NC} $1"; }

warning() { echo -e "${YELLOW}⚠️${NC} $1"; }

error() { echo -e "${RED}❌${NC} $1"; }


clear

echo "╔════════════════════════════════════════════╗"

echo "║   CRÉATION LANCEURS GRAPHIQUES OLLAMA      ║"

echo "║   Boutons cliquables pour Ubuntu           ║"

echo "╚════════════════════════════════════════════╝"

echo ""


# Vérifier qu'Ollama est installé

if ! command -v ollama &> /dev/null; then

    error "Ollama n'est pas installé !"

    info "Installez d'abord Ollama avec : ./ollama-install-optimized.sh"

    exit 1

fi


# Détecter l'environnement de bureau

DESKTOP_ENV="unknown"

if [ "$XDG_CURRENT_DESKTOP" = "GNOME" ] || [ "$XDG_CURRENT_DESKTOP" = "ubuntu:GNOME" ]; then

    DESKTOP_ENV="GNOME"

elif [ "$XDG_CURRENT_DESKTOP" = "KDE" ]; then

    DESKTOP_ENV="KDE"

elif [ "$XDG_CURRENT_DESKTOP" = "XFCE" ]; then

    DESKTOP_ENV="XFCE"

fi


info "Environnement détecté : $DESKTOP_ENV"

echo ""


# Créer le répertoire pour les icônes personnalisées

ICONS_DIR="$HOME/.local/share/icons/ollama"

mkdir -p "$ICONS_DIR"


# Télécharger une icône Ollama simple (ou créer une basique)

info "Création de l'icône Ollama..."


# Créer une icône SVG simple

cat > "$ICONS_DIR/ollama-icon.svg" <<'ICON_EOF'

<?xml version="1.0" encoding="UTF-8"?>

<svg width="128" height="128" xmlns="http://www.w3.org/2000/svg">

  <circle cx="64" cy="64" r="60" fill="#000000"/>

  <text x="64" y="80" font-family="Arial" font-size="60" fill="#FFFFFF" text-anchor="middle" font-weight="bold">O</text>

</svg>

ICON_EOF


success "Icône créée : $ICONS_DIR/ollama-icon.svg"

echo ""


# Répertoire des applications

APPS_DIR="$HOME/.local/share/applications"

mkdir -p "$APPS_DIR"


# Lister les modèles installés

info "Détection des modèles installés..."

MODELS=$(ollama list | tail -n +2 | awk '{print $1}')


if [ -z "$MODELS" ]; then

    warning "Aucun modèle installé. Installez d'abord un modèle avec :"

    echo "  ollama pull llama3.2:3b"

    exit 1

fi


echo "Modèles détectés :"

echo "$MODELS" | while read model; do

    echo "  • $model"

done

echo ""


# Créer un lanceur pour chaque modèle

MODEL_COUNT=0

for MODEL in $MODELS; do

    MODEL_NAME=$(echo "$MODEL" | sed 's/:/-/g')

    DESKTOP_FILE="$APPS_DIR/ollama-$MODEL_NAME.desktop"

    

    info "Création du lanceur pour : $MODEL"

    

    cat > "$DESKTOP_FILE" <<EOF

[Desktop Entry]

Version=1.0

Type=Application

Name=Ollama - $MODEL

Comment=Lancer une conversation avec le modèle $MODEL

Exec=gnome-terminal --title="Ollama - $MODEL" -- bash -c "ollama run $MODEL; exec bash"

Icon=$ICONS_DIR/ollama-icon.svg

Terminal=false

Categories=Development;Utility;

Keywords=ai;llm;ollama;chatbot;

StartupNotify=true

EOF

    

    chmod +x "$DESKTOP_FILE"

    success "Lanceur créé : $DESKTOP_FILE"

    MODEL_COUNT=$((MODEL_COUNT + 1))

done


echo ""


# Créer des lanceurs utilitaires

info "Création des lanceurs utilitaires..."


# 1. Gestionnaire Ollama (interface principale)

cat > "$APPS_DIR/ollama-manager.desktop" <<'EOF'

[Desktop Entry]

Version=1.0

Type=Application

Name=Ollama Manager

Comment=Gérer les modèles et le service Ollama

Exec=gnome-terminal --title="Ollama Manager" -- bash -c "

clear

echo '╔════════════════════════════════════════════╗'

echo '║         OLLAMA MANAGER                     ║'

echo '╚════════════════════════════════════════════╝'

echo ''

echo 'Que voulez-vous faire ?'

echo ''

echo '  1) Lancer un modèle'

echo '  2) Télécharger un nouveau modèle'

echo '  3) Supprimer un modèle'

echo '  4) Voir l'\''état du système'

echo '  5) Redémarrer le service Ollama'

echo '  6) Quitter'

echo ''

read -p 'Votre choix [1-6] : ' choice

case \$choice in

  1)

    echo ''

    echo 'Modèles disponibles :'

    ollama list

    echo ''

    read -p 'Entrez le nom du modèle : ' model

    ollama run \$model

    ;;

  2)

    echo ''

    echo 'Modèles populaires :'

    echo '  • llama3.2:3b (8GB RAM)'

    echo '  • qwen2.5:3b (8GB RAM - code)'

    echo '  • mistral:7b (16GB RAM)'

    echo '  • deepseek-coder:6.7b (16GB RAM - code)'

    echo ''

    read -p 'Entrez le nom du modèle à télécharger : ' model

    ollama pull \$model

    read -p 'Appuyez sur Entrée pour continuer...'

    ;;

  3)

    echo ''

    ollama list

    echo ''

    read -p 'Entrez le nom du modèle à supprimer : ' model

    ollama rm \$model

    read -p 'Appuyez sur Entrée pour continuer...'

    ;;

  4)

    clear

    echo 'État du système Ollama :'

    echo ''

    echo '📊 Service :'

    systemctl is-active ollama && echo '  ✅ Actif' || echo '  ❌ Inactif'

    echo ''

    echo '📦 Modèles installés :'

    ollama list

    echo ''

    echo '💾 RAM :'

    free -h | grep Mem

    echo ''

    read -p 'Appuyez sur Entrée pour continuer...'

    ;;

  5)

    sudo systemctl restart ollama

    echo 'Service Ollama redémarré'

    read -p 'Appuyez sur Entrée pour continuer...'

    ;;

  6)

    exit 0

    ;;

esac

exec bash"

Icon=$ICONS_DIR/ollama-icon.svg

Terminal=false

Categories=Development;Utility;

Keywords=ai;llm;ollama;manager;

StartupNotify=true

EOF


chmod +x "$APPS_DIR/ollama-manager.desktop"

success "Lanceur utilitaire créé : Ollama Manager"


# 2. Télécharger un modèle

cat > "$APPS_DIR/ollama-download.desktop" <<EOF

[Desktop Entry]

Version=1.0

Type=Application

Name=Ollama - Télécharger un modèle

Comment=Télécharger un nouveau modèle Ollama

Exec=gnome-terminal --title="Télécharger un modèle Ollama" -- bash -c "

clear

echo '╔════════════════════════════════════════════╗'

echo '║    TÉLÉCHARGER UN MODÈLE OLLAMA            ║'

echo '╚════════════════════════════════════════════╝'

echo ''

echo 'Modèles recommandés :'

echo ''

echo 'POUR 8GB RAM :'

echo '  • llama3.2:3b         - Conversation'

echo '  • qwen2.5:3b          - Code + Mixte'

echo '  • gemma:2b            - Ultra-rapide'

echo ''

echo 'POUR 16GB RAM :'

echo '  • mistral:7b          - Polyvalent'

echo '  • deepseek-coder:6.7b - Code spécialisé'

echo '  • qwen2.5:7b          - Code + Multilingue'

echo ''

read -p 'Entrez le nom du modèle : ' model

echo ''

echo 'Téléchargement de \$model...'

ollama pull \$model

echo ''

echo '✅ Modèle téléchargé !'

echo ''

read -p 'Appuyez sur Entrée pour fermer...'

"

Icon=$ICONS_DIR/ollama-icon.svg

Terminal=false

Categories=Development;Utility;

StartupNotify=true

EOF


chmod +x "$APPS_DIR/ollama-download.desktop"

success "Lanceur utilitaire créé : Télécharger un modèle"


# 3. Voir l'état du système

if [ -f "$HOME/ollama-status.sh" ]; then

    cat > "$APPS_DIR/ollama-status.desktop" <<EOF

[Desktop Entry]

Version=1.0

Type=Application

Name=Ollama - État du système

Comment=Voir l'état du système Ollama

Exec=gnome-terminal --title="État Ollama" -- bash -c "$HOME/ollama-status.sh; read -p 'Appuyez sur Entrée pour fermer...'"

Icon=$ICONS_DIR/ollama-icon.svg

Terminal=false

Categories=Development;Utility;

StartupNotify=true

EOF

    chmod +x "$APPS_DIR/ollama-status.desktop"

    success "Lanceur utilitaire créé : État du système"

fi


echo ""


# Mettre à jour le cache des applications

info "Mise à jour du cache des applications..."

update-desktop-database "$APPS_DIR" 2>/dev/null || true


echo ""

echo "╔════════════════════════════════════════════╗"

echo "║         LANCEURS CRÉÉS AVEC SUCCÈS         ║"

echo "╚════════════════════════════════════════════╝"

echo ""

success "✅ $MODEL_COUNT lanceur(s) de modèle créé(s)"

success "✅ 3 lanceurs utilitaires créés"

echo ""

info "Comment accéder aux lanceurs ?"

echo ""


if [ "$DESKTOP_ENV" = "GNOME" ]; then

    echo "📱 GNOME / Ubuntu :"

    echo "  1. Appuyez sur la touche 'Super' (Windows)"

    echo "  2. Tapez 'Ollama'"

    echo "  3. Cliquez sur le lanceur souhaité"

    echo ""

    echo "OU"

    echo ""

    echo "  1. Ouvrez 'Applications'"

    echo "  2. Cherchez dans la catégorie 'Développement' ou 'Utilitaires'"

elif [ "$DESKTOP_ENV" = "KDE" ]; then

    echo "📱 KDE Plasma :"

    echo "  1. Ouvrez le menu des applications"

    echo "  2. Cherchez 'Ollama'"

elif [ "$DESKTOP_ENV" = "XFCE" ]; then

    echo "📱 XFCE :"

    echo "  1. Menu Applications"

    echo "  2. Développement ou Accessoires"

else

    echo "📱 Menu des applications :"

    echo "  Cherchez 'Ollama' dans votre menu d'applications"

fi


echo ""

info "Lanceurs créés :"

echo ""

echo "  🤖 Ollama Manager         - Interface principale"

echo "  📥 Télécharger un modèle  - Installer de nouveaux modèles"

echo "  📊 État du système        - Surveillance"

echo ""

for MODEL in $MODELS; do

    echo "  💬 Ollama - $MODEL"

done

echo ""


# Créer aussi des raccourcis sur le bureau si possible

if [ -d "$HOME/Bureau" ] || [ -d "$HOME/Desktop" ]; then

    DESKTOP_DIR="$HOME/Bureau"

    [ ! -d "$DESKTOP_DIR" ] && DESKTOP_DIR="$HOME/Desktop"

    

    echo ""

    read -p "Voulez-vous créer des raccourcis sur le bureau ? [O/n] " create_desktop

    

    if [[ "$create_desktop" =~ ^[Oo]$ ]] || [ -z "$create_desktop" ]; then

        info "Création des raccourcis sur le bureau..."

        

        cp "$APPS_DIR/ollama-manager.desktop" "$DESKTOP_DIR/"

        chmod +x "$DESKTOP_DIR/ollama-manager.desktop"

        

        # Marquer comme fiable sur GNOME

        if [ "$DESKTOP_ENV" = "GNOME" ]; then

            gio set "$DESKTOP_DIR/ollama-manager.desktop" metadata::trusted true 2>/dev/null || true

        fi

        

        success "Raccourci 'Ollama Manager' créé sur le bureau"

    fi

fi


echo ""

echo "════════════════════════════════════════════"

echo ""

success "🎉 Installation terminée !"

echo ""

info "Pour lancer Ollama maintenant :"

echo "  • Recherchez 'Ollama' dans vos applications"

echo "  • Ou double-cliquez sur l'icône du bureau"

echo ""

A tester

bash

chmod +x /home/claude/*.sh && cp /home/claude/create-ollama-launchers.sh /home/claude/ollama-hub.sh /home/claude/GUIDE-INTERFACES-GRAPHIQUES.md /mnt/user-data/outputs/ && ls -lh /mnt/user-data/outputs/ | grep -E "launcher|hub|INTERFACE"

Sortie

-rw-r--r-- 1 999 root 8.0K Dec 14 08:13 GUIDE-INTERFACES-GRAPHIQUES.md -rw-r--r-- 1 999 root 11K Dec 14 08:13 create-ollama-launchers.sh -rw-r--r-- 1 999 root 8.7K Dec 14 08:13 ollama-hub.sh

A tester

Maintenant copions tout vers le dossier outputs et présentons le résultat :

Voici 3 solutions graphiques complètes pour utiliser Ollama sans jamais toucher à la console !

🎨 VOS NOUVELLES INTERFACES GRAPHIQUES

⭐ SOLUTION 1 : LANCEURS D'APPLICATIONS (Le plus simple)

Installation en 1 commande :

chmod +x create-ollama-launchers.sh
./create-ollama-launchers.sh

Ce que ça crée :

  • Icônes dans le menu Applications pour chaque modèle
  • Ollama Manager - Menu principal
  • Télécharger un modèle - Installer facilement
  • État du système - Surveillance
  • Raccourci sur le bureau (optionnel)

Utilisation :

  1. Appuyez sur la touche Super (Windows)
  2. Tapez "Ollama"
  3. Clic sur le modèle souhaité → Terminal s'ouvre automatiquement

🎯 SOLUTION 2 : OLLAMA HUB (Interface graphique complète)

Installation :

chmod +x ollama-hub.sh
./ollama-hub.sh

C'est une vraie interface graphique avec boutons !

  • ✅ Menu à choix multiples (comme une vraie application)
  • ✅ Télécharger des modèles par clic
  • ✅ Voir l'état du système
  • ✅ Gérer les modèles
  • Aucune console, tout en fenêtres graphiques

Utilisation :

  • Double-clic sur le fichier
  • Choisissez l'action dans le menu
  • Tout se fait graphiquement !

Pour créer une icône permanente :

# Le script crée automatiquement un lanceur
cat > ~/.local/share/applications/ollama-hub.desktop <<EOF
[Desktop Entry]
Version=1.0
Type=Application
Name=Ollama Hub
Comment=Interface graphique pour Ollama
Exec=$HOME/ollama-hub.sh
Icon=applications-utilities
Terminal=false
Categories=Development;Utility;
EOF

chmod +x ~/.local/share/applications/ollama-hub.desktop

Ensuite : Cherchez "Ollama Hub" dans vos applications !


🌐 SOLUTION 3 : INTERFACE WEB (Type ChatGPT)

Pour une vraie interface web moderne :

# Installation d'Open WebUI
pip install open-webui

# Lancement
open-webui serve

Puis :

  1. Ouvrez votre navigateur
  2. Allez sur http://localhost:8080
  3. Interface moderne type ChatGPT ! 🎉

Avantages :

  • Interface belle et moderne
  • Historique des conversations
  • Gestion des modèles par clic
  • Aucune ligne de commande

🚀 INSTALLATION ULTRA-RAPIDE (Tout automatique)

Pour avoir TOUT en une fois :

# 1. Créer les lanceurs d'applications
chmod +x create-ollama-launchers.sh
./create-ollama-launchers.sh

# 2. Installer Ollama Hub (interface graphique)
chmod +x ollama-hub.sh

# C'est tout !

Vous aurez :

  • ✅ Icônes dans le menu Applications
  • ✅ Interface graphique Ollama Hub
  • ✅ Possibilité d'ajouter l'interface web

📱 COMMENT ÇA MARCHE ?

Lanceurs d'applications :

Menu Applications
  ├─ 🤖 Ollama Manager
  ├─ 💬 Ollama - Mistral
  ├─ 💬 Ollama - Qwen2.5
  ├─ 📥 Télécharger un modèle
  └─ 📊 État du système

Ollama Hub (fenêtre graphique) :

┌─────────────────────────────┐
│      🤖 Ollama Hub          │
├─────────────────────────────┤
│ ○ 💬 Lancer Mistral         │
│ ○ 💬 Lancer Qwen2.5         │
│ ○ 📥 Télécharger un modèle  │
│ ○ 📋 Voir les modèles       │
│ ○ 📊 État du système        │
│ ○ 🔄 Redémarrer Ollama      │
│ ○ ❌ Quitter                │
└─────────────────────────────┘

Tout est cliquable, aucune ligne de commande nécessaire !


🎯 MA RECOMMANDATION

Pour vous, je recommande :

  1. Installer les deux premiers :

    ./create-ollama-launchers.sh  # Icônes dans le menu
    chmod +x ollama-hub.sh         # Interface graphique
    
  2. Utiliser Ollama Hub pour la gestion quotidienne (télécharger, lancer, gérer)

  3. Optionnel : Ajouter l'interface web si vous préférez un navigateur


💡 BONUS : Raccourci clavier

Pour lancer Ollama Hub avec un raccourci :

  1. Ouvrez ParamètresClavierRaccourcis
  2. Ajoutez :
    • Nom : Ollama Hub
    • Commande : /home/votre-nom/ollama-hub.sh
    • Raccourci : Ctrl+Alt+O

Maintenant Ctrl+Alt+O = Interface Ollama ! 🚀

Tout est prêt, testez et dites-moi ce qui vous convient le mieux !


Voici les commandes pour créer des raccourcis clavier pour Ollama sur Ubuntu/GNOME :

🎯 Méthode via Interface Graphique

Paramètres → Clavier → Raccourcis personnalisés

Exemples de raccourcis à créer :

Nom Commande Raccourci suggéré
Lancer Ollama (Phi) gnome-terminal -- ollama run phi:latest Ctrl+Alt+O
Lancer Mistral gnome-terminal -- ollama run mistral:latest Ctrl+Alt+1
Lancer Mistral Small gnome-terminal -- ollama run mistral-small:latest Ctrl+Alt+2
Liste modèles gnome-terminal -- bash -c "ollama list; read -p 'Appuyez sur Entrée...'" Ctrl+Alt+L
État Ollama gnome-terminal -- bash -c "systemctl status ollama; read -p 'Appuyez sur Entrée...'" Ctrl+Alt+S

💻 Méthode via Terminal (plus rapide)

# Créer un raccourci pour lancer Phi (Ctrl+Alt+O)
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ name 'Ollama Phi'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ command 'gnome-terminal -- ollama run phi:latest'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/ binding '<Primary><Alt>o'

# Créer un raccourci pour Mistral (Ctrl+Alt+1)
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ name 'Ollama Mistral'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ command 'gnome-terminal -- ollama run mistral:latest'
gsettings set org.gnome.settings-daemon.plugins.media-keys.custom-keybinding:/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/ binding '<Primary><Alt>1'

# Activer tous les raccourcis créés
gsettings set org.gnome.settings-daemon.plugins.media-keys custom-keybindings "['/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/', '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/']"

📝 Script Automatique Complet

#!/bin/bash
# Sauvegarder comme ~/create-ollama-shortcuts.sh

# Liste des raccourcis
SHORTCUTS_PATH="org.gnome.settings-daemon.plugins.media-keys"

# Réinitialiser les raccourcis personnalisés
gsettings set $SHORTCUTS_PATH custom-keybindings "[]"

# Fonction pour créer un raccourci
create_shortcut() {
    local name="$1"
    local command="$2"
    local binding="$3"
    local path="/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/$name/"
    
    gsettings set $SHORTCUTS_PATH.custom-keybinding:$path name "$name"
    gsettings set $SHORTCUTS_PATH.custom-keybinding:$path command "$command"
    gsettings set $SHORTCUTS_PATH.custom-keybinding:$path binding "$binding"
}

# Créer les raccourcis
create_shortcut "ollama-phi" "gnome-terminal -- ollama run phi:latest" "<Primary><Alt>o"
create_shortcut "ollama-mistral" "gnome-terminal -- ollama run mistral:latest" "<Primary><Alt>1"
create_shortcut "ollama-mistral-small" "gnome-terminal -- ollama run mistral-small:latest" "<Primary><Alt>2"
create_shortcut "ollama-list" "gnome-terminal -- bash -c 'ollama list; read -p Entrée...'" "<Primary><Alt>l"
create_shortcut "ollama-status" "gnome-terminal -- bash -c 'systemctl status ollama; read -p Entrée...'" "<Primary><Alt>s"

# Activer tous les raccourcis
gsettings set $SHORTCUTS_PATH custom-keybindings "[
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-phi/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-mistral-small/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-list/',
    '/org/gnome/settings-daemon/plugins/media-keys/custom-keybindings/ollama-status/'
]"

echo "✅ Raccourcis créés avec succès !"

Pour l'utiliser :

chmod +x ~/create-ollama-shortcuts.sh
~/create-ollama-shortcuts.sh

🎹 Raccourcis créés :

  • Ctrl+Alt+O → Lancer Phi
  • Ctrl+Alt+1 → Lancer Mistral
  • Ctrl+Alt+2 → Lancer Mistral Small
  • Ctrl+Alt+L → Voir la liste des modèles
  • Ctrl+Alt+S → Voir l'état du service

Vous pouvez les tester immédiatement après avoir exécuté le script ! 🚀









Aucun commentaire:

Enregistrer un commentaire

Merci pour ce commentaire