9/05/2025

Les prompts Copilot dans Ollama

 Voici une explication claire et structurée des prompts Copilot dans Ollama, avec un aperçu de leur fonction et de leur utilité :


🧠 Qu’est-ce que les Prompts Copilot dans Ollama ?

Les prompts Copilot sont des modèles de requêtes prédéfinies que tu peux utiliser dans Ollama pour interagir avec un modèle de langage (comme moi) de manière ciblée et efficace. Chaque prompt sert un objectif précis — résumé, reformulation, traduction, etc. — et permet d’obtenir des réponses cohérentes et bien structurées selon le besoin.

📋 Détail des Prompts

Titre Fonction Description

Résumer Synthèse Résume un texte en 3–4 phrases, en capturant les idées principales et les points clés.

Reformuler Paraphrase Réécrit le texte avec un vocabulaire et une structure différents, tout en conservant le sens original.

Traduire Traduction Traduit le texte dans une autre langue (ici vers l’anglais), en respectant le ton et le style du texte source.

Expliquer Analyse Fournit une explication détaillée du texte, en clarifiant les concepts, en ajoutant du contexte, et en illustrant avec des exemples.

Personnalisé Libre Permet d’insérer n’importe quel texte ou instruction personnalisée, sans structure imposée.


🛠️ Exemple d’usage dans Ollama

Supposons que tu travailles sur un guide d’onboarding dans Figma et que tu veux :

• Résumer une documentation trop longue → utilise le prompt Résumer.

• Reformuler une section pour la rendre plus accessible → utilise Reformuler.

• Traduire ton contenu pour une équipe anglophone → utilise Traduire.

• Expliquer un concept complexe comme la hiérarchie des composants → utilise Expliquer.

• Personnaliser une requête pour générer un contenu spécifique → utilise Personnalisé.


🔍 Pourquoi c’est utile pour toi

En tant que systems architect, ces prompts t’aident à :

• Gagner du temps dans la documentation et la communication.

• Assurer la clarté et la cohérence dans tes livrables.

• Adapter ton contenu à différents publics (langues, niveaux de compréhension).

• Maintenir une modularité dans tes workflows textuels, comme tu le fais déjà dans Figma.


Pour activer et utiliser les prompts Copilot dans Ollama avec le modèle Mistral, voici une démarche claire et pratique adaptée à ton profil de systems architect 👇


⚙️ Étapes pour activer les prompts dans Ollama avec Mistral

1. Installer Ollama

Si ce n’est pas encore fait :

• Télécharge Ollama depuis le site officiel : ollama.com

• Installe-le sur ton PC (Windows, macOS ou Linux via WSL2)

• Vérifie que ta machine dispose d’une carte graphique suffisante pour faire tourner Mistral


2. Télécharger le modèle Mistral

Dans ton terminal, exécute :

ollama pull mistral

Cela télécharge le modèle Mistral 7B localement.


3. Utiliser un prompt Copilot

Tu peux lancer une session avec un prompt structuré directement via la ligne de commande :

ollama run mistral --prompt "Provide a concise summary of the following text: {ton texte ici}"

Tu peux remplacer "Provide a concise summary..." par n’importe quel prompt Copilot comme :

• Reformuler → "Rewrite the following text using alternative vocabulary..."

• Traduire → "Translate the following text into English..."

• Expliquer → "Explain the following text in detail..."

• Personnalisé → "Tu es un assistant de design system, aide-moi à structurer une nomenclature modulaire pour Figma..."


4. Créer des prompts personnalisés

Tu peux aussi créer tes propres prompts en ligne de commande :

ollama chat mistral --prompt "Explique la hiérarchie des composants dans un design system modulaire."

Ou automatiser des requêtes avec des scripts pour tes workflows de documentation ou d’onboarding.


🧩 Bonus : modèle optimisé pour prompts

Tu peux tester le modèle vokturz/mistral-7b-prompter, conçu pour améliorer les réponses aux prompts complexes :

ollama run vokturz/mistral-7b-prompter --prompt "###Knowledge: None\n\n###Initial_prompt: Résume ce texte : {texte}"

👉 Voir le modèle sur Ollama















8/07/2025

Qu’est-ce que Foundry Local ?

 🧠 Foundry Local est une solution d’inférence d’IA développée par Microsoft qui permet d’exécuter des modèles directement sur votre appareil, sans dépendance au cloud. Voici un aperçu complet :


🚀 Qu’est-ce que Foundry Local ?

Foundry Local est une plateforme locale d’IA qui apporte les capacités d’Azure AI Foundry sur votre propre matériel. Elle est conçue pour offrir :

  • Confidentialité renforcée : toutes les données restent sur votre appareil.

  • Performance optimisée : grâce à l’exécution locale et à l’accélération matérielle via ONNX Runtime.

  • Personnalisation : vous pouvez utiliser des modèles prédéfinis ou vos propres modèles.

  • Économie : pas de frais cloud récurrents, vous utilisez votre infrastructure existante.

  • Intégration fluide : via CLI, SDK (Python, JavaScript) ou API REST compatible OpenAI.


🧩 Fonctionnalités clés

Fonctionnalité

Description

Inférence sur appareil

Exécution locale des modèles IA sur CPU, GPU ou NPU

API compatible OpenAI

Permet une intégration facile avec des applications existantes

Cache de modèles

Stocke les modèles localement pour accélérer les inférences

Abstraction matérielle

Sélection automatique du meilleur matériel disponible

SDK et CLI

Outils pour gérer et exécuter les modèles facilement


📦 Cas d’usage

  • Applications en temps réel avec faible latence

  • Environnements sans connexion Internet

  • Traitement de données sensibles en local

  • Tests et prototypage avant déploiement cloud


🛠️ Installation rapide

  • Windows : winget install Microsoft.FoundryLocal

  • macOS : brew tap microsoft/foundrylocal && brew install foundrylocal

  • Exécution d’un modèle :

    foundry model run phi-3.5-mini

Foundry Local détecte automatiquement votre matériel (GPU, NPU, CPU) et télécharge le modèle optimisé correspondant.



https://devdevdev.net/foundry-local-le-tueur-dollama/


Microsoft a lancé à la Build un nouvel outil, Foundry Local, qui permet d’exécuter en local (comme son nom l’indique) des LLM et des SLM.

Alors qu’est-ce que cela vaut par rapport à Ollama, que peut-on faire avec, comment ca marche, c’est ce que l’on voir lors de cet épisode.

devdevdev.net épisode 71, c’est parti…

 Retrouvez-moi sur BlueSky : @devdevdev.net

Code source de l’application : https://github.com/RichardC64/FoundryLocal_Playground


https://learn.microsoft.com/fr-fr/azure/ai-foundry/foundry-local/what-is-foundry-local

Important

  • Foundry Local est disponible en préversion. Les versions en préversion publique fournissent un accès anticipé aux fonctionnalités qui sont en cours de déploiement actif.
  • Les fonctionnalités, les approches et les processus peuvent changer ou avoir des fonctionnalités limitées avant la mise en disponibilité générale.

Foundry Local est une solution d’inférence d'IA sur appareil offrant des performances, la confidentialité, la personnalisation et des avantages en termes de coûts. Il s’intègre en toute transparence à vos flux de travail et applications existants par le biais d’une interface CLI intuitive, d’un SDK et d’une API REST.


Ce guide vous guide tout au long de la configuration de Foundry Local pour exécuter des modèles IA sur votre appareil.

Conditions préalables

Votre système doit répondre aux exigences suivantes pour exécuter Foundry Local :

Système d’exploitation : Windows 10 (x64), Windows 11 (x64/ARM), Windows Server 2025, macOS.Matériel : 8 Go minimum de RAM, 3 Go d’espace disque libre. Mémoire RAM recommandée de 16 Go, espace disque libre de 15 Go.Réseau : connexion Internet pour le téléchargement initial du modèle (facultatif pour une utilisation hors connexion)Accélération (facultatif) : GPU NVIDIA (2 000 séries ou ultérieures), GPU AMD (6 000 séries ou ultérieures), Amd Snapaccide X Elite (8 Go ou plus de mémoire) ou Apple silicon.

Vérifiez également que vous disposez de privilèges d’administration pour installer des logiciels sur votre appareil.

Cas d’utilisation

Foundry Local est idéal pour les scénarios où :

Vous souhaitez conserver des données sensibles sur votre appareil.Vous devez fonctionner dans des environnements avec une connectivité Internet limitée ou sans connexion Internet.Vous souhaitez réduire les coûts d’inférence cloud.Vous avez besoin de réponses IA à faible latence pour les applications en temps réel.Vous souhaitez expérimenter des modèles IA avant de les déployer dans un environnement cloud.

Développer une application IA avec le Kit de développement logiciel (SDK) Azure AI Foundry55 minModule7 Unités

https://learn.microsoft.com/fr-fr/training/modules/ai-foundry-sdk/

Application IA avec le Kit de développement logiciel (SDK) Azure AI Foundry

Phi-4 Model Card Hugging Face

 Phi-4 Model Card

Phi-4 Technical Report microsoft/phi-4 · Hugging Face


Model Summary

Developers Microsoft Research

Description phi-4 is a state-of-the-art open model built upon a blend of synthetic datasets, data from filtered public domain websites, and acquired academic books and Q&A datasets. The goal of this approach was to ensure that small capable models were trained with data focused on high quality and advanced reasoning.

phi-4 underwent a rigorous enhancement and alignment process, incorporating both supervised fine-tuning and direct preference optimization to ensure precise instruction adherence and robust safety measures

Architecture 14B parameters, dense decoder-only Transformer model

Inputs Text, best suited for prompts in the chat format

Context length 16K tokens

GPUs 1920 H100-80G

Training time 21 days

Training data 9.8T tokens

Outputs Generated text in response to input

Dates October 2024 – November 2024

Status Static model trained on an offline dataset with cutoff dates of June 2024 and earlier for publicly available data

Release date December 12, 2024

License MIT


microsoft/phi-4 · Hugging Face

https://huggingface.co/microsoft/phi-4#:~:text=phi-4%20is%20a%20state-of-the-art%20open%20model%20built%20upon,websites%2C%20and%20acquired%20academic%20books%20and%20Q%26A%20datasets.


Quick Links

Inference Providers documentation

Nebius AI Studio documentation

Compare Inference Providers for this model


import os
from openai import OpenAI

client = OpenAI(
    base_url="https://router.huggingface.co/v1",
    api_key=os.environ["HF_TOKEN"],
)

completion = client.chat.completions.create(
    model="microsoft/phi-4:nebius",
    messages=[
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)

print(completion.choices[0].message)

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON

Users Group Artificial Intelligence Andorra (U.G.A.I.A.) : Liste des Certificats PDF Microsoft Learn

Info SharePoint-Teams-Copilot

https://clubsp2013.blogspot.com/p/portfolio-microsoft-learn-pierre-erol.html



OmniParser V2 + OmniTool : déployez des agents d'IA autonomes qui CONTRÔ...


Bienvenue dans le futur de l'IA autonome ! Dans cette vidéo, nous plongeons dans les puissants OmniParser V2 et OmniTool, un framework open source qui fait passer votre expérience d'IA au niveau supérieur. Ces outils permettent aux agents d'IA de contrôler votre ordinateur de manière transparente, de la compréhension de votre écran à l'action comme un humain. Avec des LLM (Large Language Models) de pointe et un framework d'agent robuste, OmniParser V2 permet aux agents d'effectuer des tâches avec une précision inégalée. [🔗 Mes liens] : Sponsorisez une vidéo ou faites une démonstration de votre produit, contactez-moi : intheworldzofai@gmail.com 🔥 Devenez mécène (Discord privé) :   / worldofai   ☕ Pour m'aider et me soutenir, achetez un café ou faites un don pour soutenir la chaîne : https://ko-fi.com/worldofai - Cela signifierait beaucoup si vous le faisiez ! Merci beaucoup, les gars ! Je vous aime tous 🧠 Suivez-moi sur Twitter :   / intheworldofai   📅 Réservez un appel de consultation individuel avec moi : https://calendly.com/worldzofai/ai-co... 📖 Vous souhaitez m'embaucher pour des projets d'IA ? Remplissez ce formulaire : https://www.worldzofai.com/ 🚨 Abonnez-vous à la newsletter AI GRATUITE pour des mises à jour régulières sur l'IA : https://intheworldofai.com/ 👩‍💻 Mon cours d'ingénieur en IA recommandé est Scrimba : https://v2.scrimba.com/the-ai-enginee..." 👾 Rejoignez le monde de l'IA Discord ! :   / discord   [À ne pas manquer] : Mode agent copilote Github : Alternative au curseur GRATUITE ! NOUVEL agent de codage d'IA autonome ! (o3 Mini GRATUIT) :    • Github Copilot Agent Mode: FREE Curso...   MISE À JOUR de Cline v3.3 : Agent de codage d'IA autonome entièrement GRATUIT ! (API GRATUITE, nouveaux fournisseurs) : Anglais :    • Cline v3.3 UPDATE: Fully FREE Autonom...   Scrape n'importe quel site Web GRATUITEMENT et SANS CODE en utilisant DeepSeek et Crawl4AI ! (Opensource) :    • Scrape Any Website for FREE & NO CODE...   [Liens utilisés] : Article de blog : https://www.microsoft.com/en-us/resea... Dépôt Github : https://github.com/microsoft/OmniPars... Outil Omni : https://github.com/microsoft/OmniPars... Carte modèle : https://huggingface.co/microsoft/Omni... Installation Git : https://git-scm.com/downloads Installation Python : https://www.python.org/downloads/ Installation Conda : https://anaconda.org/anaconda/conda Vous verrez comment ces outils fonctionnent en tandem, OmniTool fournissant l'environnement essentiel pour exécuter et tester les agents, tandis qu'OmniParser V2 interprète et convertit votre écran en éléments structurés avec lesquels les agents peuvent interagir. Si vous cherchez à explorer une technologie de pointe pour automatiser les flux de travail ou créer des agents intelligents, cette vidéo est faite pour vous ! N'oubliez pas d'aimer, de partager et de vous abonner pour plus de contenu technologique incroyable. Mots clés : OmniParser V2, OmniTool, Agents IA, IA Open Source, IA autonome, Contrôle informatique IA, Analyse d'écran, LLM, Automatisation IA, Tutoriel technique, Cadre IA, Cadre d'agent, Modèles IA, Hugging Face, Microsoft, GPT-4o, DeepSeek, Sonnet AI, Modèles Qwen, IA en action, Développement IA, Apprentissage automatique, Vision par ordinateur, Programmation IA Hashtags : #OmniParserV2 #OmniTool #AIControl #OpenSourceAI #AutonomousAgents #MachineLearning #AIModels #TechTutorial #GPT4o #DeepSeek #SonnetAI #AIProgramming #HuggingFace #AIFramework #AIRevolution #Innovation #AIInAction