jeudi 7 août 2025

Qu’est-ce que Foundry Local ?

 🧠 Foundry Local est une solution d’inférence d’IA développée par Microsoft qui permet d’exécuter des modèles directement sur votre appareil, sans dépendance au cloud. Voici un aperçu complet :


🚀 Qu’est-ce que Foundry Local ?

Foundry Local est une plateforme locale d’IA qui apporte les capacités d’Azure AI Foundry sur votre propre matériel. Elle est conçue pour offrir :

  • Confidentialité renforcée : toutes les données restent sur votre appareil.

  • Performance optimisée : grâce à l’exécution locale et à l’accélération matérielle via ONNX Runtime.

  • Personnalisation : vous pouvez utiliser des modèles prédéfinis ou vos propres modèles.

  • Économie : pas de frais cloud récurrents, vous utilisez votre infrastructure existante.

  • Intégration fluide : via CLI, SDK (Python, JavaScript) ou API REST compatible OpenAI.


🧩 Fonctionnalités clés

Fonctionnalité

Description

Inférence sur appareil

Exécution locale des modèles IA sur CPU, GPU ou NPU

API compatible OpenAI

Permet une intégration facile avec des applications existantes

Cache de modèles

Stocke les modèles localement pour accélérer les inférences

Abstraction matérielle

Sélection automatique du meilleur matériel disponible

SDK et CLI

Outils pour gérer et exécuter les modèles facilement


📦 Cas d’usage

  • Applications en temps réel avec faible latence

  • Environnements sans connexion Internet

  • Traitement de données sensibles en local

  • Tests et prototypage avant déploiement cloud


🛠️ Installation rapide

  • Windows : winget install Microsoft.FoundryLocal

  • macOS : brew tap microsoft/foundrylocal && brew install foundrylocal

  • Exécution d’un modèle :

    foundry model run phi-3.5-mini

Foundry Local détecte automatiquement votre matériel (GPU, NPU, CPU) et télécharge le modèle optimisé correspondant.



https://devdevdev.net/foundry-local-le-tueur-dollama/


Microsoft a lancé à la Build un nouvel outil, Foundry Local, qui permet d’exécuter en local (comme son nom l’indique) des LLM et des SLM.

Alors qu’est-ce que cela vaut par rapport à Ollama, que peut-on faire avec, comment ca marche, c’est ce que l’on voir lors de cet épisode.

devdevdev.net épisode 71, c’est parti…

 Retrouvez-moi sur BlueSky : @devdevdev.net

Code source de l’application : https://github.com/RichardC64/FoundryLocal_Playground


https://learn.microsoft.com/fr-fr/azure/ai-foundry/foundry-local/what-is-foundry-local

Important

  • Foundry Local est disponible en préversion. Les versions en préversion publique fournissent un accès anticipé aux fonctionnalités qui sont en cours de déploiement actif.
  • Les fonctionnalités, les approches et les processus peuvent changer ou avoir des fonctionnalités limitées avant la mise en disponibilité générale.

Foundry Local est une solution d’inférence d'IA sur appareil offrant des performances, la confidentialité, la personnalisation et des avantages en termes de coûts. Il s’intègre en toute transparence à vos flux de travail et applications existants par le biais d’une interface CLI intuitive, d’un SDK et d’une API REST.


Ce guide vous guide tout au long de la configuration de Foundry Local pour exécuter des modèles IA sur votre appareil.

Conditions préalables

Votre système doit répondre aux exigences suivantes pour exécuter Foundry Local :

Système d’exploitation : Windows 10 (x64), Windows 11 (x64/ARM), Windows Server 2025, macOS.Matériel : 8 Go minimum de RAM, 3 Go d’espace disque libre. Mémoire RAM recommandée de 16 Go, espace disque libre de 15 Go.Réseau : connexion Internet pour le téléchargement initial du modèle (facultatif pour une utilisation hors connexion)Accélération (facultatif) : GPU NVIDIA (2 000 séries ou ultérieures), GPU AMD (6 000 séries ou ultérieures), Amd Snapaccide X Elite (8 Go ou plus de mémoire) ou Apple silicon.

Vérifiez également que vous disposez de privilèges d’administration pour installer des logiciels sur votre appareil.

Cas d’utilisation

Foundry Local est idéal pour les scénarios où :

Vous souhaitez conserver des données sensibles sur votre appareil.Vous devez fonctionner dans des environnements avec une connectivité Internet limitée ou sans connexion Internet.Vous souhaitez réduire les coûts d’inférence cloud.Vous avez besoin de réponses IA à faible latence pour les applications en temps réel.Vous souhaitez expérimenter des modèles IA avant de les déployer dans un environnement cloud.

Développer une application IA avec le Kit de développement logiciel (SDK) Azure AI Foundry55 minModule7 Unités

https://learn.microsoft.com/fr-fr/training/modules/ai-foundry-sdk/

Développer une application IA avec le Kit de développement logiciel (SDK) Azure AI Foundry

Phi-4 Model Card Hugging Face

 Phi-4 Model Card

Phi-4 Technical Report microsoft/phi-4 · Hugging Face


Model Summary

Developers Microsoft Research

Description phi-4 is a state-of-the-art open model built upon a blend of synthetic datasets, data from filtered public domain websites, and acquired academic books and Q&A datasets. The goal of this approach was to ensure that small capable models were trained with data focused on high quality and advanced reasoning.

phi-4 underwent a rigorous enhancement and alignment process, incorporating both supervised fine-tuning and direct preference optimization to ensure precise instruction adherence and robust safety measures

Architecture 14B parameters, dense decoder-only Transformer model

Inputs Text, best suited for prompts in the chat format

Context length 16K tokens

GPUs 1920 H100-80G

Training time 21 days

Training data 9.8T tokens

Outputs Generated text in response to input

Dates October 2024 – November 2024

Status Static model trained on an offline dataset with cutoff dates of June 2024 and earlier for publicly available data

Release date December 12, 2024

License MIT


microsoft/phi-4 · Hugging Face

https://huggingface.co/microsoft/phi-4#:~:text=phi-4%20is%20a%20state-of-the-art%20open%20model%20built%20upon,websites%2C%20and%20acquired%20academic%20books%20and%20Q%26A%20datasets.


Quick Links

Inference Providers documentation

Nebius AI Studio documentation

Compare Inference Providers for this model


import os
from openai import OpenAI

client = OpenAI(
    base_url="https://router.huggingface.co/v1",
    api_key=os.environ["HF_TOKEN"],
)

completion = client.chat.completions.create(
    model="microsoft/phi-4:nebius",
    messages=[
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ],
)

print(completion.choices[0].message)

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON

Users Group Artificial Intelligence Andorra (U.G.A.I.A.) : Liste des Certificats PDF Microsoft Learn

Info SharePoint-Teams-Copilot

https://clubsp2013.blogspot.com/p/portfolio-microsoft-learn-pierre-erol.html



OmniParser V2 + OmniTool : déployez des agents d'IA autonomes qui CONTRÔ...


Bienvenue dans le futur de l'IA autonome ! Dans cette vidéo, nous plongeons dans les puissants OmniParser V2 et OmniTool, un framework open source qui fait passer votre expérience d'IA au niveau supérieur. Ces outils permettent aux agents d'IA de contrôler votre ordinateur de manière transparente, de la compréhension de votre écran à l'action comme un humain. Avec des LLM (Large Language Models) de pointe et un framework d'agent robuste, OmniParser V2 permet aux agents d'effectuer des tâches avec une précision inégalée. [🔗 Mes liens] : Sponsorisez une vidéo ou faites une démonstration de votre produit, contactez-moi : intheworldzofai@gmail.com 🔥 Devenez mécène (Discord privé) :   / worldofai   ☕ Pour m'aider et me soutenir, achetez un café ou faites un don pour soutenir la chaîne : https://ko-fi.com/worldofai - Cela signifierait beaucoup si vous le faisiez ! Merci beaucoup, les gars ! Je vous aime tous 🧠 Suivez-moi sur Twitter :   / intheworldofai   📅 Réservez un appel de consultation individuel avec moi : https://calendly.com/worldzofai/ai-co... 📖 Vous souhaitez m'embaucher pour des projets d'IA ? Remplissez ce formulaire : https://www.worldzofai.com/ 🚨 Abonnez-vous à la newsletter AI GRATUITE pour des mises à jour régulières sur l'IA : https://intheworldofai.com/ 👩‍💻 Mon cours d'ingénieur en IA recommandé est Scrimba : https://v2.scrimba.com/the-ai-enginee..." 👾 Rejoignez le monde de l'IA Discord ! :   / discord   [À ne pas manquer] : Mode agent copilote Github : Alternative au curseur GRATUITE ! NOUVEL agent de codage d'IA autonome ! (o3 Mini GRATUIT) :    • Github Copilot Agent Mode: FREE Curso...   MISE À JOUR de Cline v3.3 : Agent de codage d'IA autonome entièrement GRATUIT ! (API GRATUITE, nouveaux fournisseurs) : Anglais :    • Cline v3.3 UPDATE: Fully FREE Autonom...   Scrape n'importe quel site Web GRATUITEMENT et SANS CODE en utilisant DeepSeek et Crawl4AI ! (Opensource) :    • Scrape Any Website for FREE & NO CODE...   [Liens utilisés] : Article de blog : https://www.microsoft.com/en-us/resea... Dépôt Github : https://github.com/microsoft/OmniPars... Outil Omni : https://github.com/microsoft/OmniPars... Carte modèle : https://huggingface.co/microsoft/Omni... Installation Git : https://git-scm.com/downloads Installation Python : https://www.python.org/downloads/ Installation Conda : https://anaconda.org/anaconda/conda Vous verrez comment ces outils fonctionnent en tandem, OmniTool fournissant l'environnement essentiel pour exécuter et tester les agents, tandis qu'OmniParser V2 interprète et convertit votre écran en éléments structurés avec lesquels les agents peuvent interagir. Si vous cherchez à explorer une technologie de pointe pour automatiser les flux de travail ou créer des agents intelligents, cette vidéo est faite pour vous ! N'oubliez pas d'aimer, de partager et de vous abonner pour plus de contenu technologique incroyable. Mots clés : OmniParser V2, OmniTool, Agents IA, IA Open Source, IA autonome, Contrôle informatique IA, Analyse d'écran, LLM, Automatisation IA, Tutoriel technique, Cadre IA, Cadre d'agent, Modèles IA, Hugging Face, Microsoft, GPT-4o, DeepSeek, Sonnet AI, Modèles Qwen, IA en action, Développement IA, Apprentissage automatique, Vision par ordinateur, Programmation IA Hashtags : #OmniParserV2 #OmniTool #AIControl #OpenSourceAI #AutonomousAgents #MachineLearning #AIModels #TechTutorial #GPT4o #DeepSeek #SonnetAI #AIProgramming #HuggingFace #AIFramework #AIRevolution #Innovation #AIInAction

Phi-4 is a 14B paramete

 Phi-4 is a 14B parameter, state-of-the-art open model built upon a blend of synthetic datasets, data from filtered public domain websites, and acquired academic books and Q&A datasets.

3.8M7 months ago

Phi-4 is a 14B parameter, state-of-the-art open model from Microsoft.

14b

Readme

Phi-4 is a 14B parameter, state-of-the-art open model built upon a blend of synthetic datasets, data from filtered public domain websites, and acquired academic books and Q&A datasets.

Phi-4 benchmark

The model underwent a rigorous enhancement and alignment process, incorporating both supervised fine-tuning and direct preference optimization to ensure precise instruction adherence and robust safety measures.

Context length: 16k tokens

Phi-4 performance eval by Microsoft

Primary use cases

The model is designed to accelerate research on language models, for use as a building block for generative AI powered features. It provides uses for general purpose AI systems and applications (primarily in English) which require:

  1. Memory/compute constrained environments.
  2. Latency bound scenarios.
  3. Reasoning and logic.

Out-of-scope use cases

The models are not specifically designed or evaluated for all downstream purposes, thus:

  1. Developers should consider common limitations of language models as they select use cases, and evaluate and mitigate for accuracy, safety, and fairness before using within a specific downstream use case, particularly for high-risk scenarios.
  2. Developers should be aware of and adhere to applicable laws or regulations (including privacy, trade compliance laws, etc.) that are relevant to their use case, including the model’s focus on English.
  3. Nothing contained in this readme should be interpreted as or deemed a restriction or modification to the license the model is released under.

Additional improvements to the Ollama Python library

The 0.4 release of the Ollama Python library includes additional improvements:

  • Examples have been updated on the Ollama Python GitHub.
  • Full typing support throughout the library to support direct object access while maintaining existing functionality.