Affichage des articles dont le libellé est architecture. Afficher tous les articles
Affichage des articles dont le libellé est architecture. Afficher tous les articles

1/12/2026

Projet 3 agents et la circulation des infos

 Projet 3 agents et la circulation des infos.

Voici une checklist opérationnelle complète et un schéma unique pour ton système multi-agents A360/PQR + T2BI + RAPPORTS + Orchestrateur + Résilience LLM, hébergé sur serveur cloud.


✅ Checklist opérationnelle par phase

🧱 Phase 0 – Cadrage & Architecture

  • [ ] Définir les rôles précis des 3 agents (A360, T2BI, RAPPORTS)
  • [ ] Définir l’agent Orchestrateur (workflow, escalade, supervision)
  • [ ] Établir la matrice des modèles (PHI4, Gemma, Mistral, etc.)
  • [ ] Formaliser les niveaux d’escalade LLM (0 à 3)
  • [ ] Rédiger le document d’architecture cible

☁️ Phase 1 – Socle Cloud & Standardisation

  • [ ] Installer Ollama sur serveur (vérif port 11434, logs, modèles)
  • [ ] Créer arborescence commune (agents/, config/, logs/, etc.)
  • [ ] Adapter les scripts PS1 pour cloud (ou transposer en .sh)
  • [ ] Créer script d’installation global
  • [ ] Vérifier compatibilité RAM/VRAM pour chaque modèle

⚙️ Phase 2 – Industrialisation des Agents

A360/PQR

  • [ ] Adapter le script principal pour usage CLI
  • [ ] Ajouter logs, codes de retour, indicateurs de confiance
  • [ ] Tester le dashboard HTML sur serveur

T2BI

  • [ ] Définir les types de synthèses métier à produire
  • [ ] Implémenter le parsing des rapports A360
  • [ ] Générer les bullet points décideurs + tags d’impact

RAPPORTS

  • [ ] Créer gabarits Markdown / HTML / PPT
  • [ ] Générer rapports quotidiens et hebdo
  • [ ] Ajouter résumé exécutif + niveau de confiance

🧠 Phase 3 – Orchestrateur & Résilience

  • [ ] Créer script d’orchestration (pipeline complet)
  • [ ] Implémenter règles d’escalade LLM (fichier YAML)
  • [ ] Créer agent Auditor (lecture des logs + recommandations)
  • [ ] Définir seuils de passage à l’humain
  • [ ] Ajouter monitoring technique (Ollama, BDD, erreurs)
  • [ ] Documenter la gouvernance technique (rôles, permissions, escalade)

📊 Schéma unique – Architecture des agents

┌────────────────────────────┐
│        Entrée RSS          │
│    (13 sources Andorre)    │
└────────────┬───────────────┘
             │
             ▼
┌────────────────────────────┐
│        Agent A360/PQR      │
│  - Filtrage & analyse IA   │
│  - Scoring & dashboard     │
└────────────┬───────────────┘
             │
             ▼
┌────────────────────────────┐
│         Agent T2BI         │
│  - Synthèse métier         │
│  - Tendances & risques     │
└────────────┬───────────────┘
             │
             ▼
┌────────────────────────────┐
│        Agent RAPPORTS      │
│  - Livrables stratégiques │
│  - Résumés exécutifs       │
└────────────┬───────────────┘
             │
             ▼
┌────────────────────────────┐
│     Agent Orchestrateur    │
│  - Planification & logs    │
│  - Escalade LLM            │
│  - Monitoring & audit      │
└────────────┬───────────────┘
             │
             ▼
┌────────────────────────────┐
│     Escalade LLM Niveau 2  │
│  - Modèle avancé           │
│  - Analyse critique        │
└────────────┬───────────────┘
             │
             ▼
┌────────────────────────────┐
│     Liaison Humaine        │
│  - Synthèse pour opérateur │
│  - Décision finale         │
└────────────────────────────┘


 La structure du projet :

  • A360/PQR (Andorra 360) existe et tourne en local (Ollama + Gemma, PS1, dashboard, planif).
  • Tu prépares un PPT sur les 6 étapes vers des Agents IA responsables.
  • Tu veux passer à un serveur cloud (32 Go RAM) avec 3 agents + 1 agent d’orchestration + plan de résilience/escalade LLM.

Je te propose un plan de travail en 4 grands blocs, avec des sous-phases actionnables.


Vue synthétique du plan de travail

PhaseObjectif principalLivrable cléAgents concernés
0. Cadrage & socleClarifier rôles, modèles, ressourcesDoc d’architecture cible + matrice LLMTous
1. Socle commun cloudRejouer A360 en cloud + standardiserRepo « socle-agents-w11-cloud »Tous
2. Industrialisation des 3 agentsFormaliser A360, définir T2BI & RAPPORTS3 agents opérationnels + scriptsA360/PQR, T2BI, RAPPORTS
3. Orchestrateur & résilienceAgent manager + escalade LLM + monitoringAgent Orchestrateur + docs de gouvernanceTous

Ensuite, tu pourras brancher ton PPT et ton discours de gouvernance directement sur cette structure.


Phase 0 – Cadrage et architecture cible

Objectif : poser noir sur blanc « qui fait quoi » et comment ça s’exécute sur le serveur.

  1. Clarifier les 3 agents fonctionnels

    • A360/PQR (existant) :
      Rôle : veille Andorre, scoring, dashboard, notifications (ton README).
      Entrées : flux RSS, config YAML.
      Sorties : Markdown, JSON, dashboard HTML, logs.

    • T2BI : définir clairement la mission. Par exemple :
      Rôle : transformer les articles/événements en « intelligence métier » (Tendances, BI, risques/opportunités pour Andorre, etc.).
      Entrées : JSON + Markdown produits par A360.
      Sorties : synthèses thématiques (Politique, Économie, etc.), indicateurs clés, recommandations.

    • RAPPORTS : l’agent éditeur / secrétariat stratégique.
      Rôle : assembler les sorties A360 + T2BI en livrables :

      • rapports hebdo/mensuels,
      • slides pour décisionnaires,
      • fiches synthèse (1 page).
  2. Définir l’agent Orchestrateur

    • Rôle :
      • planifier les runs des 3 agents,
      • gérer les dépendances (A360 → T2BI → RAPPORTS),
      • appliquer les plans d’escalade LLM,
      • décider quand escalader vers l’humain.
    • C’est l’implémentation directe de ton schéma : Agent Routeur + Agent Critique + Agent de Liaison humaine.
  3. Matrice des LLM et SLM

    Pour chaque niveau d’escalade, décider quels modèles sont utilisés :

    • Niveau 0 – LLM léger / SLM :
      • PHI4 ou Gemma 2B pour les tâches simples (classement, tags, filtres).
    • Niveau 1 – Spécialistes :
      • Mistral, Gemma 7B pour analyse plus fine, résumés enrichis, BI.
    • Niveau 2 – Avancé / critique :
      • modèle plus puissant (ex : Gemma 9B, Mistral Medium, autre) ou éventuellement un API externe si tu le souhaites (mais tu peux rester full local).
    • Niveau 3 – Humain :
      • règles explicites de passage à l’humain : incertitude forte, conflit d’infos, sujet politique sensible, etc.

Livrable Phase 0 :
Un document d’architecture (Markdown) avec :

  • description des 4 agents,
  • matrice des modèles par niveau,
  • schéma d’escalade inspiré de ton diagramme, adapté à ces 3 agents.

Phase 1 – Socle commun sur serveur cloud

Objectif : rejouer ton environnement A360 sur le serveur cloud, en le transformant en socle pour tous les agents.

  1. Infrastructure de base

    • OS et stack :
      • Linux (type Ubuntu Server) ou Windows Server, mais tu connais bien Windows 11 + PS1 :
        • si VPS Linux : transposer les scripts PS1 en .sh pour la prod,
        • si Windows Server : réutiliser 80% de ta banque de scripts PS1.
    • Ollama serveur :
      • installation standard,
      • pull des modèles : phi4, gemma, mistral (selon la matrice de Phase 0),
      • vérification port 11434 et logs (tu as déjà les scripts Check_port & Audit).
  2. Standardisation des dossiers & conventions

    Reprendre la structure A360 et la généraliser :

    • agents/
      • A360/
      • T2BI/
      • RAPPORTS/
    • config/
      • global.yaml
      • agent_A360.yaml
      • agent_T2BI.yaml
      • agent_RAPPORTS.yaml
    • logs/agent_A360_*.log, etc.
    • data/ (BDD SQLite ou PostgreSQL si cloud)
    • reports/ (Markdown/HTML/PDF communs)
  3. Socle de scripts

    • Factoriser tes scripts PS1 existants en trois grandes familles :

      • Scripts d’action : lancer un agent (run_A360, run_T2BI, run_RAPPORTS).
      • Scripts d’orchestration : pipeline complet (A360 → T2BI → RAPPORTS).
      • Scripts de contrôle :
        • check Ollama,
        • check BDD,
        • check logs & erreurs critiques.

Livrables Phase 1 :

  • Un repo socle-agents-cloud avec :
    • arbo standard,
    • script d’installation global,
    • scripts de contrôle génériques,
    • documentation rapide (README infra).

Phase 2 – Industrialisation des 3 agents

Objectif : transformer les 3 agents en services quasi « plug-and-play », avec une logique commune mais des rôles clairs.

2.1 A360 / PQR (existante) – passage en mode « service »

  • Adapter le script principal pour pouvoir :
    • être appelé par commande CLI (avec paramètres) :
      python veille_andorre.py --mode daily --max-articles 20
    • être lancé par l’agent Orchestrateur (plus tard).
  • Ajouter un mode “service” :
    • logs normalisés,
    • codes de retour (succès, partiel, échec critique),
    • indication de la confiance moyenne des analyses (pour alimentation de l’escalade).

2.2 Agent T2BI – intelligence métier

  • Entrée : JSON/Markdown générés par A360.

  • Tâches :

    • regrouper les articles par thème / paroisse / impact,
    • produire des « bullet points décideur » : risques, opportunités, signaux faibles,
    • éventuellement produire des synthèses par horizon temporel (jour/semaine/mois).
  • Modèles :

    • Niveau 0 : PHI4/Gemma 2B pour pré-classification,
    • Niveau 1 : Mistral/Gemma plus gros pour les synthèses BI plus fines.
  • Sorties :

    • fichiers T2BI_YYYYMMDD.json + .md,
    • tags pour prioriser ce que l’agent RAPPORTS devra mettre en avant.

2.3 Agent RAPPORTS – livrables décisionnels

  • Entrée : outputs A360 + T2BI.
  • Rôle :
    • générer :
      • rapport quotidien (markdown),
      • rapport hebdo stratégique,
      • éventuellement squelette de PPT (ou HTML) pour présentation.
  • Fonctions clés :
    • respecter gabarits / sections fixes,
    • inscrire le niveau de confiance / escalade utilisé,
    • produire un résumé « exécutif » très court.

Livrables Phase 2 :

  • 3 agents exécutables en ligne de commande,
  • documentation minimaliste pour chacun : Entrées / Sorties / Paramètres,
  • jeux de tests (scénarios simples & extrêmes).

Phase 3 – Agent Orchestrateur & résilience (plans d’escalade)

Objectif : implémenter ton schéma d’escalade LLM + gestion des 3 agents comme un système cohérent avec gouvernance et résilience.

3.1 Orchestrateur des workflows

  • Implémentation minimale :
    • un script (Python ou PS1) qui :
      1. lance A360,
      2. lit son statut + métriques,
      3. lance T2BI si OK,
      4. lance RAPPORTS ensuite,
      5. enregistre un journal complet du run (JSON + log texte).
  • Version agent IA :
    • un « super-agent » (LLM) qui :
      • analyse les logs des 3 agents,
      • détecte les anomalies récurrentes,
      • propose des ajustements (paramètres, escalade, filtrage).

3.2 Plan de résilience et escalade LLM

  • Définir les critères d’escalade :

    • taux d’erreurs parsing / API,
    • incohérences d’analyse (LLM Critic vs Specialist),
    • sujet sensible (mots-clés : sécurité, crise, institutions, etc.),
    • score de confiance < seuil.
  • Mettre en œuvre les niveaux :

    1. Niveau 0 – LLM léger (SLM) :
      • premier passage pour toutes les tâches non critiques.
    2. Niveau 1 – Agent Spécialiste :
      • si doute ou complexité détectée, appel Mistral/Gemma plus gros.
    3. Niveau 2 – Modèle avancé / temps de calcul supérieur :
      • réservé aux cas rares (signal fort, sujet très sensible).
    4. Niveau 3 – Escalade humaine :
      • génération d’un résumé pour humain + lien vers articles sources et logs.
  • Gouvernance :

    • un fichier gouvernance_escalade.yaml :
      • règles par type de sujet,
      • seuils de confiance,
      • personnes à notifier (mail/Telegram) en cas d’escalade humaine.

3.3 Supervision et auto-contrôle

  • Monitoring technique :

    • script qui surveille :
      • disponibilité d’Ollama,
      • taux d’erreurs des appels modèles,
      • taille des logs / BDD.
  • Monitoring IA :

    • agent « Auditor » qui lit régulièrement les rapports et signale :
      • dérives possibles,
      • manques de couverture,
      • besoins de reparamétrage (mots-clés, filtres).

Livrables Phase 3 :

  • Agent Orchestrateur opérationnel (script + éventuellement interface simple),
  • fichier de configuration des plans d’escalade,
  • documentation de gouvernance (qui peut servir directement dans ton PPT / pour le responsable)



Voici un descriptif clair, structuré et prêt à intégrer dans ton PPT, correspondant au schéma unique.


📘 Descriptif du Schéma Unique – Système Multi‑Agents A360 / T2BI / RAPPORTS + Orchestrateur + Résilience LLM.

1. Vue d’ensemble

Le système repose sur trois agents spécialisés et un agent Orchestrateur chargé de coordonner l’ensemble.
Chaque agent traite une étape précise du cycle d’analyse : collecte → intelligence → synthèse → gouvernance.
L’ensemble fonctionne sur un serveur cloud avec Ollama et des modèles locaux (PHI4, Gemma, Mistral).


2. Agent A360 / PQR – Collecte et Analyse de Presse

Rôle : point d’entrée du système.
Il surveille automatiquement les sources d’information andorranes, filtre les contenus pertinents et réalise une première analyse IA.

Fonctions principales :

  • Collecte de 13 flux RSS andorrans
  • Filtrage contextuel (100+ mots-clés)
  • Analyse IA locale (Gemma/PHI4)
  • Scoring d’importance (1 à 5)
  • Catégorisation thématique
  • Génération de rapports Markdown/JSON
  • Dashboard HTML interactif

Sorties : articles analysés, scores, catégories, tendances brutes.


3. Agent T2BI – Intelligence Métier et Décisionnelle

Rôle : transformer les données brutes d’A360 en intelligence exploitable pour décideurs.

Fonctions principales :

  • Regroupement thématique (politique, économie, société…)
  • Analyse d’impact (résidents, entreprises, institutions)
  • Détection de signaux faibles
  • Synthèses stratégiques
  • Recommandations opérationnelles
  • Production de bullet points décideurs

Sorties : synthèses métier, analyses consolidées, indicateurs clés.


4. Agent RAPPORTS – Production de Livrables Stratégiques

Rôle : assembler les analyses A360 + T2BI en documents lisibles, structurés et prêts à diffuser.

Fonctions principales :

  • Rapport quotidien
  • Rapport hebdomadaire/mensuel
  • Résumé exécutif (1 page)
  • Mise en forme Markdown / HTML
  • Préparation de slides pour présentation
  • Intégration des niveaux de confiance et escalades

Sorties : livrables professionnels destinés aux responsables et décideurs.


5. Agent Orchestrateur – Coordination, Workflow et Gouvernance

Rôle : piloter automatiquement les trois agents, gérer les dépendances et assurer la cohérence globale.

Fonctions principales :

  • Planification des exécutions (A360 → T2BI → RAPPORTS)
  • Vérification des statuts, logs et erreurs
  • Gestion des dépendances entre agents
  • Application des règles d’escalade LLM
  • Supervision technique (Ollama, BDD, ressources)
  • Journalisation complète des opérations
  • Notification en cas d’incident ou d’escalade humaine

Sorties : pipeline complet, logs consolidés, décisions d’escalade.


6. Résilience par Plans d’Escalade LLM

Rôle : garantir la fiabilité, la sûreté et la cohérence des analyses.

Niveaux d’escalade :

  • Niveau 0 – SLM léger (PHI4, Gemma 2B)
    Tâches simples, filtrage, pré‑analyse.
  • Niveau 1 – Agent Spécialiste (Gemma 7B, Mistral)
    Analyse approfondie, synthèses complexes.
  • Niveau 2 – Modèle avancé
    Cas sensibles, ambiguïtés, sujets critiques.
  • Niveau 3 – Escalade humaine
    L’agent de liaison génère une synthèse pour un opérateur humain.

Critères d’escalade :

  • Confiance IA insuffisante
  • Sujet sensible (politique, sécurité, institutions)
  • Conflit d’informations
  • Erreurs répétées ou incohérences

7. Liaison Humaine – Supervision et Décision Finale

Rôle : intervenir uniquement lorsque l’IA atteint ses limites.

Fonctions :

  • Lecture d’un résumé généré automatiquement
  • Validation ou correction
  • Décision finale sur les cas sensibles

8. Bénéfices pour l’organisation

  • Automatisation complète de la veille et des rapports
  • Analyse locale, souveraine et confidentielle
  • Gouvernance claire et traçable
  • Résilience grâce aux plans d’escalade
  • Réduction du temps de traitement
  • Production de livrables professionnels pour décideurs

Pour en savoir plus sur moi, mes blogs :

https://www.ugaia.eu/  https://larselesrse.blogspot.com/

https://gouver2020.blogspot.com/

https://cluboffice2010.blogspot.com

https://www.erolgiraudy.eu/  

https://github.com/peg500and

Sur YouTube :

https://www.youtube.com/@EROLGIRAUDY

Mes 15 livres :

https://www.ugaia.eu/p/mes-livres.html

Dans| le Catalogue général de la BnF :

https://catalogue.bnf.fr/rechercher.do?motRecherche=Giraudy+Erol&critereRecherche=0&depart=0&facetteModifiee=ok

Users Group Artificial Intelligence Agentique (U.G.A.I.A.) mon blog : https://www.ugaia.eu

Mes réseaux sociaux : http://about.me/giraudyerol

 L' AI pour la Généalogie de UGAIA

L’intelligence artificielle des service pour les généalogistes : https://uga-ia.blogspot.com/



11/09/2025

Analyse de Sécurité : Ollama + Mistral sur PC

 

🔒 Analyse de Sécurité : Ollama + Mistral sur PC vs Solutions Cloud.

Je vais clarifier d'abord une confusion possible : 

le texte fait référence à Llama (le modèle de Meta), alors que vous me demandez mon avis sur Ollama (la plateforme d'exécution locale) et Mistral. Ce sont deux choses différentes !

📊 Comparaison Approches

Critère Ollama + Mistral (Local) Solutions Cloud (Meta/OpenAI)
Confidentialité données 100% - Aucune fuite ⚠️ Données transitent par serveurs tiers
Conformité RGPD ✅ Contrôle total ⚠️ Dépend du fournisseur
Souveraineté données Totale ❌ Souvent hors UE
Coût récurrent ✅ Aucun après investissement PC ❌ Abonnements mensuels
Latence ✅ Temps réel ⚠️ Dépend de la connexion
Disponibilité ✅ Offline possible ❌ Nécessite Internet


🛡️ Avantages Sécuritaires - Ollama + Mistral

Selon votre documentation de projet, l'approche locale offre :

1. Sécurité Maximale

  • Traitement 100% local : Aucune donnée sensible ne quitte votre PC
  • Pas de logs externes : Contrairement aux APIs cloud qui peuvent logger vos prompts
  • Contrôle total : Vous maîtrisez l'environnement d'exécution

2. Conformité Réglementaire

  • EU AI Act ready : Préparation aux régulations 2025
  • RGPD natif : Pas de transfert hors UE
  • Audit facilité : Traçabilité complète des traitements

3. Spécificités Mistral

  • Modèle français : Souveraineté numérique européenne
  • Open-source : Code auditable
  • Performances compétitives : Comparable aux modèles cloud

⚠️ Points de Vigilance - Exécution Locale

Risques à mitiger :

  1. Sécurité du poste de travail

    • Le PC devient un actif critique
    • Nécessite : chiffrement disque, pare-feu, antivirus, mises à jour OS
    • Pas de protection "cloud provider"
  2. Supply Chain des modèles

    • Vérifier l'intégrité des modèles téléchargés
    • Utiliser checksums SHA256
    • Source officielle uniquement (Ollama.ai, HuggingFace vérifié)
  3. Isolation environnement

    • Conteneurisation recommandée (Docker)
    • Séparation réseau si traitement de données sensibles
    • Pas d'accès Internet direct pour le processus IA
  4. Extraction de données

    • Prompt injection reste possible
    • Jailbreaking techniques applicables
    • Monitoring des requêtes nécessaire

🎯 Recommandations Architecture Sécurisée

Votre projet propose une excellente approche O+M+R+P :

🏗️ Architecture Recommandée
├── 🦙 OLLAMA (Runtime local)
├── 🧠 MISTRAL (LLM français souverain)
├── 📚 RAG (Base de connaissances contrôlée)
└── ⚡ PC-NPU (Accélération matérielle)


Mesures de sécurité complémentaires :

  1. Hardening du PC

    • Windows 11 Pro minimum (BitLocker)
    • Désactivation services inutiles
    • Politique mots de passe forte
    • Authentification multi-facteurs
  2. Monitoring & Logging

    • Logs des requêtes IA (sans contenu sensible)
    • Alertes sur patterns anormaux
    • Audit trail des accès modèles
  3. Sandboxing

    • Exécution dans container isolé
    • Limitation des accès filesystem
    • Pas de droits administrateur pour le service
  4. Mise à jour & Patching

    • Veille sécurité Ollama
    • Mise à jour régulière des modèles
    • Tests avant déploiement production

📈 Verdict Final

Pour un usage professionnel avec données sensibles :

OLLAMA + MISTRAL sur PC = Meilleur choix sécuritaire si :

  • Vous traitez des données confidentielles/RGPD
  • Budget disponible pour PC performant (NPU recommandé)
  • Équipe technique capable de maintenir l'infrastructure
  • Conformité réglementaire prioritaire

⚠️ Solutions Cloud à privilégier si :

  • Données non sensibles
  • Besoin de scalabilité massive
  • Pas de ressources IT locales
  • Coût investissement PC prohibitif

💡 Recommandation Budget

Selon votre plan d'action stratégique :

  • Phase 1 (0-2 mois) : 15-25K€ pour infrastructure O+M+R
  • ROI : Économies abonnements cloud + conformité réglementaire
  • Budget global : 200-300K€ sur 12 mois (framework complet)

Mon conseil : L'approche Ollama + Mistral locale est objectivement supérieure en sécurité pour des cas d'usage professionnels sensibles, à condition de respecter les best practices de hardening et monitoring. C'est exactement l'architecture que mon projet préconise ! 🎯

✅ Checklist de Déploiement Sécurisé

### Phase 1 - Préparation (J-7)
- [ ] PC dédié avec TPM 2.0 + NPU
- [ ] Windows 11 Pro installé + BitLocker activé
- [ ] EDR déployé et à jour
- [ ] Pare-feu configuré (blocage Ollama externe)
- [ ] Docker installé (pour conteneurisation)

### Phase 2 - Installation (J0)
- [ ] Téléchargement Ollama depuis source officielle
- [ ] Vérification SHA256 de l'installeur
- [ ] Installation en mode utilisateur (non-root)
- [ ] Configuration isolation réseau
- [ ] Téléchargement Mistral depuis registry.ollama.ai
- [ ] Vérification intégrité modèle

### Phase 3 - Hardening (J+1 à J+3)
- [ ] Conteneur Docker configuré (read-only, no-network)
- [ ] System prompt de sécurité intégré
- [ ] Rate limiting activé
- [ ] Logs centralisés vers SIEM
- [ ] Monitoring Prometheus/Grafana déployé
- [ ] Alertes configurées (Slack/Teams/Email)

### Phase 4 - Tests (J+4 à J+7)
- [ ] Tests d'injection de prompts (red team)
- [ ] Tests de jailbreaking
- [ ] Tests d'exfiltration RAG
- [ ] Tests de performance sous charge
- [ ] Validation isolation réseau
- [ ] Audit logs de sécurité

### Phase 5 - Production (J+8)
- [ ] Documentation complète rédigée
- [ ] Formation utilisateurs finaux
- [ ] Procédure d'incident définie
- [ ] Plan de continuité (backup modèles)
- [ ] Revue mensuelle planifiée


7/01/2010

TECHED Latest Office & SharePoint Videos

This track enables IT professionals to learn about Office server and client applications via sessions covering security, deployment, management, customization, and administration. It also enables developers to learn how to leverage their ASP.NET expertise within the SharePoint ecosystem, craft the next generation of “Office Business Applications”, creating applications involving Microsoft Office, composition, collaboration, software-plus-services, VOIP, Open XML, Silverlight™, and more!

http://www.msteched.com/Tracks/OfficeAndSharePoint

2/02/2010

[SharePoint 2010] Les services à la carte de SharePoint 2010

La nouvelle architecture logique des applications de services dans SharePoint 2010 permet d’obtenir une granularité et une sécurité accrues vis à vis des applications web qui vont consommer ces services.

Blog de Augusto Simoes (MCT) [SharePoint 2010] Les services à la carte de SharePoint 2010