dimanche 25 janvier 2026

Un prompt sur Ollama et PHI4

 Un prompt avec des balises pour la G·IA.

Pourquoi ce prompt, simplement je le fais fonctionner sur Ollama et PHI4 sans accès au Web.

Et cela fonctionne.



samedi 24 janvier 2026

ollama launch est une nouvelle commande qui configure et exécute vos outils

 

Lancement d’Ollama ollama launch

 

23 janvier 2026





Si vous souhaitez utiliser Ollama avec OpenCode, ou peut-être lancer un projet en combinant les deux, voici quelques conseils généraux :

Comprendre Ollama et OpenCode :


1. **Ollama** : 
   - Réfère généralement à des outils ou plateformes pour exécuter de grands modèles de langage (LLM). Cela pourrait être associé à la gestion ou au déploiement de tels modèles.

2. **OpenCode** :
   - Pourrait faire référence à des dépôts de code open-source, projets ou plateformes qui facilitent le partage et la collaboration en développement logiciel.

Étapes pour lancer un projet


1. **Définir votre objectif** : 
   - Décrivez clairement ce que vous souhaitez réaliser en intégrant Ollama avec OpenCode. Cherchez-vous à déployer un LLM pour la génération de code, l'analyse, ou autre chose ?

2. **Rechercher les outils** :
   - Explorez les outils et plateformes spécifiques d'Ollama et OpenCode. Cela pourrait impliquer des recherches sur les dépôts GitHub, la documentation ou les forums communautaires.

3. **Configurer votre environnement** :
   - Assurez-vous d'avoir l'environnement nécessaire pour exécuter les modèles Ollama. Cela peut inclure le déploiement de serveurs, la configuration des dépendances logicielles, etc.
   - Si vous utilisez un service cloud, assurez-vous de comprendre les coûts et les exigences en ressources.

4. **Intégrer avec OpenCode** :
   - Identifiez comment votre projet interagira avec OpenCode. Contribuera-t-il du code à un dépôt open-source ? Ou s'appuiera-t-il sur des projets open-source existants ?

5. **Développer votre projet** :
   - Commencez le codage. Utilisez Ollama pour les tâches de modèles de langage et assurez-vous que tout est compatible avec les composants open source que vous utilisez.

6. **Test et itération** :
   - Testez minutieusement votre intégration. Recherchez des bugs, des problèmes de performance ou des domaines à améliorer.
   - Itérez en fonction des retours et des résultats des tests.

7. **Déploiement** :
   - Une fois satisfait, déployez votre projet. Assurez-vous qu'il est évolutif et sécurisé.

8. **Documentation et partage** :
   - Documentez votre processus et vos résultats. Si applicable, partagez votre travail avec la communauté via des plateformes comme GitHub ou des forums en ligne.

9. **Engagement communautaire** :
   - Interagissez avec les communautés Ollama et OpenCode pour obtenir du support, des opportunités de collaboration et rester informé des nouvelles développements.

Considérations


- **Licence** : Assurez-vous de respecter toutes les licences associées aux projets open-source.
- **Sécurité** : Mettez en œuvre les meilleures pratiques de sécurité, surtout si vous gérez des données sensibles.
- **Évolutivité** : Concevez votre solution pour gérer une croissance potentielle en utilisateurs ou volume de données.

CLI de lancement d’Ollamaollama launch est une nouvelle commande qui configure et exécute vos outils de codage préférés comme Claude Code, OpenCode et Codex avec des modèles locaux ou cloud. Aucune variable d’environnement ni fichier de configuration n’est nécessaire.

Commencez

Téléchargez Ollama v0.15+, puis ouvrez un terminal et exécutez :

# ~23 GB VRAM required with 64000 tokens context length
ollama pull glm-4.7-flash 

# or use a cloud model (with full context length)
ollama pull glm-4.7:cloud

Configuration d’une commande

Code Claude :

ollama launch claude

Lancement Ollama Claude Code

OpenCode :

ollama launch opencode

Lancement d’Ollama OpenCode

This will guide you to select models and launch your chosen integration. No environment variables or config files needed.

Supported integrations

  • Claude Code
  • OpenCode
  • Codex
  • Droid

Note: Coding tools work best with a full context length. Update the context length in Ollama’s settings to at least 64000 tokens. See the context length documentation on how to make changes.

Local models:

  • glm-4.7-flash
  • qwen3-coder
  • gpt-oss:20b

Cloud models:

  • glm-4.7:cloud
  • minimax-m2.1:cloud
  • gpt-oss:120b-cloud
  • qwen3-coder:480b-cloud

Extended coding sessions

If you have trouble running these models locally, Ollama also offers a cloud service with hosted models that has full context length and generous limits even at the free tier.

With this update Ollama now offers more usage and an extended 5-hour coding session window. See ollama.com/pricing for details.

Configure only

To configure a tool without launching it immediately:

ollama launch opencode --config
ollama/ollama: Get up and running with OpenAI GLM-4.7, DeepSeek, gpt-oss, Qwen, Gemma and other models.
https://github.com/ollama/ollama/blob/main/README.md
https://github.com/ollama 

Context length - Ollama https://docs.ollama.com/context-length



Pas possible avec PHI4
Mieux avec Mistral
Le service est :
■ We're currently experiencing high demand, which may cause temporary errors.

Mon dernier livre :

LA DICTATURE DE L’IA ET SA GOUVERNANCE. : Reprendre le contrôle : Guide pratique pour une souveraineté numérique européenne
de Pierre GIRAUDY

https://amzn.eu/d/2EPZ88X

Ce livre diagnostique la dépendance critique de l'Europe aux infrastructures numériques américaines (GAFAM + NVIDIA) et chinoises (BATX), transformant la commodité technologique en vulnérabilité stratégique. Il y est estimé qu'entre 65% et 80% la probabilité de perturbations majeures des services cloud américains en Europe d'ici 2028 pourrait être effectives, rendant urgent le développement d'alternatives souveraines et Européennes.

Le livre combine analyse géopolitique rigoureuse et guides techniques pratiques, proposant une feuille de route en six chapitres : diagnostic de la colonisation numérique, évaluation des risques géopolitiques, panorama des alternatives européennes (GAIA-X, OVHcloud, Scaleway), maîtrise technique de l'IA locale via la stack Ubuntu + Ollama + Mistral/PHI4 (SLM), gouvernance collective (GINUM, AI Act), et plan d'action opérationnel (PRAN).

Voir un retour d'expérience concret (REX) démontrant qu'une infrastructure souveraine coûte 34% moins cher qu'une solution GAFAM sur 5 ans (économie de 225k€ annuels pour une PME de 100 employés), tout en éliminant les risques géopolitiques. Le livre inclut un thriller techno géopolitique fictif ("La Grande Déconnexion") illustrant un scénario de coupure des câbles transatlantiques et perte des GPS / horloges atomiques.

Destiné aux DSI, dirigeants d'entreprise, décideurs publics et citoyens éclairés, cet ouvrage démontre que la souveraineté numérique n'est ni utopie idéologique ni repli protectionniste, mais une condition opérationnelle de liberté, de sécurité et de prospérité à l'ère de l'IA.



Certains de mes autres livres :

https://www.amazon.fr/s?k=erol+giraudy&__mk_fr_FR=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3MBGIS9RQ7D1W&sprefix=erol+giraudy%2Caps%2C268&ref=nb_sb_noss


Pour en savoir plus sur moi, mes blogs :

https://www.ugaia.eu/  https://larselesrse.blogspot.com/

https://gouver2020.blogspot.com/

https://cluboffice2010.blogspot.com

https://www.erolgiraudy.eu/  

https://github.com/peg500and

Sur YouTube :

https://www.youtube.com/@EROLGIRAUDY

Mes 15 livres :

https://www.ugaia.eu/p/mes-livres.html

Dans| le Catalogue général de la BnF :

https://catalogue.bnf.fr/rechercher.do?motRecherche=Giraudy+Erol&critereRecherche=0&depart=0&facetteModifiee=ok

Users Group Artificial Intelligence Agentique (U.G.A.I.A.) mon blog : https://www.ugaia.eu

Mes réseaux sociaux : http://about.me/giraudyerol

 L' AI pour la Généalogie de UGAIA

L’intelligence artificielle des service pour les généalogistes : https://uga-ia.blogspot.com/