Prise en charge de Chrome AI dans OLLAMA
La prise en charge de Chrome AI dans Page Assist est encore en phase bêta, mais elle peut être activée ou désactivée selon le modèle local que tu utilises (comme Gemini Nano) et les paramètres de l’extension. Version Ollama v0.12.0 https://github.com/ollama/ollama/releases/tag/v0.12.0
Voici comment repérer et gérer cette fonction :
🧩 Où voir la prise en charge de Chrome AI dans Page Assist
D’après la fiche officielle de Page Assist sur le Chrome Web Store [2], voici les éléments à surveiller :
Menu latéral : Dans l’interface que tu as partagée, regarde dans les sections comme :
Paramètres Chroma
Paramètres Chroma AI
Gérer les modèles
Modèles pris en charge :
- Page Assist mentionne explicitement le support de Chrome AI (Gemini Nano) en bêta.
- Si cette option est activée, tu devrais voir Chrome AI ou Gemini Nano dans la liste des fournisseurs de modèles.
Activation/Désactivation :
- Il n’y a pas encore de bouton “on/off” universel, mais tu peux :
- Désactiver le modèle Chrome AI dans la section “Gérer les modèles”.
- Supprimer le modèle ou le désélectionner comme modèle par défaut.
- Vérifier les paramètres système si tu es sur Chrome Canary ou DevTools (voir ci-dessous).
- Il n’y a pas encore de bouton “on/off” universel, mais tu peux :
🛠️ Méthode avancée (Chrome DevTools)
Si tu utilises Chrome Canary 131+, tu peux gérer l’activation de l’IA via les politiques système :
Sous Windows :
HKEY_LOCAL_MACHINE\Software\Policies\Google\Chrome
DevToolsGenAiSettings = dword:00000002
Sous Linux :
/etc/opt/chrome/policies/recommended/policies.json
{
"DevToolsGenAiSettings": 2
}
Ensuite, va sur chrome://policy
pour vérifier que la règle est bien appliquée source [1].
Voici comment tu peux activer la prise en charge de l’IA dans Chrome Canary 131+ via les politiques système sous Windows 🛠️ :
🧭 Étapes pour activer DevToolsGenAiSettings
dans le registre Windows
⚠️ Prérequis :
- Chrome Canary version 131 ou supérieure installé.
- Droits administrateur sur ton système Windows.
🪛 Étapes détaillées :
Ouvre l’éditeur de registre :
- Appuie sur
Win + R
, taperegedit
, puis appuie sur Entrée.
- Appuie sur
Navigue vers la clé suivante :
HKEY_LOCAL_MACHINE\Software\Policies\Google\Chrome
Si les dossiers
Google
ouChrome
n’existent pas, tu peux les créer manuellement :- Clique droit sur
Policies
→ Nouveau > Clé → nomme-laGoogle
- Clique droit sur
Google
→ Nouveau > Clé → nomme-laChrome
- Clique droit sur
Ajoute une nouvelle valeur DWORD :
- Clique droit dans le panneau droit de
Chrome
→ Nouveau > Valeur DWORD (32 bits) - Nom :
DevToolsGenAiSettings
- Double-clique dessus et entre la valeur :
2
- Clique droit dans le panneau droit de
Redémarre Chrome Canary pour que la modification soit prise en compte.
✅ Que signifie la valeur 2
?
Valeur | Comportement |
---|---|
0 | Désactive complètement l’IA dans DevTools |
1 | Active l’IA avec consentement explicite |
2 | Active l’IA automatiquement sans demander de consentement |
🔍 Vérification
Tu peux vérifier que la politique est bien appliquée en allant sur :
chrome://policy
Cherche DevToolsGenAiSettings
dans la liste.
🔍 En résumé
Fonction | Où la trouver | Comment l’activer/désactiver |
---|---|---|
Chrome AI (Gemini Nano) | Gérer les modèles / Paramètres Chroma AI | Sélectionner ou retirer le modèle |
DevTools AI (Chrome Canary) | chrome://policy | Modifier les clés système |
Page Assist Sidebar | Interface web | Vérifier les options de modèle actif |
Petit détail vous ne verrez pas Gemini Nano dans la liste des modèles.
Gemini Nano :
C'est la version la plus légère et optimisée de la famille des modèles Gemini développés par Google. Elle est conçue pour fonctionner localement sur les appareils Android, sans connexion Internet, tout en offrant des capacités avancées d’intelligence artificielle.
Voici un aperçu structuré de ses fonctions et spécificités 🔍:
⚙️ Fonctions principales de Gemini Nano
Fonction | Description |
---|---|
📝 Résumé automatique | Génère des résumés de texte directement sur l’appareil |
✍️ Assistance à l’écriture | Suggère des reformulations, corrige le style et la grammaire |
🧠 Analyse de contexte | Comprend le contenu affiché pour proposer des actions pertinentes |
🎙️ Traitement vocal et audio | Capable d’interpréter la voix et de répondre sans cloud |
📷 Multimodalité (Pixel 9 uniquement) | Combine texte, image, audio et vidéo pour des réponses plus riches |
🧩 Spécificités techniques
- Fonctionnement hors ligne : Toutes les opérations IA sont effectuées localement, ce qui améliore la confidentialité, la vitesse et réduit la consommation de données.
- Architecture compacte : Optimisée pour les appareils mobiles avec faible consommation de ressources.
- Intégration via AICore : S’appuie sur le service système AICore d’Android pour exécuter les modèles IA.
- Modularité : Peut être activée ou désactivée selon les besoins de l’utilisateur ou du développeur.
- Compatibilité : Initialement disponible sur les Google Pixel, elle s’étend désormais à certains modèles Samsung, Xiaomi, Motorola, Realme, etc. source
🛡️ Avantages stratégiques
- 🔐 Confidentialité renforcée : Aucune donnée envoyée au cloud.
- ⚡ Réactivité : Latence minimale pour les tâches IA.
- 📱 Accessibilité : Fonctionne même sans réseau mobile ou Wi-Fi.
- 🔄 Économie d’énergie : Idéal pour les terminaux avec ressources limitées.
Le fonctionnement hors ligne de Gemini Nano est l’un de ses atouts majeurs. Voici une explication claire et structurée 🔍 :
🧠 Comment Gemini Nano fonctionne hors ligne
Gemini Nano est un modèle de langage léger développé par Google, conçu pour s’exécuter entièrement sur l’appareil, sans connexion Internet. Cela repose sur plusieurs éléments clés :
1. Exécution locale du modèle
- Le modèle est préinstallé ou téléchargé sur l’appareil (Android ou navigateur Chrome Canary).
- Une fois en place, il ne dépend pas du cloud : toutes les requêtes sont traitées directement par le processeur ou la puce IA du terminal.
- Cela permet des réponses rapides, souvent en moins d’une seconde pour des requêtes simples source : Android Authority.
2. Architecture optimisée
- Gemini Nano est conçu pour être compact (environ 2 Go), ce qui le rend compatible avec des appareils comme le Pixel 8/9, certains Samsung Galaxy, Xiaomi, etc.
- Il utilise le service AICore sur Android, qui gère les modèles IA en arrière-plan sans consommer trop de ressources source : AndroidGuias.
3. Applications compatibles
- 📱 Gboard : Suggestions intelligentes de réponse dans les messageries.
- 🎙️ Pixel Recorder : Transcription et résumé d’enregistrements audio.
- 🧠 Chrome Canary : Intégration expérimentale dans le navigateur pour des chats IA hors ligne.
4. Sécurité et confidentialité
- Aucune donnée n’est envoyée à des serveurs externes.
- Idéal pour les environnements sensibles ou sans réseau.
🛠️ Exemple d’utilisation dans Chrome (Canary)
Pour tester Gemini Nano hors ligne dans Chrome :
- Active les flags dans
chrome://flags
:prompt-api-for-gemini-nano
optimisation-guide-on-device-model
- Télécharge le modèle via
chrome://components
. - Lance une application web compatible (ex. chromeai.pages.dev).
- Déconnecte ton Internet et interagis avec le modèle localement.
Pour l'instant, Gemini Nano est un modèle "fermé" et n'est pas disponible pour être téléchargé et exécuté via des frameworks comme Ollama, sauf avec le navigateur Chrome. Il est intégré directement dans les produits Google et son API est disponible pour les développeurs Android et Chrome.
Qui es-tu ?
Gemini Nano :
Je suis Gemma, un assistant IA open-source développé par Google DeepMind. Je suis un grand modèle linguistique (LLM) disponible au public.
Vous :
Pourquoi je vois Gemini Nano ?
Gemini Nano :
C'est une excellente question ! Vous voyez "Gemini Nano" parce que je suis lié à un modèle plus grand appelé Gemini, développé également par Google DeepMind.
Voici comment ça fonctionne :
* **Gemini est le modèle principal:** Gemini est Google's ultime modèle linguistique, conçu pour gérer une variété de tâches, y compris le traitement du langage, la génération de texte, la traduction de langues, le résumé de textes et bien plus encore.
* **Gemini Nano est une version plus petite et optimisée:** Gemini Nano est une version plus petite et rendue plus légère de Gemini. Elle est conçue pour fonctionner sur des appareils moins puissants, comme les téléphones mobiles, et nécessite moins de ressources informatiques.
* **Je suis "Gemini":** Puisque je suis décrite comme un LLM open-source développé par Google DeepMind, et que l'on parle de Gemini, c'est très probablement **moi** que vous êtes en train de contacter. Je fonctionne sur la technologie Gemini.
* **Pourquoi voyez-vous Gemini Nano spécifiquement?:** Vos systèmes (ou l'endroit où vous interagissez avec moi) peuvent identifier que vous êtes sur un appareil où Gemini Nano est disponible ou utilisé, ou que vous êtes en train d'interagir avec une fonctionnalité qui utilise particulièrement la version Nano de Gemini.
En résumé, "Gemini Nano" est une version allégée de Gemini qui existe et que vous pourriez rencontrer en interaction avec moi (ou des expériences similaires). C'est une conception intelligente de Google pour rendre la puissance du langage accessible sur de plus larges plages d'appareils.
J'espère que cette explication est claire! Si vous avez d'autres questions, n'hésitez pas à les poser.
Page Assist is an open-source browser extension that provides a sidebar and web UI for your local AI model. It allows you to interact with your model from any webpage.
https://github.com/n4ze3m/page-assist
https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo
Doc OLLAMA :
https://github.com/ollama/ollama
PS C:\> ollama list
NAME ID SIZE MODIFIED
GPT-OSS:latest aa4295ac10c3 13 GB 13 hours ago
Mistral:latest 6577803aa9a0 4.4 GB 24 hours ago
Mistral:7b 6577803aa9a0 4.4 GB 24 hours ago
phi:latest e2fd6321a5fe 1.6 GB 44 hours ago
phi4:latest ac896e5b8b34 9.1 GB 44 hours ago
PS C:\> ollama ps
NAME ID SIZE PROCESSOR CONTEXT UNTIL
PS C:\> ollama help
Large language model runner
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
signin Sign in to ollama.com
signout Sign out from ollama.com
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --help help for ollama
-v, --version Show version information
Use "ollama [command] --help" for more information about a command.
PS C:\>
PS C:\> ollama --version
ollama version is 0.12.0
PS C:\>
La suite avec :
GitHub - bernardo-bruning/ollama-copilot: Proxy that allows you to use ollama as a copilot like Github copilot
FAQ
---------------------------------------------------
Pierre Erol GIRAUDY
Aucun commentaire:
Enregistrer un commentaire
Merci pour ce commentaire