Blog
jusqu’où laisserons-nous l’IA décider pour nous ?


Imaginez une IA capable d’ouvrir un document Word, d’y écrire du texte, de ranger vos fichiers ou même de réserver un billet d’avion sans que vous leviez le petit doigt. C’est exactement ce que prépare Microsoft avec Copilot Actions, une nouvelle brique de son assistant intégré à Windows 11.
Votre prochain collègue s’appelle Copilot
Selon l’entreprise, l’objectif est de transformer Copilot en « collaborateur numérique » capable d’interagir avec vos applications et vos données locales « comme un humain le ferait ». Concrètement, l’agent pourra cliquer, faire défiler des fenêtres ou saisir du texte pour accomplir des tâches complexes à la place de l’utilisateur. La promesse de cette automatisation est de simplifier la vie des utilisateurs… mais cette technologie pose aussi une question embarrassante : jusqu’où laisserons-nous une IA agir à notre place sur nos propres fichiers ? Le précédent de Windows Recall — une fonction accusée de collecter trop d’informations personnelles — a laissé des traces. Cette fois, Microsoft veut éviter tout faux pas.
Les actions Copilot ne seront pas activées par défaut. Le test est limité aux membres du programme Windows Insider, qui doivent-eux-mêmes activer manuellement le mode expérimental eux-mêmes caché dans les paramètres (Système > Composants IA > Outils d’agent). Le groupe assure également avoir verrouillé le dispositif : les agents doivent être signés numériquement par une source de confiance, ce qui permet de bloquer tout agent malveillant ; ils fonctionnent dans un espace isolé baptisé « Agent workspace », avec un bureau virtuel séparé et un accès restreint aux dossiers sensibles (Documents, Téléchargements, Images) ; toute extension d’accès doit être précisée autorisée par l’utilisateur.
« L’agent démarre avec des autorisations limitées et ne peut accéder qu’aux ressources que vous lui confiez », explique Dana Huang, vice-présidente de Windows Security. « Il n’a aucun pouvoir de modifier votre appareil sans votre intervention, et cet accès peut être révoqué à tout moment. » En interne, Microsoft dit avoir constitué des équipes de « red teaming », autrement dit des chercheurs en sécurité chargés d’attaquer le système pour détecter ses failles avant qu’il ne soit proposé au grand public.
Malgré ces précautions, les experts en sécurité restent sur leurs gardes. L’IA agentique introduit des risques encore mal maîtrisés, comme les attaques dites « cross-prompt injection », où un contenu piégé pourrait détourner l’agent pour exfiltrer des données ou installer un logiciel malveillant. Microsoft promet des contrôles de confidentialité plus fins avant toute sortie officielle. Mais l’enjeu dépasse la simple technique : il s’agit de savoir si les utilisateurs sont prêts à confier leurs fichiers, leurs identifiants et leurs gestes numériques à un logiciel autonome.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, sur une newsletter tous les matins.











