
La dernière mise à jour de la spécification MCP renforce l’infrastructure d’entreprise grâce à une sécurité accrue, faisant passer les agents d’IA du stade pilote à la production.
Pour son premier anniversaire, le projet open source créé par Anthropic a publié cette semaine une version révisée de la spécification, visant à résoudre les difficultés opérationnelles qui empêchent les agents d’IA générative de quitter la phase pilote. Soutenue par Amazon Web Services (AWS), Microsoft et Google Cloud, la mise à jour ajoute la prise en charge des workflows de longue durée et des contrôles de sécurité renforcés.
Le marché s’éloigne progressivement des intégrations fragiles et personnalisées. Pour les entreprises, c’est l’occasion de déployer des agents d’IA capables de lire et d’écrire dans les dépôts de données internes sans générer une dette technique massive.
MCP passe de “curiosité de développeur” à une infrastructure pratique
Le récit évolue : on passe de chatbots expérimentaux à une intégration structurelle. Depuis septembre, le registre a augmenté de 407 %, accueillant désormais près de deux mille serveurs.
« Un an après le lancement du Model Context Protocol par Anthropic, MCP est passé d’une curiosité pour développeurs à un moyen pratique de connecter l’IA aux systèmes où vivent le travail et les données », déclare Satyajith Mundakkal, directeur technique mondial chez Hexaware, à la suite de cette mise à jour.
Microsoft a déjà « signalé ce changement en ajoutant une prise en charge native de MCP à Windows 11 », intégrant ainsi le standard directement dans la couche système.
Cette normalisation logicielle s’accompagne d’une montée en puissance matérielle agressive. Mundakkal souligne « l’infrastructure sans précédent en cours de déploiement », citant le programme multigigawatt “Stargate” d’OpenAI. « Ce sont des signaux clairs que les capacités de l’IA, et les données sur lesquelles elles reposent, évoluent rapidement », ajoute-t-il.
MCP constitue la plomberie qui alimente ces ressources de calcul massives. Comme le dit Mundakkal : « L’IA n’est aussi bonne que les données auxquelles elle peut accéder en toute sécurité. »
Jusqu’à présent, connecter un LLM à une base de données se faisait majoritairement de manière synchrone. Cela convient à un chatbot vérifiant la météo, mais échoue lorsqu’il s’agit de migrer une base de code ou d’analyser des dossiers médicaux.
La nouvelle fonctionnalité “Tasks” change cela (SEP-1686). Elle offre aux serveurs une manière standard de suivre le travail, permettant aux clients de vérifier l’avancement ou d’annuler une tâche en cas de problème. Les équipes Ops qui automatisent les migrations d’infrastructure ont besoin d’agents capables de fonctionner pendant des heures sans interruption. La prise en charge d’états comme working ou input_required apporte enfin de la résilience aux workflows agentiques.
La mise à jour de la spec MCP améliore la sécurité
Pour les responsables de la sécurité (CISO), les agents d’IA ressemblent souvent à une vaste surface d’attaque difficile à contrôler. Les risques sont déjà visibles : « des chercheurs en sécurité ont même trouvé environ 1 800 serveurs MCP exposés sur Internet mi-2025 », laissant penser que l’adoption par les infrastructures privées est bien plus large.
« Mal géré », avertit Mundakkal, « [MCP] devient une prolifération d’intégrations et une surface d’attaque accrue. »
Pour y remédier, les mainteneurs ont traité les frictions liées à l’enregistrement dynamique des clients (DCR). La solution : l’enregistrement de clients basé sur les URL (SEP-991), où les clients fournissent un identifiant pointant vers un document de métadonnées autogéré, réduisant le goulet d’étranglement administratif.
Il y a ensuite le “URL Mode Elicitation” (SEP-1036). Il permet à un serveur — traitant des paiements, par exemple — de rediriger un utilisateur vers une fenêtre de navigateur sécurisée pour saisir ses identifiants. L’agent ne voit jamais le mot de passe : il ne reçoit qu’un jeton. Les identifiants critiques restent isolés, une exigence incontournable pour la conformité PCI.
Harish Peri, vice-président senior chez Okta, estime que cela apporte « la supervision et le contrôle d’accès nécessaires pour construire un écosystème d’IA sécurisé et ouvert ».
Une fonctionnalité introduite dans la mise à jour a pourtant été peu remarquée : “Sampling with Tools” (SEP-1577). Les serveurs, auparavant de simples récupérateurs de données, peuvent désormais exécuter leurs propres boucles en utilisant les jetons du client. On peut imaginer un « serveur de recherche » générant des sous-agents pour explorer des documents et synthétiser un rapport. Aucun code client personnalisé requis — le raisonnement se rapproche simplement des données.
Cependant, créer ces connexions n’est que la première étape. Mayur Upadhyaya, PDG d’APIContext, soutient que « la première année d’adoption de MCP a montré que l’IA d’entreprise ne commence pas par des réécritures, elle commence par l’exposition. »
Mais la visibilité constitue l’étape suivante. « La prochaine vague portera sur la visibilité : les entreprises devront surveiller la disponibilité des serveurs MCP et valider les flux d’authentification aussi rigoureusement qu’elles surveillent leurs API », explique-t-il.
La feuille de route de MCP reflète cela, avec des mises à jour visant une meilleure « fiabilité et observabilité » pour le débogage. Considérer les serveurs MCP comme du “set and forget” est une erreur. Mundakkal approuve, rappelant que la leçon de cette première année est de « combiner MCP avec une identité forte, un RBAC solide et de l’observabilité dès le premier jour ».
Une adoption par les poids lourds de l’industrie
Un protocole ne vaut que par ceux qui l’utilisent. En un an depuis la publication initiale de la spec, MCP a atteint près de deux mille serveurs. Microsoft l’utilise pour relier GitHub, Azure et M365. AWS l’intègre dans Bedrock. Google Cloud le prend en charge dans Gemini.
Cela réduit l’enfermement propriétaire. Un connecteur Postgres développé pour MCP devrait théoriquement fonctionner avec Gemini, ChatGPT ou un agent interne Anthropic sans réécriture.
La phase “plomberie” de l’IA générative se stabilise, et les standards ouverts remportent le débat sur la connectivité. Les dirigeants technologiques devraient auditer leurs API internes pour vérifier leur compatibilité MCP — en privilégiant l’exposition plutôt que la réécriture — et s’assurer que le nouvel enregistrement basé sur les URL s’intègre dans les cadres IAM actuels.
Des protocoles de supervision doivent également être mis en place immédiatement. Bien que la dernière mise à jour de la spécification MCP reste rétrocompatible, les nouvelles fonctionnalités sont essentielles pour intégrer les agents dans des workflows réglementés et critiques, tout en garantissant leur sécurité.





















