Introduction

Les agents IA se multiplient à une vitesse vertigineuse. Ces systèmes sont capables de prendre des décisions dans le monde numérique. Les entreprises s'enthousiasment pour ces assistants autonomes. Nous n'avions pourtant pas mesuré leurs actions réelles. Nous découvrons seulement maintenant leurs risques.

Une étude de Merlin Stein offre une vue d'ensemble de cet écosystème. Elle a été publiée sur le site arXiv le 25 mars 2026. L'auteur a analysé 177 436 outils pour agents IA. Cette recherche montre une transformation rapide des systèmes. Les agents ne se contentent plus de lire l'information. Ils la modifient de plus en plus. Ces actions surviennent dans des domaines à enjeux élevés.

Nous présentons d'abord la méthode de cette étude. Nous examinons ensuite les résultats clés. Nous analysons enfin les implications pour la sécurité des systèmes.

Qu'est-ce que le protocole MCP ?

Le Model Context Protocol (MCP) est un protocole open source. La société Anthropic a lancé ce standard en novembre 2024. Il connecte les agents IA à des outils externes. Ces outils sont variés :

Si l'agent IA est un cerveau, les outils MCP sont ses mains.

Nous ne comprenions pas bien l'utilisation des agents IA avant cette étude. Les sondages utilisateurs confondent souvent les modèles de langage avec les agents. Aucune vue d'ensemble n'existait sur ces capacités d'action. Merlin Stein a comblé cette lacune. Il a surveillé tous les dépôts publics de serveurs MCP. Il a classé chaque outil par type et par domaine.

Trois catégories d'impact

L'étude classe les outils en trois catégories selon leur impact sur l'environnement :

Cette distinction est fondamentale. Un outil de perception lit un fichier de paie. Un outil d'action peut virer de l'argent. Le risque n'est pas le même. La part des outils d'action ne cesse de croître.

Résultat 1 : Le code domine encore

Le constat est net. Les outils agents ciblent le développement logiciel à 67 %. Ce domaine représente 90 % des téléchargements de serveurs MCP. Les agents IA aident massivement à programmer. Les développeurs sont les premiers utilisateurs de cette technologie. Les outils de programmation sont faciles à créer dans un environnement numérique structure. La présence du risque dans les autres domaines semble faible. Ce résultat est trompeur. Les domaines de la finance ou de la santé sont moins nombreux (car ils sont plus récents).

Résultat 2 : Les agents passent à l'action

Ce résultat est le plus frappant de l'étude. La part des outils d'action a beaucoup évolué en seize mois :

La proportion d'outils capables de modifier leur environnement a été multipliée par 2,4. Les agents ne consultent plus les données. Ils agissent sur elles. Les cadres de surveillance du secteur ne se sont pas adaptés à cette vitesse. Nous surveillions seulement les sorties textuelles auparavant. Les agents modifient maintenant des fichiers de production. Ils envoient des emails. Certains effectuent des transactions financières. Le saut vers l'action augmente considérablement les risques.

Résultat 3 : Les enjeux financiers et la régulation

L'étude identifie des outils permettant des transactions financières (par exemple via le serveur Coinbase MCP). L'auteur démontre le besoin d'une surveillance étendue. Nous devons surveiller la couche d'outils en plus du modèle. Les régulateurs actuels surveillent principalement les modèles d'IA. Ils regardent les textes et les images générés. Nous ne surveillons pas la couche d'action. Nous régulons les moteurs des voitures sans surveiller les routes.

L'étude propose une méthode de classification. Elle utilise la base de données O*NET. Cette base classifie les professions par niveau de conséquence. Ce cadre permet d'évaluer systématiquement les risques.

Les limites de la recherche

Cette étude pionnière possède des limites importantes :

Conclusion

Nous devons retenir cinq points de cette étude :

  1. 177 436 outils pour agents IA ont été analysés.
  2. Le développement logiciel domine encore les téléchargements de serveurs.
  3. La part des outils d'action est passée de 27 % à 65 %.
  4. Les transactions financières sont déjà possibles via des agents autonomes.
  5. Nous devons surveiller la couche d'outils et pas seulement les modèles.

Cette étude soulève une question de gouvernance. Les agents IA possèdent déjà des milliers d'outils. Ce nombre double chaque mois. Est-ce une simple question de technologie ? Nous pensons qu'il s'agit d'un enjeu démocratique. Nous pouvons éteindre un modèle de langage. Nous ne pouvons pas annuler l'action d'un agent.