Les agents IA commencent à vous aider à gagner de l'argent, mais la difficulté est…

Auteur : Vaidik Mandloi

Titre original : Know Your Agent

Traduction et synthèse : BitpushNews


La promesse que les agents IA vont transformer la configuration d’Internet devient peu à peu réalité. Ils ont dépassé le stade d’outils expérimentaux dans une fenêtre de chat pour devenir une partie essentielle de nos opérations quotidiennes — du nettoyage de la boîte mail, à la planification de réunions, en passant par la réponse aux tickets de support. Ils améliorent silencieusement la productivité, souvent sans que l’on s’en rende compte.

Cependant, cette croissance n’est pas qu’une rumeur.

D’ici 2025, le trafic automatisé dépassera le trafic humain, représentant 51 % de l’activité totale en ligne. Aux États-Unis, le trafic IA sur les sites de vente au détail a augmenté de 4700 % en un an. Les agents IA fonctionnent désormais à travers plusieurs systèmes, certains pouvant accéder à des données, déclencher des workflows, voire initier des transactions.

Néanmoins, la confiance dans des agents totalement autonomes a chuté, passant de 43 % à 22 % en un an, principalement en raison de l’augmentation des incidents de sécurité. Près de la moitié des entreprises utilisent encore des clés API partagées pour authentifier leurs agents, une méthode jamais conçue pour permettre à des systèmes autonomes de transférer de la valeur ou d’agir indépendamment.

Le problème est que la vitesse d’expansion des agents dépasse celle de l’infrastructure conçue pour les réguler.

En réponse, de nouvelles couches de protocoles émergent. Les stablecoins, l’intégration avec les réseaux de cartes, et des standards natifs comme x402 permettent d’initier des transactions machine à machine. Parallèlement, de nouvelles couches d’identité et de vérification sont en développement pour aider les agents à s’auto-reconnaître et à opérer dans des environnements structurés.

Mais payer n’est pas synonyme d’économie. Dès que les agents peuvent transférer de la valeur, des questions plus fondamentales apparaissent : comment découvrent-ils des services adaptés de manière machine-lisible ? Comment prouvent-ils leur identité et leur autorisation ? Comment vérifier que les opérations qu’ils déclarent avoir effectuées ont bien eu lieu ?

Cet article explore l’infrastructure nécessaire pour faire fonctionner une économie pilotée par des agents à grande échelle, et évalue si ces couches sont suffisamment matures pour supporter des participants autonomes, durables, et opérant à la vitesse des machines.

Les agents ne peuvent pas acheter ce qu’ils ne voient pas

Avant de payer pour un service, un agent doit d’abord le localiser. Cela paraît simple, mais c’est actuellement la étape la plus problématique.

Internet a été conçu pour la lecture humaine. Lorsqu’un humain recherche du contenu, un moteur de recherche renvoie des liens classés. Ces pages sont optimisées pour la persuasion. Elles regorgent de mises en page, de trackers, de publicités, de barres de navigation et d’éléments stylistiques, qui ont du sens pour un humain mais ne sont que “bruit” pour une machine.

Lorsque l’agent demande la même page, il reçoit le HTML brut. Un article de blog ou une fiche produit peut représenter environ 16 000 tokens dans ce format. Converti en Markdown propre, ce nombre tombe à environ 3 000 tokens. Cela signifie que le contenu que le modèle doit traiter est réduit de 80 %. Pour une seule requête, cette différence peut être négligeable. Mais lorsqu’un agent envoie des milliers de telles requêtes à travers plusieurs services, cette surcharge s’accumule, entraînant des délais, des coûts et une complexité accrue pour le raisonnement.

image.png

@Cloudflare

Au final, les agents dépensent énormément de ressources pour décomposer l’interface et accéder à l’information essentielle pour agir. Cette démarche n’améliore pas la qualité de la sortie, elle compense une architecture web qui n’a jamais été conçue pour eux.

Avec la croissance du trafic piloté par les agents, cette inefficacité devient encore plus flagrante. Les crawlers IA sur les sites de commerce et de logiciels ont connu une forte augmentation l’année dernière, représentant aujourd’hui une part importante de l’activité en ligne.

Par ailleurs, environ 79 % des principaux sites d’actualités et de contenu bloquent au moins un crawler IA. De leur point de vue, c’est compréhensible : ces agents n’interagissent pas avec la publicité, les abonnements ou les entonnoirs de conversion traditionnels. Les bloquer vise à protéger leurs revenus.

Le problème est que le web ne dispose pas d’un moyen fiable pour distinguer un crawler malveillant d’un agent d’achat légitime. Les deux génèrent du trafic automatique, proviennent d’infrastructures cloud, et se ressemblent énormément pour le système.

Plus profondément, les agents ne cherchent pas à “consommer” une page, mais à découvrir des opportunités d’action.

Lorsque l’humain recherche “billets d’avion à moins de 500 dollars”, une simple liste de liens suffit. Il compare, décide. Mais pour un agent, il faut autre chose : connaître quels services acceptent les réservations, quels formats d’entrée ils requièrent, comment sont calculés les prix, si le paiement peut être automatisé. Très peu de services publient ces informations de façon claire.

image.png

@TowardsAI

C’est pourquoi la recherche évolue vers une découvrabilité orientée agents (Agent-Oriented Discoverability, AEO). Si l’utilisateur final est un agent, le classement dans la page de recherche devient moins crucial. L’essentiel est que le service décrive ses capacités dans un format compréhensible par l’agent, sans ambiguïté. Sinon, il risque de devenir “invisible” dans la part croissante de l’économie qu’il représente.

Les agents ont besoin d’une identité

image.png

@Hackernoon

Une fois qu’un agent peut localiser un service et initier une transaction, la question suivante est : comment l’autre partie sait-elle avec qui elle interagit ? En d’autres termes : l’identité.

Aujourd’hui, le système financier repose sur une multitude d’identités machine, bien plus nombreuses que celles humaines. La proportion d’identités non humaines dans la finance est d’environ 96 pour 1. API, comptes de service, scripts automatisés, agents internes dominent l’infrastructure des institutions. La plupart n’ont pas été conçus pour détenir ou gérer du capital. Ils exécutent des instructions prédéfinies, sans capacité de négociation, de choix de fournisseur ou de paiement sur un réseau ouvert.

Les agents autonomes changent cette frontière. Si un agent peut déplacer directement des stablecoins ou déclencher un processus de paiement sans confirmation manuelle, la question centrale devient : “Qui l’a autorisé à payer ?”

C’est ici que l’identité devient fondamentale, d’où le concept de “Know Your Agent” (KYA).

Comme dans la finance où l’on vérifie l’identité d’un client avant de lui permettre de trader, les services avec lesquels un agent autonome interagit doivent valider trois choses avant d’accorder l’accès à des capitaux ou d’autoriser des opérations sensibles :

  1. Authenticité cryptographique : cet agent contrôle-t-il réellement la clé qu’il prétend utiliser ?
  2. Autorisation : qui a donné à cet agent le droit d’agir, et quelles sont ses limites ?
  3. Lien avec le monde réel : cet agent est-il lié à une entité légale responsable ?

Ces vérifications forment une pile d’identité :

  • La base est la cryptographie : génération de clés, signatures. Des standards comme ERC-8004 tentent de formaliser la façon dont un agent peut s’enregistrer de manière vérifiable sur la blockchain.
  • La couche intermédiaire est celle des fournisseurs d’identité. Elle relie la clé à une entité réelle — une société enregistrée, une institution financière, une personne vérifiée. Sans cette liaison, une signature ne prouve que le contrôle, pas la responsabilité.
  • La couche périphérique concerne l’infrastructure de vérification : processeurs de paiement, CDN, serveurs d’applications qui valident en temps réel la signature, vérifient les attestations, et appliquent des limites d’autorisation. Le protocole de Trusted Agent de Visa en est un exemple, permettant aux commerçants de vérifier si un agent est autorisé à agir pour un utilisateur spécifique. Le protocole d’agents commerciaux de Stripe (ACP) pousse ces vérifications dans la couche de paiement programmable et de stablecoins.

Par ailleurs, le standard UCP (Universal Commerce Protocol), porté par Google et Shopify, permet aux commerçants de publier des “listes de capacités” que les agents peuvent découvrir et négocier. Il sert de couche d’orchestration, intégrée potentiellement à Google Search ou Gemini.

image.png

@FintechBrainfood

Une nuance importante : les systèmes non autorisés et autorisés coexistent.

Sur une blockchain publique, un agent peut effectuer des transactions sans seuil centralisé. Cela accélère la vitesse et la composabilité, mais pose aussi des défis réglementaires. L’acquisition de Bridge par Stripe illustre cette tension. Les stablecoins permettent des transferts instantanés transfrontaliers, mais la conformité ne disparaît pas parce que la transaction se fait sur la chaîne.

Cette tension implique inévitablement une régulation. Dès qu’un agent autonome peut initier des opérations financières sans supervision humaine directe, la responsabilité devient un enjeu crucial. Le système financier ne peut tolérer que du capital circule par des acteurs non identifiés ou non autorisés, même s’il s’agit de fragments de code.

Les cadres réglementaires sont en cours d’adoption. La loi sur l’IA du Colorado, entrée en vigueur le 1er février 2026, impose des responsabilités pour les systèmes automatisés à haut risque, et d’autres législations similaires se développent à l’échelle mondiale. Lorsque les agents commenceront à prendre des décisions financières à grande échelle, l’identité ne sera plus optionnelle. Si la découvrabilité rend les agents visibles, l’identité leur confère la légitimité.

Vérifier l’exécution et la réputation des agents

Une fois qu’un agent commence à exécuter des tâches impliquant de l’argent, des contrats ou des données sensibles, la simple possession d’une identité ne suffit pas. Un agent vérifié peut toujours produire des hallucinations, déformer ses résultats, divulguer des informations ou mal fonctionner.

La question clé devient alors : comment prouver que l’agent a bien effectué ce qu’il prétend ?

Si un agent affirme avoir analysé 1 000 documents, détecté des fraudes ou exécuté une stratégie de trading, il faut une méthode pour vérifier que ce calcul a réellement été effectué, et que la sortie n’a pas été falsifiée ou corrompue. Pour cela, une couche de preuve de performance est nécessaire.

Trois approches existent actuellement :

  1. Environnements d’exécution fiables (TEEs) : La première repose sur des preuves hardware, comme AWS Nitro ou Intel SGX. L’agent s’exécute dans une enclave sécurisée, qui émet un certificat cryptographique attestant que le code spécifique a été exécuté sur des données données, sans modification. La surcharge est faible (5-10 % de latence supplémentaire), ce qui est acceptable pour des cas d’usage financiers ou d’entreprise où la confiance prime sur la vitesse.
  2. ZKML (Zero-Knowledge Machine Learning) : La deuxième approche est mathématique. ZKML permet à l’agent de produire une preuve cryptographique que ses résultats proviennent d’un modèle spécifique, sans révéler ses paramètres ou entrées privées. DeepProve-1 de Lagrange Labs a récemment démontré une preuve zéro connaissance pour l’inférence GPT-2, 54 à 158 fois plus rapide que les méthodes antérieures.
  3. Sécurité par staking (Restake Security) : La troisième repose sur des mécanismes économiques. Des protocoles comme EigenLayer introduisent une sécurité basée sur le staking : les validateurs mettent en gage du capital derrière la sortie de l’agent. Si la sortie est contestée et prouvée fausse, leur mise est slachée. Ce système ne prouve pas chaque calcul, mais rend l’acte malhonnête économiquement irrationnel.

Ces mécanismes répondent à la même problématique sous des angles différents. Mais la preuve d’exécution est souvent ponctuelle. Le marché a besoin d’un historique cumulatif, d’une réputation.

La réputation transforme des preuves ponctuelles en un historique de performance durable. Les systèmes émergents visent à rendre la performance des agents portable et cryptographiquement ancrée, plutôt que dépendante d’évaluations propriétaires ou de tableaux de bord opaques.

Ethereum Attestation Service (EAS) permet aux utilisateurs ou services de publier des attestations signées, enregistrées sur la blockchain, concernant le comportement d’un agent. Une tâche réussie, une prédiction précise ou une transaction conforme peuvent ainsi être immuablement enregistrées et transférées entre applications.

image.png

@EAS

Des environnements de benchmark compétitifs se développent aussi. Les Agent Arenas évaluent les agents selon des tâches standardisées, avec des systèmes de notation comme Elo. Recall Network rapporte plus de 110 000 participants ayant généré 5,88 millions de prédictions, créant une base de performance mesurable. À mesure que ces systèmes se développent, ils ressemblent à de véritables marchés de notation pour les agents IA.

image.png

Cela permet de porter la réputation d’une plateforme à une autre.

Dans la finance traditionnelle, des agences comme Moody’s émettent des notations de crédit pour donner un signal de confiance. L’économie des agents nécessitera une couche équivalente pour évaluer la fiabilité des acteurs non humains. Le marché devra juger si un agent est suffisamment fiable pour se voir confier du capital, si ses résultats sont statistiquement cohérents, et si son comportement peut rester stable à long terme.

Conclusion

Alors que les agents acquièrent une véritable autorité, le marché aura besoin d’un moyen clair d’évaluer leur fiabilité. Ils porteront une trace de performance portable, attestée par vérification et benchmark, dont la qualité influencera leur accès au capital, aux données ou aux workflows réglementés.

En résumé, ces couches constituent la base infrastructurelle de l’économie des agents :

  1. Découvrabilité (Discoverability) : l’agent doit pouvoir localiser un service de manière machine-lisible, sinon il ne pourra pas saisir d’opportunités.
  2. Identité (Identity) : l’agent doit prouver qui il est et qui l’a autorisé, sinon il ne pourra pas accéder au système.
  3. Réputation (Reputation) : l’agent doit construire une trace vérifiable de sa fiabilité, pour gagner une confiance économique durable.

TOKEN-4,78%
ETH-4,95%
EIGEN-7,57%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler