Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Artemis : 2030, la nouvelle ère de l'économie machine. Qui sera le grand gagnant ?
Auteur : Lucas Shin, source : Artemis, traduction : Shaw 金色财经
Résumé
D’ici 2030, les agents intelligents (AI Agents) deviendront le principal moyen pour les gens d’utiliser Internet.
Un tout nouveau réseau de type « agents » nécessitera de nouveaux canaux de paiement, un nouveau système monétaire et de nouveaux composants de base.
La valeur se concentrera sur trois niveaux : le niveau de l’interface, l’entité qui pilote les interactions avec l’utilisateur ; le niveau de paiement, l’entité qui intervient dans la circulation des fonds ; et le niveau de puissance de calcul et d’hébergement, l’entité qui exploite l’infrastructure de base.
Les activités commerciales d’agents intelligents à l’extrémité de longue traîne fonctionneront, elles, grâce à des protocoles ouverts.
Commençons par décrire une scène.
Nous sommes en 2030. Tu as 24 ans, tu vis à Burlington, dans le Vermont, et tu aimes investir — principalement sur les actions US, et tu participes aussi à certaines transactions de crypto-monnaies et de marchés de prédiction sur Kalshi. Il y a deux mois, tu as lancé en parallèle une société de conseil en fintech.
Certains jours, comme aujourd’hui, l’ouverture arrive toujours de façon tout à fait soudaine.
Bzz — —
La sonnerie du téléphone te réveille, comme une douche d’eau froide sur le visage. Ton agent intelligent privé, Nexus, t’envoie un message :
Que s’est-il passé, exactement, pendant que tu dormais ?
Nexus a déployé un sous-agent de recherche, coûtant 0,24 dollar, et a récupéré en pleine nuit des informations provenant de 40 fournisseurs de données différents. Il a comparé le contenu de l’appel de résultats le plus récent de Walmart à des images satellites des parkings de magasins à l’échelle des États-Unis, puis a mis à jour ta logique d’investissement. Quand les données satellitaires montrent que le flux de clients de Walmart baisse, ton agent de portefeuille fait correspondre le sentiment « résultats » de Kalshi, confirme un signal baissier, et termine la réduction de position avant que tu te réveilles. Il y a quatre ans, ce type de stratégie de trading était encore un domaine réservé de Citadel (et d’un petit nombre de fonds quantitatifs) : ils devaient payer des millions de dollars pour s’abonner aux images satellites. Même un terminal Bloomberg coûtant 30 000 dollars par an ne pouvait pas couvrir l’ensemble des informations — et il fallait encore s’abonner séparément aux images satellites, aux données alternatives, puis passer des heures à intégrer et analyser. Et maintenant, un jeune homme de 24 ans au Vermont peut, pour un coût inférieur à celui d’un café, obtenir le même avantage informationnel que des analystes quantitatifs de Citadel.
Le sous-agent de vente de Nexus a filtré 200 pistes correspondant à ton profil de client cible — des entreprises fintech de la région du sud-est des États-Unis, en série B et au-delà, qui n’utilisent pas encore de prestataires de services de données — puis a complété les informations à un coût de 0,002 dollar par piste. Les interfaces appelées ont été développées par un autre agent et mises en ligne sur un marché ouvert. Il a sélectionné les 3 pistes les plus prometteuses, puis a contacté leur agent d’agenda pour négocier les horaires des réunions. Avant chaque entretien, il a récupéré le diplôme de l’établissement, les relations communes, l’actualité de l’entreprise et l’historique de financement des prospects, puis t’a préparé un brief d’une page, épinglé dans les notes de la réunion. Le simple fait de compléter les informations des pistes : si tu passes par une souscription SaaS, chaque compte te coûterait 200 dollars par mois.
Le sous-agent d’exploitation de Nexus a effectué des tests comparatifs entre ton site de conseil et 6 fournisseurs de serveurs : Vercel, Render, Railway, Fly.io, Netlify et Cloudflare. Il a appelé à très faible coût les interfaces API d’essai de chaque fournisseur, déployé des environnements de test, et mesuré la latence, la disponibilité et le débit. Finalement, Railway a obtenu des performances équivalentes pour un coût égal à un tiers. Nexus a négocié le paiement mensuel via l’agent de tarification de Railway, a mis en place une image miroir du site sur le nouveau serveur, puis a réalisé l’ensemble des tests pour s’assurer que tout fonctionne correctement. S’il n’y avait pas d’agents, cela demanderait au moins une semaine : chercher sur Internet, demander des devis, et encore subir une migration manuelle anxiogène. Tu n’as qu’à confirmer l’exécution à Nexus.
Ton agent a accompli tout cela, pour seulement 0,67 dollar.
Maintenant, multiplie cette scène par chaque travailleur du savoir dans le monde, chaque entreprise, et chaque agent intelligent en fonctionnement.
Bzz — —
Comme la semaine dernière, tu recharges 5 dollars avec la carte de crédit liée par Apple Pay, puis tu continues à te brosser les dents. En coulisses, ces 5 dollars sont échangés contre des stablecoins à partir de la carte de crédit — mais tu ne vois jamais le portefeuille. Tu n’as pas à considérer le dépôt, et tu n’as même pas à toucher la blockchain.
Voilà un aperçu de l’économie des machines — un tout nouveau scénario commercial dans lequel les agents IA dépensent en continu de l’argent pour des choses que les humains n’ont jamais payées. L’échelle et la vitesse des transactions dépassent largement le cadre du commerce humain. On peut imaginer que des dizaines de milliards de transactions se produiront chaque jour.
Mais aujourd’hui, Internet n’est pas encore prêt pour tout cela.
Actuellement, Internet est conçu pour les humains. Il filtre les comportements non humains via le rate limiting, les CAPTCHA et les clés API, et monétise les utilisateurs humains via la publicité. Cependant, avec l’arrivée massive d’agents autonomes, ce modèle commercial s’effondrera complètement.
Explosion du trafic, réduction drastique de l’attention effective.
Les serveurs réseau subventionnés au long cours par les revenus publicitaires feront face à des requêtes multipliées par plusieurs ordres de grandeur, et ces requêtes ne seront jamais influencées par la publicité.
Les paiements par agents résolvent naturellement ce problème : les micro-paiements deviendront la clé de l’accès.
Accès par paiement à la collecte, accès par paiement, utilisation par paiement.
Les entreprises qui construisent l’infrastructure qui sera finalement largement adoptée par les agents capteront le plus grand nouveau bassin d’activité économique que notre génération aura l’opportunité de voir. Les géants actuels se battent déjà pour s’installer, mais l’économie des machines va aussi engendrer ses propres nouveaux géants. La dernière vague de « nouvel Internet » a donné naissance à Google, Amazon, Facebook, PayPal et Salesforce.
L’ère d’Internet portée par des agents intelligents est sur le point d’arriver.
Projection de la taille du marché
D’ici 2030, la majorité des interactions en ligne ne se feront plus via un navigateur. Nos agents intelligents parcourront, testeront, négocieront, formeront des équipes de sous-agents et exécuteront des transactions. Chaque tâche qu’ils accomplissent génère une chaîne de micro-paiements. Le coût unitaire semble être une dépense supplémentaire, mais en réalité, il remplace des outils et de la main-d’œuvre dont le coût est bien plus élevé. Plus les outils sont avancés, meilleures seront les performances des agents, et plus nous leur accorderons des droits d’autonomie élevés.
Demande et vitesse d’adoption
Faisons une estimation grossière.
Dans l’exemple précédent, l’agent de Joe effectue des centaines de transactions pour seulement 0,67 dollar. Si nous multiplions cette échelle pour une entreprise intermédiaire de 500 personnes — chaque employé disposant d’un agent personnel, plus des centaines d’agents partagés pour des départements comme les ventes, la finance, le juridique et les opérations — alors il suffit d’une journée pour produire facilement 100 000 transactions initiées par des agents.
Il y a plus d’1 milliard de travailleurs du savoir dans le monde ; 88 % les utilisent déjà en travaillant. Du côté de la demande, le volume est énorme et continue de croître. Mais aujourd’hui, ces usages se limitent majoritairement à des tâches de base, comme la recherche web, le résumé de documents ou la rédaction d’e-mails. La transformation complète vers des agents intelligents n’a pas encore eu lieu, mais une fois qu’elle démarre, la vitesse sera extrêmement élevée.
Instagram a atteint 100 millions d’utilisateurs en 30 mois, TikTok en 9 mois, et ChatGPT seulement en 2 mois (Reuters / données UBS). L’une des raisons de la diffusion rapide de ChatGPT est que l’interface de conversation est déjà familière, et qu’il n’est pas nécessaire d’apprendre un nouveau logiciel ni de changer ses habitudes d’utilisation : tu as juste à exprimer tes besoins, et l’agent se débrouillera pour les accomplir.
Le seul obstacle est la confiance, mais la vitesse à laquelle elle se construit dépasse largement ce que les gens imaginent. À ce jour, Claude Code a déjà contribué à 4 % de tous les dépôts de code public sur GitHub (plus de 135 000 exécutions par jour). En supposant la croissance actuelle, d’ici fin 2026, la proportion dépassera 20 %. Cela signifie une croissance de 42896 fois en 13 mois. Les développeurs n’ont mis qu’un peu plus d’un an pour passer du scepticisme à la production à grande échelle de code confié à l’IA.
À mesure que les modèles deviennent plus intelligents, que les interfaces se simplifient davantage, et que de plus en plus de complexités techniques sont abstraites et masquées, je pense que la vitesse d’adoption des agents intelligents s’accélérera encore.
D’ici 2030, même si seulement 60 % des travailleurs du savoir utilisent des agents, les dépenses moyennes quotidiennes seront de 3 à 5 dollars (c’est une estimation prudente — sache que Joe a terminé trois tâches avant le petit-déjeuner pour seulement 0,67 dollar). La taille annuelle des transactions d’agents au niveau « personnel » atteindra alors 800 milliards à 1,4 trillion de dollars.
Marché des entreprises
Robbie Peterson de Dragonfly souligne dans un article que les agents intelligents « prêts à l’emploi » pour le business constituent une évolution logique du modèle SaaS. Je suis pleinement d’accord. Ils ne servent plus seulement à assister des workflows : ils remplaceront entièrement les processus existants. Comme aujourd’hui plus de 95 % des dépenses logicielles proviennent des entreprises et des organismes gouvernementaux, les volumes d’utilisation et les dépenses d’agents intelligents côté entreprise dépasseront très probablement largement ceux du marché individuel.
Nous assistons déjà à cette transformation. Klarna a remplacé Salesforce par son système d’IA interne, économisant environ 2 millions de dollars. ZoomInfo a construit des agents IA pour remplacer son service de validation des transactions, économisant plus de 1 million de dollars par an. Ce ne sont que des exemples précoces : un workflow unique est « agentifié », ce qui permet d’économiser des millions de coûts. Chaque entreprise possède plusieurs centaines de workflows de ce type dans ses départements ventes, finance, juridique, opérations et recherche-développement. Une fois que les agents intelligents seront déployés dans toute l’entreprise, l’ampleur des dépenses concernées sera tout simplement énorme.
Tout le monde peut devenir commerçant
À mesure que les agents de code réduisent fortement les coûts de développement, le seuil d’entrée pour les commerçants sur Internet se rapproche de zéro. Un planner de mariage expert dans la sélection des lieux peut emballer le workflow optimal et le vendre. Un développeur indépendant à Lagos peut créer une API pour un domaine vertical et commencer, en quelques heures, à générer des revenus à partir des agents du monde entier. Il suffit d’avoir une expertise, et de générer une interface API via des requêtes (prompt), puis de commencer à encaisser.
Mais que se passe-t-il si les agents commencent à vendre des services à d’autres agents ?
Supposons que Joe, mentionné plus tôt, cherche à entrer dans un nouveau domaine : une entreprise médicale intermédiaire du Midwest des États-Unis dotée d’infrastructures de paiement anciennes. Si son agent raisonne à partir de zéro, les coûts en tokens s’accumulent rapidement :
Filtrer 200 entreprises correspondant à un profil spécifique (raisonnement + appels d’API) : environ 500 000 tokens
Compléter l’information de chaque piste (stack technique, financement, données d’embauche) : 200 pistes × environ 5000 tokens = 1 million de tokens
Verrouiller les décideurs des clients principaux : environ 200 000 tokens
Noter les signaux d’intention (rythme des recrutements, durée des contrats) : environ 300 000 tokens
Étudier le parcours de chaque décideur : 20 pistes × environ 10 000 tokens = 200 000 tokens
Rédiger des messages d’approche personnalisés : 20 pistes × environ 3000 tokens = 60 000 tokens
Total : environ 2,3 millions de tokens. En calculant avec un modèle de pointe comme Opus 4.6, le coût se situe entre 8 et 15 dollars.
Attends, le sous-agent de vente de Joe ne faisait pas un processus similaire en ne coûtant que quelques centimes ?
Oui. Parce que la plupart des étapes sont déjà résolues par d’autres agents. Le remplissage des pistes, la notation de l’intention, l’organisation des agendas — sur un marché ouvert, il existe des interfaces packagées, au prix de seulement quelques centièmes de dollar.
Ce type de modèle crée un tout nouveau scénario commercial. Du côté de l’offre, la croissance sera bidirectionnelle : les humains construisent des services, et les agents construisent aussi des services. Un problème de consommation élevée en tokens résolu par un agent peut devenir un outil bon marché que tous les agents pourront utiliser ensuite. Dans ce monde, les agents peuvent transformer leur expérience en workflows et les vendre à d’autres agents, afin de subventionner leur propre coût de fonctionnement.
Chaque changement de paradigme engendre de nouveaux commerçants. Shopify a donné du pouvoir aux vendeurs e-commerce, Stripe a donné du pouvoir aux entreprises en ligne, et l’économie des machines donnera du pouvoir aux développeurs « à la volée » ainsi qu’aux agents intelligents autonomes.
Regard réaliste
Alors, à quelle distance sommes-nous d’une véritable commercialisation des transactions basées sur des agents intelligents ?
Dans l’équipe Artemis que je dirige, nous suivons depuis longtemps les progrès de deux grands protocoles de paiement pour agents : le protocole x402 open source de Coinbase, et le protocole de paiement machine (MPP) lancé conjointement par Stripe et Tempo. En termes simples, ces deux types de protocoles visent exactement le même objectif : permettre aux utilisateurs ou aux agents de payer n’importe quel service réseau (par exemple des données, du web scraping, de l’inférence de modèles ou d’autres services API) en une seule requête réseau, en évitant des procédures lourdes comme l’inscription, les clés API et le règlement des factures.
À ce stade, nous sommes encore dans une phase précoce.
Le volume de transactions du protocole x402 à la fin 2025 est gonflé artificiellement par le battage autour des memecoins et les comportements de « volume via des classements ». Le graphique ci-dessus montre la « vivacité » des transactions ajustée après filtrage des transactions fictives par un algorithme propriétaire. En éliminant le bruit causé par les transactions fictives et le battage autour des memecoins, on voit clairement que l’économie des agents n’est pas encore réellement arrivée. À l’heure actuelle, la plupart des activités consistent en des développeurs qui testent des API payantes et des outils IA, plutôt qu’en un véritable fonctionnement d’entités économiques d’agents.
Avant que ce modèle n’explose réellement, deux problèmes fondamentaux doivent être résolus :
Le côté offre n’est pas encore formé : le nombre d’interfaces API pratiques capables de générer de réelles intentions d’achat de la part des agents est sérieusement insuffisant.
Absence d’une couche mature de découverte et d’agrégation : même si des interfaces à forte valeur existent, les agents n’ont pas encore de méthode fiable pour les découvrir.
Comme l’ensemble de l’écosystème se construit encore, il est trop tôt pour utiliser le volume de transactions comme métrique principale. Un indicateur plus approprié est la croissance du côté offre, autrement dit le nombre de marchands qui proposent des services aux agents. Nous regroupons tous ces marchands sous le terme général de fournisseurs de services.
Le graphique ci-dessus montre l’évolution cumulée du nombre de fournisseurs de services (vendeurs) répondant aux critères au fil du temps. Pour être considérés comme conformes, les vendeurs doivent remplir deux conditions : effectuer plus de deux transactions « réelles », et compter au moins deux acheteurs indépendants. En octobre dernier, ce chiffre n’était pas encore supérieur à 100 ; aujourd’hui, il dépasse 4000. Je pense que ce rythme va s’accélérer, principalement grâce à trois tendances :
L’intelligence artificielle réduit les barrières à la création de produits numériques (comme mentionné plus tôt), ce qui signifie que davantage de personnes et d’agents IA deviendront des marchands.
Les nouveaux services seront conçus en priorité pour les agents. Les agents deviennent des clients clés, et les formes de produits conçues pour eux seront complètement différentes : remplacer les pages web par des API, remplacer les étapes d’inscription par un accès instantané, et remplacer les abonnements par un paiement à la demande.
Les fournisseurs de services actuels seront forcés de se transformer. À mesure que de plus en plus d’utilisateurs interagissent via des interfaces IA au lieu de parcourir manuellement des pages web, le modèle économique basé sur la publicité cessera totalement de fonctionner, car il n’y aura plus d’attention humaine monétisable. Les entreprises n’auront alors d’autre choix que de facturer directement le contenu et les services.
Ces forces créeront une roue vertueuse : offre et demande se renforçant mutuellement, jusqu’à enflammer toute l’économie des agents.
Structure de l’industrie
L’écosystème de transactions d’agents se structure rapidement. De nombreuses startups apparaissent comme des champignons, chacune se concentrant sur la résolution de chaque chaînon manquant au sein de cette architecture ; parallèlement, des entreprises en croissance dans le fintech et les services logiciels (SaaS) se transforment vers les transactions nativement « par agents ». Au cours des douze derniers mois, presque tous les grands acteurs du paiement et les laboratoires d’IA ont lancé ou annoncé des protocoles liés aux transactions par agents.
Nous avons recensé plus de 170 entreprises couvrant cinq grands niveaux : interface d’interaction, agents intelligents, système de comptes, infrastructures de paiement, et moteurs d’intelligence artificielle. Ici, nous avons réduit à environ 80 organisations centrales :
Nous les décomposons couche par couche, du haut vers le bas.
Niveau de l’interface
Le niveau de l’interface est le plus proche des utilisateurs. Il est chargé de diriger l’intention de l’utilisateur (ses besoins) vers les outils ou services nécessaires (l’offre). Qui peut définir comment les agents intelligents découvrent, évaluent et sélectionnent les services aura un levier considérable sur tous les niveaux en dessous. Nous nous concentrerons sur deux catégories les plus importantes dans ce niveau :
Interfaces utilisateur
C’est l’entrée directe d’interaction pour la plupart des gens avec les agents intelligents. Apple, Google, OpenAI, Anthropic, xAI et Perplexity développent tous ce type d’interface d’interaction, et leurs formes sortent rapidement du simple mode « chat ». De nouvelles formes émergent sans cesse : assistants vocaux, assistants desktop, copilotes embarqués, agents de navigateur, etc., collés aux scénarios d’usage réels des utilisateurs. Une plateforme qui devient l’interface IA par défaut pour les utilisateurs deviendra le point de départ de toutes les transactions initiées par les agents, et le gagnant de ce segment bénéficiera d’un avantage supplémentaire énorme.
Les laboratoires d’IA ont déjà exploré et entraîné les données de l’ensemble d’Internet ; aujourd’hui, les meilleures données d’entraînement restantes sont les retours guidés par l’humain. Chaque fois que vous acceptez ou rejetez une réponse, effectuez une correction, ou fournissez des informations de préférence à Claude ou ChatGPT, l’interface d’interaction que vous utilisez capture ces données, qui serviront ensuite à la vente ou à l’entraînement du modèle. Maîtriser l’interface revient à maîtriser une boucle de rétroaction capable d’optimiser à la fois l’expérience utilisateur et le modèle lui-même. C’est aussi pourquoi Anthropic a lancé Claude Code, pourquoi Google a acquis Windsurf, et pourquoi OpenAI tente d’acquérir Cursor. Une fois que vos agents auront accumulé des informations de contexte sur vos préférences, workflows et outils fréquemment utilisés, le coût de migration des utilisateurs deviendra extrêmement élevé.
Découverte de services
Quand l’agent de Joe a besoin d’une interface de complétion de pistes ou d’un service de données satellitaires, comment trouver le bon service ? C’est peut-être le plus grand défi non résolu dans toute l’architecture de cet écosystème. Les solutions actuelles reposent le plus souvent sur une liste d’outils codée en dur ou sur un marché de services « sélectionnés ». Les grandes plateformes construisent déjà leurs propres systèmes : OpenAI et Stripe ont lancé l’ACP, Google et Shopify ont lancé l’UCP, et Visa a lancé le TAP. Fondamentalement, ce sont des répertoires de marchands : ils ne fonctionnent que si la plateforme et les marchands s’intègrent activement des deux côtés. Ce modèle marche bien dans les scénarios classiques, mais à mesure que les barrières à la création et à la vente de services numériques baissent fortement, une multitude d’applications niches, très personnalisées, vont apparaître, et le modèle « sélectionné » ne pourra pas répondre à ces besoins de longue traîne.
Des entreprises comme Coinbase, Merit Systems, Orthogonal et Sapiom construisent une solution de remplacement ouverte. Elles fabriquent des agrégateurs et des infrastructures de base afin que les agents puissent, au moment de l’exécution, découvrir et payer des services de manière autonome, sans intégration préalable ni accord commercial. Avec la croissance exponentielle du côté offre (ressources réseau), résoudre ce problème devient extrêmement difficile. Mais celui qui parviendra à vaincre les systèmes de tri et de recommandation, et à faire correspondre les bons services aux agents au bon moment, obtiendra une immense autorité dans l’industrie.
Les transactions d’agents finiront-elles par évoluer vers un modèle de sélection fermé, ou vers un modèle d’écosystème ouvert ? Et comment cette configuration déterminera la répartition de la valeur ? C’est l’un des débats centraux de ce domaine. Nous reviendrons plus en profondeur sur ce sujet plus tard.
Niveau des agents intelligents et des comptes
Pour accomplir nos tâches, avoir seulement de l’intelligence ne suffit pas pour les agents intelligents. Le sous-agent de vente de Joe a complété le filtrage de 200 pistes, fait la complétion d’informations, et planifié trois réunions de bout en bout : Joe n’a besoin de configurer aucun outil, de gérer des clés API, ni d’approuver étape par étape chacune des actions. La plupart de l’infrastructure qui rend tout cela possible est « invisible » pour les utilisateurs finaux, mais sans ces infrastructures, l’agent ne serait qu’un grand modèle de langage dépourvu de capacité d’exécution. Voici un aperçu des composants d’infrastructure essentiels pour parvenir à tout cela :
Outils et standards
Ces protocoles et cadres donnent aux agents intelligents la capacité d’interagir avec le monde extérieur. MCP (Machine Context Protocol, initié par Anthropic et géré aujourd’hui par la Linux Foundation) permet aux agents de se connecter à des données et outils externes : appeler des API jamais rencontrées auparavant, lire des bases de données, ou invoquer instantanément un service spécifique. A2A (proposé par Google) définit comment des agents développés sur différentes plateformes peuvent se découvrir et coopérer. Les frameworks lancés par LangChain, Nvidia et Cloudflare donnent aux développeurs des modules de base pour construire et déployer des agents au-dessus de ces protocoles. Le OpenClaw, récemment acquis par OpenAI, regroupe la gestion du contexte et l’appel d’outils dans un seul cadre local-first, réduisant fortement la difficulté pour les développeurs de construire des agents capables de se découvrir et de payer des services de manière autonome.
Le problème central dans ce domaine est le suivant : ces standards iront-ils finalement vers l’unification, ou vers la fragmentation ? Les frameworks commerciaux construits au-dessus de ces standards pourront-ils capturer de la valeur avant que les outils ne deviennent homogènes ?
Authentification
Après que les agents peuvent communiquer entre eux, il faut établir la confiance. Avant de réaliser des transactions ou de vendre des services, un agent doit prouver l’entité autorisée et les droits d’action, et conserver une trace d’activités vérifiable par d’autres agents.
Les chemins techniques actuels sont multiples, y compris : l’authentification d’identité biométrique (Worldcoin, Civic), les systèmes de réputation d’agents on-chain (ERC-8004), et les attestations vérifiables (Dock, Reclaim).
L’espace de conception dans ce domaine est large, mais les risques sont extrêmement élevés : quel est le montant maximum que ton agent peut dépenser avant d’avoir ton approbation ? Peut-il signer des contrats en ton nom ? Peut-il déléguer des permissions à des sous-agents ? Ces règles et limites de sécurité seront très probablement établies au niveau des comptes.
Portefeuilles
Évidemment, pour que les agents effectuent des paiements, ils doivent être équipés de portefeuilles. Coinbase, Safe, MetaMask, Phantom, MoonPay, Privy, etc., préparent tous ce segment, en proposant des fonctions incluant l’accès programmatique et la création, la délégation des permissions, des plafonds de dépenses par transaction, des listes blanches de réception, et la capacité d’exécuter sur plusieurs chaînes sans confirmation manuelle de l’utilisateur pour chaque action. C’est l’un des segments les plus compétitifs de tout l’écosystème, et cela soulève une question clé : où se trouve la véritable douve de protection (« moat ») des entreprises ? Ce domaine finira-t-il par devenir homogène ?
Niveau de paiement
Le niveau de paiement se situe plus profondément dans l’architecture, et devrait être « invisible » pour les utilisateurs finaux. Mais dans l’économie des machines, chaque flux de fonds passera par ce niveau. Quand l’agent de Joe paie la somme de 0,24 dollar la nuit pour récupérer des données auprès de 40 prestataires, il n’a pas à choisir, à chaque transaction, le type de carte, la devise ou la chaîne de règlement.
La difficulté centrale : les canaux de paiement traditionnels sont conçus pour les humains cliquant sur le bouton « acheter », et non pour s’adapter à des milliers de requêtes par minute, avec des montants unitaires inférieurs à un centime, correspondant aux appels API des agents. Sur les réseaux de cartes bancaires, il existe un coût fixe d’environ 0,03–0,04 dollar par transaction, plus des frais de 2,3 %–2,9 %. Cela fonctionne pour des commandes d’hôtel à 400 dollars, mais c’est totalement incapable de s’adapter aux nouvelles transactions d’agents multi-étapes.
Cela a donné naissance à une série de nouveaux protocoles et de nouveaux systèmes monétaires conçus spécifiquement pour les transactions d’agents, tandis que les géants traditionnels modifient aussi leurs infrastructures existantes pour s’adapter à ce besoin.
Les points clés sont les suivants :
Canaux de paiement
Ces protocoles et standards définissent comment les agents intelligents initient, routent et finalisent le règlement des paiements. À ce stade, deux approches techniques principales se dessinent :
x402 (Coinbase/Cloudflare) et MPP (Stripe/Tempo) conçus pour des transactions nativement « machines » : les agents appellent des interfaces, obtiennent des devis, signent les paiements et reçoivent les données — le tout dans une seule requête HTTP. Le règlement se fait via stablecoins, et le coût unitaire ne représente que quelques centièmes de dollar.
ACP (OpenAI/Stripe), AP2 (Google/PayPal) et le TAP de Visa adoptent une autre approche : elles remodèlent l’infrastructure de paiement par carte bancaire existante pour s’adapter aux scénarios d’agents. Ces solutions sont plus adaptées aux transactions à forte valeur : par rapport à la vitesse de règlement et aux coûts, la protection de l’acheteur et la couverture d’acceptation du marchand deviennent plus importantes.
Stablecoins et règlement
Les agents intelligents ont besoin d’une monnaie programmable, rapide, à faible coût et globalisée. Les stablecoins satisfont pleinement ces exigences, ce qui en fait un choix naturel pour les transactions x402 et MPP. Parallèlement, les canaux de paiement par carte peuvent encore fournir une protection pour l’acheteur, et les habitudes d’utilisation des marchands sont bien établies ; c’est donc encore important pour les transactions à forte valeur. Les chaînes sous-jacentes (comme Base, Solana, Tempo) posent un autre problème clé : quelles chaînes peuvent supporter le débit de traitement requis par les transactions à grande échelle « niveau agent », la finalité des transactions et la structure des coûts ?
Prestataires de services
Ce sont des entités situées entre l’agent intelligent et le marchand, responsables de gérer des processus complexes comme la revue de conformité, la mise en relation marchands, l’authentification des permissions, etc. Coinbase, Stripe et PayPal étendent l’écosystème existant pour soutenir les transactions par agents : elles parient sur le fait que leur réseau de marchands et leurs infrastructures de conformité peuvent leur donner un avantage concurrentiel. D’autres entités comme Sponge et Sapiom résolvent le problème de démarrage à froid côté marchands émergents, afin que toute activité basée sur API puisse commencer à accepter des paiements par agents facilement. À mesure que les canaux, protocoles et nombres de marchands augmentent, le rôle de coordinateur pourrait devenir la liaison clé pour empêcher la fragmentation complète du système.
Niveau du moteur d’IA
Ce niveau ne nécessite pas beaucoup d’introduction : toutes les interactions des agents, les étapes de raisonnement et l’appel d’outils sont pilotés par lui. Mais la vitesse de changement du modèle commercial de ce niveau dépasse de loin celle des autres parties de l’architecture, et la valeur finale ne se dirige pas aussi clairement que ce que l’on pourrait croire. Nous nous concentrons sur deux catégories :
Puissance de calcul et hébergement
Chaque fois que l’agent intelligent de Joe effectue un raisonnement sur une tâche, appelle un outil ou crée un sous-agent, il consomme de la puissance de calcul. Mais l’inférence de modèles n’est qu’une partie. Avec l’explosion des applications de faible code / développement « improvisé » et des services construits par les agents eux-mêmes, une grande quantité de nouvelles interfaces apparaît et toutes nécessitent un support d’hébergement. En mai 2025, le nombre de pages web accessibles a augmenté de 45 % en seulement deux ans ; et avec des agents de code qui rendent l’émergence de nouveaux services extrêmement simple, cette tendance ne peut que s’accélérer. Cela signifie que la demande en puissance de calcul augmente simultanément des deux côtés : d’un côté, davantage d’agents traitent davantage de tâches ; de l’autre, davantage de services se mettent en ligne en continu pour répondre à ces besoins.
Les fournisseurs de cloud à très grande échelle (AWS, Google Cloud, Nvidia) sont des acteurs évidents. Parmi eux, AWS et Google Cloud simplifient en continu les processus de déploiement des backends d’agents et des API sur leurs infrastructures. Cloudflare se concentre sur le edge computing et fournit une puissance de calcul serveurless à faible latence pour les services destinés aux agents. Et des plateformes de calcul décentralisées comme Akash, Bittensor, Nous, etc., répondent aux besoins en capacité excédentaire en intégrant des ressources GPU à l’échelle mondiale et en les vendant à très bas prix.
Modèles de base
Les modèles de base sont le « cerveau » de tout le système. Anthropic, OpenAI, Google et Meta, en tant que laboratoires de pointe, élargissent en continu les limites de capacité des agents intelligents, tandis que les coûts d’exécution de ces modèles diminuent rapidement. Fin 2022, le coût d’exécution d’un modèle de niveau GPT4 était d’environ 20 dollars pour un million de tokens ; et début 2026, pour une performance équivalente, le coût tombe à environ 0,05 dollar par million de tokens. En à peine plus de trois ans, la baisse atteint jusqu’à 600 fois. Des mises à niveau matérielles, la concurrence entre fournisseurs, ainsi que des techniques d’optimisation comme le cache des prompts et le batch processing font continuellement baisser les coûts d’inférence. Dans le même temps, à mesure que les logiques de raisonnement se raffinent en des modèles open source de poids plus petits, et que leurs coûts d’exécution restent très bas, le coût de construction d’agents intelligents baisse aussi fortement. Dans certains benchmarks, l’écart de performance entre modèles à poids open source et modèles fermés a été réduit à seulement 1,7 %.
C’est une excellente nouvelle majeure pour l’économie des machines.
Des agents intelligents plus abordables signifient des agents moins coûteux, ce qui permet à un fondateur indépendant de 24 ans au Vermont d’assumer facilement les coûts de fonctionnement — et cela pousse à son tour l’activité transactionnelle dans les autres maillons du haut de l’écosystème à augmenter encore. Si les grands modèles se lancent dans une guerre des prix comme les fournisseurs de services cloud aujourd’hui, la valeur finale pourrait se concentrer davantage sur les segments amont et aval du niveau des modèles, plutôt que sur les modèles eux-mêmes.
Qui sera le gagnant ?
D’ici 2030, la plupart de tes interactions numériques ne nécessiteront plus un navigateur, un moteur de recherche ni une boutique d’applications. Tu n’auras qu’à exprimer tes besoins, et tes agents intelligents s’occuperont de tout : trouver les services adaptés, négocier les conditions, effectuer les paiements et livrer le résultat final. Internet se présentera sous un visage entièrement différent.
On peut le comprendre comme : une époque d’optimisation pour des moteurs de recherche dédiés aux agents. Il y aura de plus en plus d’interfaces API et de moins en moins d’interfaces d’interaction destinées aux humains.
Dans un tel monde, qui captera la valeur ?
Sam Ragsdale de Merit Systems a écrit un article comparant l’écosystème actuel de transactions par agents à celui d’Internet au début. Il estime que les marchés de services « sélectionnés » d’agents construits par les grandes plateformes (ACP, UCP, TAP) suivent la vieille voie d’AOL dans les années 90 — une expérience raffinée, un écosystème fermé, mais une limite centrale : tous les fournisseurs de services doivent être sélectionnés et examinés manuellement. Même si x402 et MPP sont des protocoles ouverts plus « grossiers », ils ont un avantage crucial : ils sont sans permission (« permissionless »). N’importe qui peut construire une interface, sans équipe commerciale ni audit juridique, et gagner de l’argent via les agents. Dans les années 90, l’expérience produit dans des jardins fermés était meilleure, mais l’Internet ouvert a une capacité infinie.
Au final, c’est l’Internet ouvert qui gagne.
La même logique se répète. ACP, UCP et TAP se connecteront aux meilleurs laboratoires d’IA pour servir parfaitement les scénarios grand public, mais elles restent limitées aux agents qui ne peuvent effectuer que les tâches prédéfinies par la plateforme, avec un catalogue de fournisseurs déjà présélectionné. Les agents qui peuvent se connecter à l’ensemble de l’écosystème de protocoles ouverts ont des limites de capacité bien plus larges.
Souviens-toi : aujourd’hui, la partie la plus dynamique d’Internet provient du trafic long de multitude de sites ouverts rendu possible par le protocole HTTP.
Nous devons humblement admettre que nous ne pouvons pas imaginer toute la portée de l’Internet des agents ouverts. Tout comme personne en 1995 ne pouvait prédire l’existence d’applications de covoiturage ou de médias sociaux, quand nous fournissons aux agents les outils nécessaires, nous ne pouvons pas non plus prédire qu’ils créeront, ni quels services feront l’objet de paiements.
Comme nous l’avons discuté plus tôt, les modèles de base avancent rapidement vers une homogénéisation, et la valeur pourrait se transférer vers d’autres niveaux de l’architecture technique. Les outils de développement, les wallets et l’infrastructure d’identité sont essentiels, mais à mesure que les standards tendent à s’unifier, ces domaines pourraient aussi devenir homogènes. Par conséquent, je pense que la valeur se concentrera sur trois domaines : l’interface d’interaction, le paiement, la puissance de calcul.
Interface d’interaction
L’interface d’interaction détermine les plafonds de dépense, les processus d’approbation et le mécanisme de délégation de confiance. Une plateforme capable d’offrir l’expérience la plus personnalisée aux utilisateurs portera le plus gros flux de transactions.
Apple est le participant le plus sous-estimé dans ce domaine. Ses appareils sont profondément intégrés au quotidien des gens, et le coût de migration est extrêmement élevé. Si Siri évolue en une entrée d’interaction d’agents mature, Apple n’aura pas besoin de construire le modèle le plus performant : elle pourra contrôler le point de départ de dizaines de milliards de transactions. Elles n’ont qu’à maintenir l’entrée d’interaction la plus qualitative.
La transition de Google est, elle, bien plus difficile. Le passage du parcours manuel humain au tri intelligent par agents érodera ses revenus publicitaires essentiels. Mais Google a un avantage que les autres entreprises ne peuvent pas égaler : il a accumulé, pendant des décennies, des données personnelles dans les domaines de la recherche, du mail, du calendrier, des cartes et des documents. Il faut aussi prendre en compte le coût de migration côté entreprises : Google Workspace est déjà intégré à des millions d’entreprises ; l’e-mail, les fichiers et les workflows des employés tournent sur l’infrastructure Google. Si une entreprise peut vraiment fabriquer des agents hautement personnalisés pour les consommateurs et les entreprises, alors c’est bien Google. La question est : pourra-t-il monétiser efficacement les services d’agents, comme il monétise le trafic de recherche ?
Merit Systems est mon « dark horse » favori. Elles construisent à la fois une infrastructure de découverte de services pour l’économie des agents ouverts (AgentCash, scan x402, scan MPP) et développent une interface côté consommateurs (Poncho). Leur logique centrale est la suivante : celui qui contrôle le canal de découverte des services d’agents, et qui s’insère dans le maillon de circulation des fonds, pourra occuper la position de Google dans l’Internet initial. C’est un pari ambitieux, mais si la guerre des transactions d’agents ouverts l’emporte sur le modèle sélectionné et fermé, Merit deviendra la couche d’agrégation la plus avantagée. À ce stade, elle reste encore en phase précoce, comme la compétition entre Google et l’écosystème fermé d’AOL dont la capitalisation boursière était équivalente aujourd’hui à environ 350 milliards de dollars.
Paiement
Celui qui contrôle la circulation des fonds captera une part de la valeur de chaque transaction. J’ai le plus confiance dans la perspective de ce niveau, parce que sa taille augmentera en synchronisation directe avec le volume de transactions.
Stripe et Tempo sont les plus avantagés dans les paiements machine nativement. Stripe dispose déjà d’un écosystème développeur mature et d’un vaste réseau de marchands. Tempo, de son côté, a des paiements en streaming, une finalité de transaction d’environ 500 millisecondes, des paiements en streaming via canaux de paiement, un support natif des cartes bancaires et des stablecoins, le paiement des frais Gas en dollars (sans risque de volatilité des tokens), et un service de paiement à la place des serveurs (server pays) pour les transactions, etc. Tout cela est conçu pour le volume massif de transactions de l’économie des machines. Si MPP devient le canal par défaut des paiements machine, Stripe et Tempo prélèveront une commission sur chaque transaction initiée par des agents.
Circle grandira en synchronisation avec l’expansion de l’économie des agents. Je suis convaincu que les stablecoins deviendront le niveau de règlement de l’économie des machines ; alors Circle tirera une part de revenus des intérêts générés par ses réserves, en prélevant une part des dollars provenant des portefeuilles d’agents, transaction après transaction. USDC est le stablecoin le plus largement accepté sur les exchanges, dans les wallets, sur les chaînes publiques et dans les protocoles de paiement. Les nouveaux développeurs auront tendance à le choisir en priorité, ce qui approfondit encore l’intégration de son écosystème et rend plus difficile l’entrée de ses concurrents.
Visa va s’adapter. Tu te souviens que Joe a rechargé sa carte via Apple Pay, et qu’en dessous le système a automatiquement échangé en stablecoins, tandis qu’il ne voyait jamais le portefeuille et n’avait pas à s’inquiéter de la blockchain ? C’est exactement la norme à venir. Les consommateurs continueront d’utiliser leurs cartes bancaires familières, tandis que le règlement se fera en stablecoins en arrière-plan. À mesure que les canaux de paiement se moderniseront, Visa s’appuiera sur sa confiance de marque auprès des consommateurs et des marchands pour s’installer durablement.
Puissance de calcul et hébergement
La croissance du nombre d’agents implique une hausse des besoins en raisonnement. L’augmentation des services « improvisés » entraîne une extension des besoins en hébergement. Quel que soit le modèle, le protocole ou l’interface qui deviendra dominant, les fournisseurs de puissance de calcul en bénéficieront. AWS et Cloudflare sont les deux entreprises les plus avantagées dans ce domaine, pour des raisons similaires.
D’abord, elles supportent déjà la majeure partie du trafic Internet. AWS occupe environ 30 % de la part d’infrastructure cloud sur 37 régions dans le monde. Cloudflare fournit des services de sécurité et de performance à plus de 20 % des sites web, ce qui signifie que toutes les requêtes de ces sites passent par son réseau. Quand de nouvelles interfaces destinées aux agents explosent, les développeurs choisiront par défaut la plateforme de déploiement qu’ils connaissent le mieux.
Ensuite, elles construisent l’infrastructure de monétisation pour la prochaine génération d’Internet. À mesure que le modèle publicitaire décline et que le modèle d’accès payant émerge, les deux entreprises prennent en charge cette transition nativement. Cloudflare a lancé un service de web scraping payant, permettant à n’importe quel site de son réseau de facturer des AI scrapers via x402 (Stack Overflow l’utilise déjà). Et AWS est membre fondateur du fonds x402, tout en publiant une architecture de référence open source serveurless pour x402. N’importe quel service fonctionnant sur ces deux grandes plateformes peut facilement activer des fonctions de monétisation natives par agents.
Authentification
Je suis pessimiste à propos d’entreprises comme Worldcoin : leurs systèmes reposent sur l’exigence de validation humaine à chaque interaction. Cette vision extrémiste suppose que les gens se soucieront de savoir si l’interlocuteur en ligne est un humain ou un agent, mais nous nous y sommes habitués depuis longtemps. À mon avis, l’avenir est plus probablement le suivant : la plupart des critères de filtrage du trafic sur Internet seront des micro-paiements, plutôt que des attestations d’identité humaine.
L’accès payant sera plus pratique que « prouver que tu es humain ».
Les systèmes d’identité ne seront importants que pour certaines interactions à haut risque, mais dans la plupart des transactions d’agents, (les micro) paiements eux-mêmes constituent la preuve de confiance.
Conclusion
Quand Joe se réveille, il ne pense pas aux canaux de paiement ni aux protocoles d’identité des agents. Il regarde juste son téléphone : il sait que l’agent a terminé les transactions, pris les rendez-vous et trouvé un serveur moins cher. Toutes les couches d’architecture technique discutées dans cet article sont parfaitement abstraites : il n’a rien à se soucier.
Nous avançons encore vers ce futur. Les protocoles concernés existent déjà, mais leur adoption n’est pas suffisante ; le côté offre augmente mais reste encore mince ; le problème de découverte des services n’est pas encore résolu ; la couche d’identité est très fragmentée. La plupart des transactions aujourd’hui sont des tests de développeurs, pas de véritables transactions entre agents. Mais la vitesse à laquelle on complète le puzzle de l’écosystème est plus rapide que ce que montrent les indicateurs de données. Les gens qui sont aujourd’hui pessimistes sur les infrastructures de première phase ne regardent que la courbe descendante. Moi, je pense à ce qui se passera lorsque chacun aura un ou plusieurs agents capables d’avoir de réels comportements économiques.
Si tu n’as pas encore agi, c’est le moment de passer au modèle économique des agents.