La tsarine de l'IA au sein de la Maison Blanche, David Sacks, démissionne et critique : Anthropic est une bonne entreprise de codage, mais elle fait des affaires en profitant de la panique réglementaire

L’ancien tsar de l’IA et de la cryptomonnaie à la Maison Blanche, David Sacks, s’exprime publiquement pour la première fois après son départ — il ne parle pas de politiques, mais commente directement la logique commerciale de l’industrie de l’IA.
Dans l’épisode « La génération d’Anthropic, la panique d’OpenAI, les fossés de l’IA » du podcast All-In, Sacks souligne avec acuité les problèmes et contradictions d’Anthropic.

Sacks, qui a servi en tant que « tsar de l’IA et de la cryptomonnaie » sous l’administration Trump pendant 130 jours, a officiellement quitté ses fonctions le 26 mars 2026, pour devenir co-président du Conseil présidentiel des sciences et technologies (PCAST).
Après son départ, c’est la première fois qu’il s’exprime publiquement en tant que « commentateur de l’industrie » sur le modèle commercial des entreprises d’IA, ce qui constitue déjà une actualité.

Anthropic a trouvé le bon financement

Sacks donne une évaluation rarement positive du modèle commercial d’Anthropic, avec une phrase clé : « le coding est correct. »

Il indique dans le podcast All-In que, en misant sur la génération de code, Anthropic cible précisément le cœur des budgets IT des entreprises.
Lorsqu’une entreprise achète des outils d’IA, la raison la plus convaincante pour convaincre le CFO de dépenser n’est pas « un assistant plus intelligent », mais « l’amélioration de l’efficacité des ingénieurs, la réduction des coûts de main-d’œuvre ».
Claude, le modèle d’Anthropic, performe fortement dans les scénarios de codage, ce qui lui permet de bâtir rapidement une réputation auprès des clients d’entreprise.

Les chiffres soutiennent cette analyse : le chiffre d’affaires annuel (ARR) d’Anthropic dépasse déjà 30 milliards de dollars, dépassant pour la première fois la taille d’environ 25 milliards de dollars d’OpenAI ;
en février seulement, l’ARR mensuel a augmenté de 6 milliards de dollars ;
les clients d’entreprise avec des contrats supérieurs à 1 million de dollars par an sont passés de 500 à plus de 1 000.
La conclusion de Sacks est claire : la transformation d’Anthropic en entreprise n’est pas un hasard, mais le résultat d’une stratégie claire.

Il mentionne également qu’Anthropic étend activement ses fonctionnalités d’agents, faisant évoluer Claude d’un simple outil de question-réponse à un agent automatisé capable d’exécuter des tâches de manière proactive, ce qui correspond aux besoins futurs des entreprises en IA.

Comparaison avec OpenAI : la gueule de bois de l’expansion grand public

Le commentaire de Sacks sur OpenAI porte une tonalité de « je vous l’avais dit ».

Il pense qu’OpenAI a dépensé énormément ces dernières années dans le grand public — applications GPT, génération vidéo Sora, abonnements ChatGPT — en essayant de construire une marque grand public.
Mais cette voie est coûteuse en argent, avec une monétisation lente, ce qui a finalement contraint OpenAI à se recentrer sur le marché des entreprises, tout en promettant aux investisseurs un rendement minimum de 17,5 % pour maintenir la confiance.

Dans le podcast, Sacks explique que le problème actuel d’OpenAI est que, bien que sa notoriété dans le grand public soit grande, ses bases commerciales ne sont pas aussi solides que celles du secteur B2B.
Anthropic n’a pas pris de détour, ce qui lui a permis de prendre l’avance.

« Surveillance réglementaire » et création de panique

Cependant, le commentaire de Sacks n’est pas uniquement une louange. Tout en louant le modèle commercial d’Anthropic, il critique aussi la posture politique de l’entreprise.

Il utilise l’expression « stratégie sophistiquée de capture réglementaire basée sur la peur » pour décrire la tactique de lobbying d’Anthropic.
La « capture réglementaire » désigne le fait pour une entreprise de participer activement à l’élaboration des règles, en façonnant des réglementations qui lui sont favorables, en les présentant comme étant dans l’intérêt public, pour que les décisions réglementaires servent finalement ses propres objectifs commerciaux.

Sacks critique notamment la promotion par Anthropic d’un « régime de permission obligatoire » — exigeant que tout déploiement de modèles d’IA reçoive une approbation gouvernementale préalable.
Il pense que, une fois instauré, ce système aura peu d’impact sur de grandes entreprises comme Anthropic, qui disposent déjà de ressources pour gérer la conformité, mais créera une barrière énorme pour les startups, freinant la concurrence et l’innovation.

En d’autres termes, la critique est que : Anthropic, sous prétexte de « sécurité de l’IA », pousse des politiques qui ralentissent ses concurrents tout en récoltant les bénéfices.

Question sur Mythos : menace réelle ou simple panique ?

Ce point est approfondi dans un autre épisode du podcast, « La montée d’Anthropic, la fin du monde avec Mythos ».

L’équipe de recherche en sécurité d’Anthropic a récemment publié une étude sur le modèle Mythos, affirmant qu’il pouvait identifier en quelques heures des vulnérabilités critiques dans des systèmes courants, ce qui a suscité beaucoup de discussions dans l’industrie.
Sacks remet en question cette affirmation : s’agit-il d’une évaluation technique authentique ou d’une « tactique », voire d’une « routine Chicken Little » — c’est-à-dire une panique exagérée qui crie que « le ciel tombe » ?

Il ne nie pas que la recherche Mythos pourrait comporter de vrais risques, mais il insiste : si ce genre de récit est utilisé pour pousser à une régulation, il faut une surveillance externe plus rigoureuse, plutôt que de laisser Anthropic jouer à la fois le rôle de participant et de juge.

$30B L’auto-destruction américaine par le « doomerisme » de l’IA

Sacks élargit cette critique à un cadre géopolitique plus large.
Il met en garde contre le fait que si les États-Unis continuent à sombrer dans le « doomerisme » de l’IA — c’est-à-dire une vision apocalyptique — cela devient une forme de « auto-mutilation ».

Sa logique est que la compétition IA entre la Chine et les États-Unis est en cours, et que, bien que les États-Unis soient encore en tête, consacrer trop d’énergie à la réglementation interne, à débattre sans fin pour savoir si l’IA est trop dangereuse, ne fera que ralentir leur avancée, permettant à la Chine de rattraper leur retard.
Ce point de vue est cohérent avec sa position durant son mandat de « tsar de l’IA » à la Maison Blanche, mais il l’exprime ici en tant que commentateur, sans les contraintes politiques.

Perspective de la scène technologique

Le double discours de Sacks révèle la véritable tension dans l’industrie de l’IA — ce n’est pas seulement une question de modèles plus puissants, mais aussi de « posture réglementaire », « pénétration du marché » et « compétition sino-américaine » qui s’entrelacent.

Les succès d’Anthropic dans le secteur commercial — clients multipliés, ARR en explosion, ciblage précis du codage — sont indéniables.
Mais la critique de Sacks rappelle que l’influence politique d’une entreprise, lorsqu’elle s’accompagne de ses succès commerciaux, doit être scrutée de près : si une société prône la « sécurité de l’IA » tout en en étant bénéficiaire, cela mérite une attention particulière.

Pour les startups d’IA à Taïwan et en Asie, le risque d’instaurer un « régime de permission obligatoire » est également crucial — si la régulation américaine évolue dans cette direction, les déploiements transfrontaliers deviendront encore plus difficiles, et non plus faciles.

C’est la meilleure analyse que j’aie entendue sur le paysage actuel de l’IA

Explication fantastique des contraintes chez OpenAI et Anthropic, du modèle d’entreprise axé sur le secteur, et du récit de doomerisme dans l’IA

Par l’ancien tsar de l’IA, David Sacks

"Même si le… pic.twitter.com/TqvDzjt5Y0

— Boring_Business ###@BoringBiz_( 19 avril 2026

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler