Le directeur de la recherche de VacEck analyse : pourquoi l’évaluation est coûteuse, je reste optimiste sur le challenger de Nvidia, Cerebras, pour son IPO

ChainNewsAbmedia
NODE-0,08%

La start-up américaine de semi-conducteurs Cerebras Systems prévoit de lancer son IPO via le ticker CBRS. Le responsable de la recherche sur les actifs numériques chez VanEck, Matthew Sigel, a récemment publié un billet indiquant que Cerebras pourrait être l’IPO de semi-conducteurs la plus suivie par le marché depuis la cotation d’Arm en 2023. D’après Sigel, Cerebras prévoit de vendre 28 millions d’actions à 115 à 125 dollars par action, pour un montant d’environ 3,5 milliards de dollars ; et le VanEck Onchain Economy ETF (NODE), via ses souscripteurs, a déjà demandé à bénéficier d’« un allotment en sursouscription ».

Il faut toutefois noter que VanEck n’est pas le souscripteur de l’IPO de Cerebras. Le point clé du billet de Sigel est que VanEck, en tant qu’investisseur, cherche à obtenir une allocation dans le cadre de l’IPO, et non à jouer un rôle de souscription. Il révèle aussi en fin de texte que VanEck a déposé une demande d’allocation d’actions pour l’IPO de Cerebras, et qu’au moins un professionnel de l’investissement chez VanEck détenait des actions de Cerebras sur le marché privé ; ainsi, VanEck a un intérêt financier direct dans la tarification et les résultats de l’IPO.

Pourquoi Cerebras suscite-t-il autant d’intérêt ? OpenAI a transféré ses activités de “fast inference” hors de chez Nvidia

Matthew Sigel estime que le modèle économique de Cerebras est radicalement différent de celui d’Arm. La valeur d’Arm provient de la concession de licences d’architecture et des redevances, et sa croissance s’accélère au fil de l’adoption de son architecture sur davantage d’appareils ; Cerebras, de son côté, est une entreprise produit très focalisée, dont le cœur est une puce de type “waferscale”, conçue pour résoudre les problèmes de vitesse de l’inférence IA.

Sigel souligne que le marché de l’infrastructure IA se scinde en deux voies : d’un côté, des charges de travail d’entraînement et d’inférence centrées sur des clusters de GPU, avec une logique de traitement par lots et de recherche de débit ; de l’autre, un marché de l’inférence extrêmement sensible à la latence, par exemple celui des agents IA, des assistants à la programmation, des applications temps réel et des produits très interactifs. Dans ce dernier cas, la vitesse d’inférence n’est pas seulement une question de coût : elle influence directement l’expérience utilisateur, la capacité de tarification des produits et les taux de rétention.

Il cite la déclaration du CEO de Cerebras, Andrew Feldman : « Il est manifestement clair que NVIDIA ne veut pas perdre l’activité de fast inference d’OpenAI, et nous leur avons retiré cette partie. »

Sigel considère que cette phrase met en évidence l’importance stratégique de Cerebras : si les besoins d’inférence à faible latence d’OpenAI commencent à être pris en charge par Cerebras, CBRS ne serait alors plus seulement une autre entreprise d’infrastructure IA, mais pourrait devenir un “baromètre” pour une « nouvelle catégorie de matériel ».

Cerebras place les modèles dans l’SRAM sur puce et contourne le goulot d’étranglement de la bande passante mémoire des GPU

Sigel attribue l’avantage technologique de Cerebras à une « puce waferscale » et à une « SRAM sur puce ». Contrairement aux clusters GPU traditionnels qui doivent déplacer des données entre plusieurs puces et de la mémoire externe, la conception de Cerebras permet de faire résider massivement les modèles directement à l’intérieur de la SRAM sur puce, réduisant le goulot d’étranglement de la bande passante mémoire et la volatilité de la latence.

D’après Sigel, cela permet à Cerebras d’être jusqu’à 15 fois plus rapide que des solutions GPU sur l’inférence, tout en offrant des performances de latence plus stables et prévisibles. Pour les agents IA, les assistants de codage temps réel, l’interaction vocale, ainsi que les services de recherche et d’inférence à faible latence, cette « latence déterministe » devient de plus en plus précieuse.

Il mentionne aussi que la direction de Cerebras a augmenté ses prix en raison d’une demande excédentaire, ce qui signifie que le problème principal auquel la société fait face n’est pas un manque de demande, mais une capacité d’offre limitée.

OpenAI comme principal pilier : un contrat de 20 milliards de dollars soutient le plancher de revenus

L’argument d’investissement le plus important dans l’article de Sigel est le long contrat signé par Cerebras avec OpenAI.

Selon lui, l’accord entre Cerebras et OpenAI est un contrat take-or-pay de 20 milliards de dollars, couvrant une capacité de contrat de 750MW jusqu’en 2028 ; OpenAI dispose en outre d’une option pour étendre la capacité à environ 2GW, pour un montant additionnel d’environ 34 milliards de dollars, soit un prix d’environ 27 millions de dollars par MW.

Sigel indique que ce contrat s’appuie sur une structure de 1 milliard de dollars de prêts en fonds de roulement et de bons de souscription, formant ainsi une base solide des revenus futurs de Cerebras. Le RPO actuel de Cerebras, c’est-à-dire les obligations de performance restantes, s’élève à environ 24,6 milliards de dollars. La société s’attend à comptabiliser environ 15% au total entre 2026 et 2027, soit environ 3,7 milliards de dollars ; puis environ 43% entre 2028 et 2029, soit environ 10,6 milliards de dollars.

Codex Spark devient un indicateur proxy de l’usage d’OpenAI

Sigel note également que les investisseurs externes ne peuvent pas observer directement le taux d’utilisation de la capacité de Cerebras. C’est pourquoi il considère Codex Spark d’OpenAI comme l’indicateur public le plus proche.

D’après lui, Codex Spark est une version à faible latence de l’agent de codage Codex d’OpenAI, déployée sur l’infrastructure de Cerebras. Le produit comptait environ 600 000 utilisateurs hebdomadaires actifs en janvier 2026, et il a déjà dépassé 4 millions à ce jour ; en quatre mois, il a progressé d’environ 7 fois, et il n’est pour l’instant disponible que pour les utilisateurs de ChatGPT Pro.

Sigel estime que si Spark s’étend à tous les utilisateurs payants de ChatGPT, la base d’utilisateurs potentielle pourrait s’élargir de façon significative en peu de temps. Cela augmenterait non seulement l’utilisation de la capacité du contrat de 750MW, mais renforcerait aussi la probabilité qu’OpenAI exerce l’option d’extension supplémentaire de 1,25GW.

AWS, Meta, Oracle et IBM figurent aussi parmi les clients de Cerebras

Au-delà d’OpenAI, Sigel cite également AWS, Meta, Oracle et IBM comme partenaires clés de Cerebras. Le lien avec AWS est particulièrement important, car Cerebras peut pénétrer le marché des clients entreprises via Amazon Bedrock, sans devoir dépendre entièrement d’une équipe de vente directe interne.

Il indique aussi qu’AWS a réalisé un investissement en actions de 270 millions de dollars dans Cerebras, tandis que Meta pourrait utiliser Cerebras pour faire de l’inférence sur le modèle Llama. Cela signifie que si Cerebras parvient à prouver que le cas d’usage d’OpenAI peut être mis à l’échelle, la société pourrait encore avoir la possibilité de passer d’une base de client unique majeure à des besoins plus larges en entreprises et plateformes cloud.

ZK proof : Cerebras pourrait devenir un matériel d’exécution vérifiable pour la blockchain

À noter : en tant que responsable de la recherche chez VanEck, Sigel interprète aussi Cerebras sous l’angle de l’économie on-chain.

Il estime que l’architecture des puces de Cerebras dispose de beaucoup d’SRAM sur puce, d’une bande passante mémoire extrêmement élevée et de capacités de calcul hautement parallélisées. Ainsi, ce n’est pas seulement adapté à l’inférence IA : cela pourrait aussi servir d’accélérateur matériel pour la génération de preuves de connaissance zéro (ZK proof).

Les ZK proof sont une technologie clé pour l’expansion de la blockchain et le calcul vérifiable : elles sont gourmandes en calcul et sensibles à la latence. Sigel pense qu’à mesure que le verifiable compute devient “temps réel”, Cerebras pourrait naturellement s’intégrer à ce type de charge de travail, et c’est aussi l’une des raisons pour lesquelles le VanEck Onchain Economy ETF (NODE) veut allouer à CBRS.

Sigel reconnaît toutefois que la marge brute actuelle de Cerebras est inférieure à 40%, ce qui semble plus bas que la fourchette courante de 55% à 70% observée chez les pairs de la branche semi-conducteurs et du cloud. Mais il estime que cette comparaison n’est pas totalement équitable.

La raison est que Cerebras ne vend pas uniquement des puces : elle peut aussi fournir un déploiement cloud, installer des systèmes sur site chez les clients, voire aider à construire des capacités de centres de données dédiés selon les besoins des clients. Cela permet à Cerebras de capter la valeur économique au niveau de la puce et de l’hébergement, mais cela fait aussi que la marge brute des états financiers est plus basse que celle d’une entreprise qui ne vend que des puces.

L’hypothèse de base de Sigel est la suivante : à mesure que l’échelle augmente, que le coût des puces waferscale s’améliore, et que la part du logiciel et des services cloud augmente, la marge brute de Cerebras pourrait atteindre environ 50% en 2030. Dans un scénario optimiste, compte tenu du backlog de 24,6 milliards de dollars actuellement attendu comme utilisable avec une marge brute d’environ 60%, la marge brute de Cerebras pourrait même approcher 60%.

Une valorisation élevée, mais trois cadres pour être haussier : multiple de revenus, TAM de l’inférence, valeur par MW sur le marché

Sigel n’élude pas la question d’une valorisation élevée pour l’IPO de Cerebras. En se basant sur un prix de 125 dollars par action, CBRS représente environ 52 fois le chiffre d’affaires de 2025, et même l’évaluation rétrospective n’est pas bon marché.

Mais il estime que, pour une entreprise dont les revenus futurs pourraient fortement progresser grâce au backlog de contrats d’ici 2027, les multiples rétrospectifs ont une signification limitée. En prenant les revenus estimés pour 2026, CBRS équivaut à environ 16,7 fois le chiffre d’affaires forward, proche de la médiane du secteur des semi-conducteurs.

Sigel propose trois cadres d’évaluation

Premièrement, l’évaluation par multiple de revenus en 2028. Le scénario de base suppose que les revenus de Cerebras en 2028 atteignent 5,5 milliards de dollars ; en appliquant un multiple de 10 fois les revenus, cela correspond à environ 258 dollars par action, soit une hausse d’environ 107% par rapport au prix médian de l’IPO. Dans le scénario optimiste, les revenus atteindraient 6,5 milliards de dollars, avec un multiple de revenus de 12,5, correspondant à environ 381 dollars par action.

Deuxièmement, l’évaluation via le TAM du marché de l’inférence. Sigel cite les données de Bloomberg Intelligence : la taille du marché de l’inférence serait d’environ 201 milliards de dollars en 2028 et d’environ 292 milliards de dollars en 2029. Si les revenus de Cerebras en 2028 atteignent 5,5 milliards de dollars, cela représente seulement environ 2,7% du marché ; si c’est 6,5 milliards de dollars, environ 3,2%. Il estime qu’il ne s’agit pas d’une hypothèse de part de marché trop agressive.

Troisièmement, l’estimation de la valeur par MW de capacité. Il prend comme référence la valorisation de marché d’environ 20 millions de dollars par MW pour CoreWeave, puis applique la capacité sous contrat de 750MW de Cerebras et OpenAI : uniquement la base du contrat d’OpenAI pourrait soutenir environ 15 milliards de dollars de valeur d’entreprise ; si OpenAI exerce l’option d’extension jusqu’à 2GW, cela correspondrait à environ 40 milliards de dollars de valeur d’entreprise.

Sigel souligne que CoreWeave est fondamentalement un loueur d’infrastructure de calcul GPU ; tandis que Cerebras possède à la fois une propriété intellectuelle de puces conçues en interne, une pile logicielle et une économie de capacité de centres de données. En théorie, son évaluation par MW ne devrait donc pas être inférieure à celle des entreprises d’infrastructure “pures”.

Principaux risques : concentration clients, montée en capacité, chaîne d’approvisionnement TSMC et fossé technologique

Sigel liste aussi les principaux risques de Cerebras. D’abord, le niveau de concentration client. En 2025, les deux clients liés à Abou Dhabi, G42 et MBZUAI, ont contribué à environ 86% des revenus, ce qui donne à première vue un tableau très concentré.

Mais il estime que le contrat avec OpenAI va remplacer structurellement le problème de concentration des clients UAE pendant la période 2026 à 2028, et que AWS ainsi que d’autres partenaires apporteront aussi une nouvelle diversification.

Les risques réellement plus importants incluent : si Cerebras peut livrer en temps voulu la montée en capacité, si la chaîne d’approvisionnement de fabrication de puces waferscale de TSMC est stable, et si une nouvelle génération de GPU ou d’autres architectures IA peuvent réduire l’écart de latence, affaiblissant ainsi le fossé technologique de Cerebras.

Sigel conclut en indiquant que VanEck, en tant qu’un des plus grands émetteurs de l’ETF semi-conducteurs américain SMH, fait de la recherche de long terme sur l’industrie des semi-conducteurs ; et en plus, VanEck a eu une relation de déploiement de capacité avec Cerebras via WhiteFiber (WYFI), ce qui lui a permis d’accéder plus tôt aux informations sur l’expansion opérationnelle réelle de Cerebras.

Il indique que le VanEck Onchain Economy ETF (NODE) a demandé auprès des souscripteurs une allocation en sursouscription pour l’IPO de Cerebras. Ses raisons ne tiennent pas seulement au fait d’être optimiste sur le marché de l’inférence IA ; il inclut aussi le fait que Cerebras pourrait devenir à l’avenir une couche matérielle importante pour les ZK proof de la blockchain, le calcul vérifiable “en temps réel” et l’infrastructure on-chain.

Cet article : analyse du responsable de la recherche VacEck : pourquoi la valorisation est élevée, je reste haussier sur l’adversaire de Nvidia, l’IPO de Cerebras, publiée en premier dans 鏈新聞 ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire