ANTHROPIC

Prix Anthropic

Fermer
ANTHROPIC
€0
+€0(0,00 %)
Aucune donnée

*Données dernièrement actualisées : 2026-05-01 07:00 (UTC+8)

Au 2026-05-01 07:00, Anthropic (ANTHROPIC) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, ANTHROPIC a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.

Statistiques clés de ANTHROPIC

Ratio P/E0,00
Rendement des dividendes (TTM)0,00 %
Actions en circulation0,00

En savoir plus sur Anthropic (ANTHROPIC)

Articles de Gate Learn

Anthropic "coupe" Windsurf, le codage AI devient une "guerre par procuration" entre les géants de l'IA

L'acquisition par OpenAI de la plateforme de programmation IA Windsurf a provoqué un émoi dans l'industrie, tandis que l'arrêt par Anthropic de l'approvisionnement du modèle Claude à Windsurf a intensifié la concurrence sur le marché.

2025-06-11

Les 72 heures de la crise d'identité d'Anthropic

En l’espace de soixante-douze heures, Anthropic a fait face à un ultimatum du Pentagone, à des accusations publiques d’Elon Musk et au retrait de ses propres engagements de sécurité. De son refus de concevoir des armes militaires autonomes à la révision de RSP 3.0 et l’abandon de la ligne rouge « pause training », cette société — reconnue comme un acteur majeur de l’« AI sûre » — doit désormais gérer un écart croissant entre son image de marque et sa réalité opérationnelle. Cet article examine les enjeux politiques, les pressions sur la valorisation et l’effritement du narratif de sécurité qui alimentent cette crise identitaire.

2026-03-05

Fuite du code source de Claude Code : Analyse sectorielle approfondie — Anthropic envisage bien plus qu'un assistant de codage IA

L’incident de fuite du code source de Claude Code révèle qu’il ne s’agit pas seulement d’une erreur d’ingénierie : il constitue aussi une première illustration de la stratégie produit d’Anthropic, qui semble privilégier les opérations en arrière-plan, l’exécution automatisée, la collaboration multi-agents et l’automatisation des autorisations. Cet article propose, sous l’angle de l’industrie, une analyse des axes que pourrait emprunter Anthropic avec Claude Code.

2026-04-02

FAQ de Anthropic (ANTHROPIC)

Quel est le cours de l'action Anthropic (ANTHROPIC) aujourd'hui ?

x
Anthropic (ANTHROPIC) s’échange actuellement à €0, avec une variation sur 24 h de 0,00 %. La fourchette de cotation sur 52 semaines est de €0 à €0.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Anthropic (ANTHROPIC) ?

x

Quel est le ratio cours/bénéfice (P/E) de Anthropic (ANTHROPIC) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Anthropic (ANTHROPIC) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Anthropic (ANTHROPIC) ?

x

Faut-il acheter ou vendre Anthropic (ANTHROPIC) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Anthropic (ANTHROPIC) ?

x

Comment acheter l'action Anthropic (ANTHROPIC) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Anthropic (ANTHROPIC) Dernières Actualités

2026-05-01 02:09

Anthropic ouvre la version bêta de la sécurité de Claude pour les utilisateurs professionnels le 1er mai

D’après BlockBeats, le 1er mai, Anthropic a annoncé que Claude Security, un outil de sécurité du code, a ouvert des tests bêta publics pour les utilisateurs de Claude Enterprise. L’outil analyse les dépôts de code à la recherche de vulnérabilités, effectue une vérification secondaire pour réduire les faux positifs et génère automatiquement des recommandations de correctifs pour relecture par les développeurs. Depuis le lancement de l’aperçu de recherche en février, des centaines d’organisations ont déployé Claude Security dans des environnements de production et y ont identifié des problèmes manqués par les analyseurs traditionnels.

2026-04-30 11:29

Anthropic Claude facture à un utilisateur 200,98 dollars en trop en raison d’un bug de facturation, et le remboursement a d’abord été refusé avant une compensation intégrale

D’après le suivi de Beating, un bug de facturation dans le service Claude Code d’Anthropic a entraîné une surfacturation de Max 20x de 200,98 dollars de frais d’utilisation supplémentaires, alors qu’ils n’utilisaient que 13 % de leur quota mensuel. Le bug a été déclenché lorsque l’historique des commits d’un dépôt git d’un utilisateur contenait la chaîne en majuscules « HERMES.md » ; le système a alors contourné les limites d’abonnement et a facturé des frais d’utilisation supplémentaires. Le système de prévention des abus d’Anthropic effectuait une mise en correspondance de chaînes sur des journaux git injectés dans des prompts système, probablement pour tenter de détecter des clients API non officiels, mais il a à tort signalé des utilisateurs légitimes mentionnant le fichier de configuration de l’agent Hermes. Après la soumission d’une demande de remboursement par l’utilisateur, le service client IA d’Anthropic a d’abord refusé toute compensation, indiquant qu’il ne pouvait pas rembourser les erreurs de routage de facturation. Ce refus a déclenché une vague de réactions sur GitHub et Hacker News, jusqu’à la une. Le membre de l’équipe Claude Code Thariq a ensuite annoncé que tous les utilisateurs concernés recevraient un remboursement intégral, ainsi qu’une compensation en crédit équivalente.

2026-04-29 23:21

Anthropic examine des offres d’investisseurs alors que la valorisation du marché secondaire atteint $1 Trillion

Selon des informations, Anthropic examine des offres d’investisseurs alors que sa valorisation sur le marché secondaire approche $1 trillion. Les discussions en sont encore à un stade précoce, l’entreprise recherchant une infrastructure supplémentaire pour soutenir la demande croissante pour ses produits. Il convient de noter que le tour de financement le plus récent sur le marché primaire d’Anthropic a valorisé l’entreprise à $38 billion, tandis que les chiffres de valorisation plus élevés reflètent l’activité de négociation sur le marché secondaire.

2026-04-29 10:37

Anthropic lance 8 connecteurs d’outils créatifs pour Claude, dont Blender, Adobe, Autodesk

Anthropic a annoncé une suite de connecteurs d’outils créatifs qui permettent à Claude de contrôler directement des logiciels professionnels utilisés par les designers et les musiciens. Les huit connecteurs initiaux couvrent la modélisation 3D, le design visuel, la production musicale et la performance en direct, avec des partenaires incluant Blender, Adobe, Autodesk, Ableton, Splice, Affinity by Canva, Resolume et SketchUp. Le connecteur Blender a été développé par l’équipe officielle de Blender à l’aide du protocole MCP, permettant également à d’autres modèles d’IA d’y accéder.

2026-04-29 02:09

La Maison-Blanche élabore des orientations pour permettre l’utilisation d’Anthropic et renoncer aux déterminations de risque de la chaîne d’approvisionnement

Message de Gate News, 29 avril — La Maison-Blanche rédige des orientations exécutives qui permettraient aux agences gouvernementales de renoncer à des déterminations relatives au risque de la chaîne d’approvisionnement pour Anthropic et d’introduire de nouveaux modèles d’IA, notamment Mythos, selon des sources familières avec le dossier. La mesure administrative proposée pourrait offrir une voie pour apaiser les tensions entre la Maison-Blanche et Anthropic, une source décrivant l’effort comme un moyen de « sauver la face tout en les faisant revenir. » Plus tôt ce mois-ci, le chef de cabinet de la Maison-Blanche, Wiles, et le secrétaire au Trésor, Bessent, se sont entretenus avec le PDG d’Anthropic, Dario Amodei, pour ce que les deux parties ont décrit comme une discussion préliminaire fructueuse sur la manière dont l’entreprise et le gouvernement pourraient collaborer. Cette semaine, la Maison-Blanche réunit des entreprises du secteur pour recueillir des retours sur des actions administratives potentielles et sur les meilleures pratiques pour déployer Mythos. Ces réunions incluent des examens préliminaires de documents d’orientation qui pourraient annuler une directive antérieure du Bureau de la gestion et du budget (OMB) interdisant l’utilisation par le gouvernement d’Anthropic. Les orientations représentent un changement significatif par rapport aux restrictions antérieures et signalent des négociations en cours entre l’administration et l’entreprise d’IA au sujet de l’adoption par le gouvernement de sa technologie.

Publications populaires sur Anthropic (ANTHROPIC)

CryptoCity

CryptoCity

Il y a 54 minutes
![](https://img-cdn.gateio.im/social/moments-2646c18d9c-3e6b7a86d5-8b7abd-e5a980) OpenAI prévoit de lancer un modèle dédié à la cybersécurité GPT-5.5-Cyber, destiné aux experts du domaine, en rivalité avec la stratégie de défense strictement contrôlée d’Anthropic. Ultraman avait prédit qu’en 2026, des attaques informatiques susceptibles de secouer le monde pourraient survenir. OpenAI GPT-5.5-Cyber dévoilé dans quelques jours ------------------------- Le PDG d’OpenAI, Sam Altman, a annoncé aujourd’hui (30/04) que **dans les prochains jours, la nouvelle génération de modèle de cybersécurité GPT-5.5-Cyber sera lancée, accessible aux experts en sécurité informatique.** Il a indiqué que l’équipe collaborera avec l’écosystème et le gouvernement pour trouver des moyens fiables d’accès afin d’assurer la sécurité des entreprises et des infrastructures. ![](https://img-cdn.gateio.im/social/moments-e71f7bffd7-474cbc5b54-8b7abd-e5a980) En avril de cette année, **Altman, lors d’un entretien avec Mike Allen, fondateur d’Axios, avait prédit qu’en 2026, une attaque informatique susceptible de bouleverser le monde pourrait se produire.** Le public continue de débattre pour savoir si ses propos reflètent fidèlement la menace, tandis que récemment, Anthropic a lancé le modèle Claude Mythos, capable d’identifier de manière autonome les vulnérabilités logiciels, ce qui intensifie le débat et suscite l’inquiétude du gouvernement américain. * **Article associé :****Claude Mythos pourrait menacer la sécurité financière ? Le secrétaire au Trésor et le président de la Fed tiennent une réunion d’urgence pour alerter sur les risques** OpenAI prévoit de déployer ses outils de cybersécurité à tous les niveaux gouvernementaux ------------------ Les divergences entre OpenAI et Anthropic sur la stratégie de défense reflètent un débat plus large dans le domaine de l’IA. Selon CNN, jusqu’à récemment, **le programme de confiance et d’accès sécurisé d’OpenAI en matière de cybersécurité était limité à quelques partenaires, mais il s’ouvre désormais à tous les niveaux gouvernementaux vérifiés, du fédéral au local, permettant aux entités autorisées d’utiliser des versions spéciales du modèle avec moins de restrictions.** Sasha Baker, responsable de la politique de sécurité nationale chez OpenAI, a indiqué qu’OpenAI ne se considère pas comme le seul décideur en matière de contrôle des accès et de priorités. Divergences dans la stratégie de défense entre deux géants de l’IA, démocratiser ou contrôler strictement ---------------------- Le modèle Mythos d’Anthropic possède la capacité d’identifier et d’exploiter des vulnérabilités logiciels. En raison des risques potentiels, la société promeut progressivement cette technologie via un programme strict de contrôle, en collaboration avec des représentants gouvernementaux. En matière de sécurité, Anthropic prône une approche prudente et lente pour réduire la course aux armements alimentée par l’IA, tandis qu’OpenAI prévoit de rendre ses modèles entièrement accessibles. Baker affirme qu’il faut démocratiser la capacité de défense en ligne pour que tout le monde en bénéficie, et que réserver cela aux 50 plus grandes entreprises de *Fortune* n’est pas suffisant. **Elle insiste sur le fait que c’est une opportunité pour toutes les entreprises de corriger leurs vulnérabilités avant que ces outils ne tombent entre de mauvaises mains.** ![](https://img-cdn.gateio.im/social/moments-7dab859b0f-a9202ff063-8b7abd-e5a980) Source : Getty Images/ANTHONY WALLACE/AFP Sasha Baker, responsable de la politique de sécurité nationale chez OpenAI OpenAI collabore activement avec les États-Unis pour élaborer un plan d’action dans l’ère de l’intelligence ------------------------ Récemment, OpenAI a organisé un atelier pratique à Washington, où Baker a révélé que des représentants du Pentagone, de la Maison Blanche, du Département de la sécurité intérieure et de la DARPA ont participé, pour tester la sécurité de leurs nouveaux modèles, avec l’intention de revenir à Washington dans quelques semaines pour recueillir des retours. De plus, OpenAI déploie un plan d’action visant à coordonner la défense cybernétique entre le gouvernement et le secteur privé dans l’ère de l’intelligence. La société prévoit d’introduire dans les prochains jours de nouvelles fonctionnalités de sécurité pour ChatGPT, ainsi que des outils pour aider le public à améliorer ses habitudes de sécurité en ligne. Démon ou sauveur ? Les géants de l’IA jouent la carte de la crise apocalyptique ------------------- Cependant, de nombreuses entreprises d’IA alertent fréquemment sur les risques d’une fin du monde, ce qui suscite des critiques dans le monde académique. Lors d’un entretien avec la BBC, Shannon Vallor, professeure en éthique à l’Université d’Édimbourg, a souligné que la stratégie de peur des entreprises d’IA a déjà porté ses fruits, en façonnant leurs produits comme des entités capables de mettre fin au monde, sans nuire à leur propre pouvoir ou réputation. **Cela donne à l’opinion publique l’impression que seules ces entreprises peuvent offrir une protection.** Elle explique que l’utopie et l’apocalypse sont deux faces d’une même pièce : « Qu’il s’agisse d’un scénario utopique ou apocalyptique, l’échelle est si grande et mythique qu’on a l’impression que la régulation, la gouvernance ou la justice ne peuvent rien y faire. » **Cela pousse les gens à croire que leur seul rôle est d’attendre, en se demandant si cette technologie finira par détruire la civilisation ou nous sauver comme un messie.** Même le nom « Mythos » semble conçu pour évoquer une révérence religieuse. Lectures complémentaires : Une nouvelle politique pour l’ère de l’IA ! OpenAI propose 4 grandes initiatives : trois jours de repos par semaine, taxe sur les robots
0
0
0
0