Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
“Père de HBM” prédit que l’architecture IA sera révolutionnée : la mémoire remplacera le GPU en tant que composant central
Lorsque l’IA passe de la « génération » à « des actions autonomes », le goulot d’étranglement en puissance de calcul pourrait se déplacer des GPU vers la mémoire.
D’après des médias locaux coréens, dont le quotidien « Asia Economy », le professeur Joungho Kim du Korea Advanced Institute of Science and Technology (KAIST), salué dans l’industrie comme le « père de HBM », a récemment lancé une prédiction : l’architecture d’IA centralisée autour des GPU, actuellement dominée par NVIDIA, sera finalement remplacée par une nouvelle architecture dont le cœur sera la mémoire.
Derrière ce constat se trouve un changement fondamental de la forme que prennent les applications d’IA. En passant de l’IA générative à l’IA d’agents (Agentic AI), le système doit traiter simultanément d’immenses volumes de documents, de vidéos et de données multimodales — Kim qualifie cette tendance de « montée de l’ingénierie du contexte » (context engineering). Il indique que, pour garantir la vitesse et la précision, la bande passante et la capacité de la mémoire doivent augmenter jusqu’à un maximum 1000 fois.
Les chiffres sont encore plus impressionnants du côté de la demande : selon ce que Money Today Broadcasting a rapporté plus tôt à partir des propos de Kim, si la taille d’entrée augmente de 100 à 1000 fois, les besoins en mémoire pourraient bondir de façon exponentielle, avec un accroissement total pouvant aller jusqu’à 1 million de fois.
Le HBM atteindra le plafond, le HBF prendra le relais
Kim a clairement déclaré que la technologie HBM actuelle — qui permet des transmissions ultra-rapides via l’empilement vertical de DRAM, et qui domine actuellement le marché de la mémoire des accélérateurs d’IA — ne pourra pas tenir dans l’ère de l’IA d’agents.
Sa prochaine solution, c’est HBF (High Bandwidth Flash, flash à haute bande passante) : en remplaçant la DRAM par une mémoire NAND empilée, pour construire une « mémoire à long terme de type gigantesque bibliothèque », avec une capacité bien supérieure aux limites actuelles.
Par analogie, le HBM ressemble à des post-it sur un bureau : rapide, mais capacité limitée ; le HBF ressemble à un mur entier de livres, avec des ordres de grandeur de données totalement différents.
Au niveau de l’architecture, SK hynix a déjà proposé l’architecture « H3 » dans un article publié par l’IEEE — d’après le rapport de « The Korea Economic » de février, cette architecture déploierait le HBM et le HBF côte à côte à proximité du GPU, et non, comme dans la conception actuelle, avec seulement le HBM collé au processeur. Cela signifie que le rôle du GPU passera de « protagoniste » à « second rôle », les unités de calcul étant intégrées dans un système où la mémoire sera le composant principal.
La feuille de route devient peu à peu plus claire.
Selon la prévision de Kim, des échantillons d’ingénierie de HBF devraient apparaître autour de 2027, et Google, NVIDIA ou AMD adopteront cette technologie au plus tôt en 2028.
Ce calendrier est très similaire à la trajectoire suivie par le HBM à l’époque, du laboratoire vers une commercialisation à grande échelle, et indique également que la fenêtre de l’industrie est désormais ouverte.
SK hynix et Samsung, à nouveau face à face
Kim indique par ailleurs que le paysage concurrentiel dans le domaine du HBF reproduira le scénario de l’ère du HBM — SK hynix et Samsung Electronics redeviendront les acteurs principaux.
À l’heure actuelle, SK hynix a déjà, en février de cette année, formé une alliance de normalisation HBF avec SanDisk, dans le but de s’assurer une position dominante dans l’écosystème. De son côté, Samsung, d’une part, continue de faire progresser des produits HBM de prochaine génération comme HBM4E, et d’autre part investit en parallèle dans la recherche et le développement d’une architecture NAND compatible avec le concept de HBF, selon Aju News.
Les trajectoires de déploiement des deux géants diffèrent, mais l’objectif vise la même voie. Celui qui réussira le cycle complet — de l’établissement de normes jusqu’à la livraison en production de masse — décidera dans une large mesure de la configuration du prochain marché de la mémoire pour l’IA.
Avertissement sur les risques et clause de non-responsabilité