CITIC Securities: постійно позитивно налаштовані щодо тенденції зростання інновацій у сфері зберігання

Синьцзинь Синьцзинь цюаньшепа (CITIC Securities) у своєму дослідницькому звіті зазначає, що в епоху Agent AI потужність зберігання (存力) є ключовою, і це спричиняє перехід індустрії зберігання до довгострокової парадигми. З боку попиту й пропозиції: AI-інференс спричиняє різке зростання споживання токенів (Token), внаслідок чого KV Cache зростає лінійно, а сплеск попиту та невідповідність у розширенні виробництва на рівні заводів (оригінальних виробників) призводять до того, що дефіцит стає типовим явищем. Очікується, що ситуація «попит перевищує пропозицію» триватиме аж до 2027 року, а підвищення цін охопить весь 2026 рік. Технічно: на тлі крайнього дефіциту HBM і DRAM та високих витрат виробники розповідають про інноваційні рішення NAND, щоб розвантажити тиск потреби в обсязі відіграючої пам’яті (显存容量). CITIC Securities і надалі позитивно оцінює тенденцію зростання інновацій у сфері зберігання.

Нижче наведено повний текст

Зберігання | Дивлячись на тенденції розвитку з Flash Memory Summit

У епоху Agent AI потужність зберігання є ключовою, що стимулює індустрію зберігання здійснити перехід до довгострокової парадигми. З боку попиту й пропозиції: AI-інференс спричиняє різке зростання споживання токенів, внаслідок чого KV Cache зростає лінійно; сплеск попиту та невідповідність у розширенні виробництва на рівні заводів призводять до того, що дефіцит стає типовим явищем. Очікується, що «попит перевищуватиме пропозицію» триватиме до 2027 року, а подорожчання триватиме протягом усього 2026 року. Технічно: на тлі крайнього дефіциту HBM і DRAM та високих витрат виробники діляться рішеннями щодо інновацій у NAND, тим самим знімаючи тиск потреби в обсязі відіграючої пам’яті. Ми й надалі високо оцінюємо тенденцію зростання інновацій у сфері зберігання.

2026-й Китайський саміт ринку флеш-пам’яті (China Flash Memory Market Summit) проводитиметься з фокусом на інновації зберігання в епоху AI та можливості оновлення ланцюга постачання.

27 березня 2026 року в Шеньчжені відбудеться щорічний світовий захід для індустрії зберігання — CFMS MemoryS 2026. Як саміт рівня «барометра галузі», цього разу основною темою є «Переходимо цикл — розкриваємо цінність». Захід глибоко концентрується на технічних інноваціях і синергії в ланцюгах постачання та привертає до участі десятки провідних компаній у світі, зокрема Samsung Electronics, Silicon Motion Technology, Kioxia, Solidigm, Intel, Tencent Cloud тощо; охоплюються всі етапи повного ланцюга — від виробників пам’яті (заводів) і розробників контролерів до виробництва модулів і хмарних сервісів. Саміт працює за двома паралельними треками — високорівневі форуми та технічні виставки; у міру еволюції обговорюються перспективи ринкової кон’юнктури, зосереджені на спалаху попиту на потужність зберігання за умов різкого зростання token/KV Cache в епоху Agent AI, а також ведуться передові дискусії щодо технологічних проривів PCIe 5.0/6.0 SSD, технологій QLC надвеликої ємності та інших змін у сфері зберігання, зумовлених AI. Одночасно демонструються понад 100 інноваційних продуктів.

▍AI-інференс спричиняє вибуховий ріст попиту на зберігання; структурні невідповідності стають типовими; очікується, що «попит перевищує пропозицію» принаймні триватиме до 2027 року, а підвищення цін охопить весь 2026 рік.

З боку попиту: згідно з даними CFM Китайського ринку флеш-пам’яті, у 2026 році відвантаження серверів зростуть у річному вимірі на +15%; частка AI-серверів у загальному обсязі відвантажень серверів перевищить 20%. Великі моделі переходять від стадії тренування до стадії інференсу; вибух Agent-додатків призводить до різкого зростання споживання токенів. Коли довжина послідовності збільшується з 1k до 128k token, обсяг KV Cache зростає з 0.5GB до 64GB (BF/FP16, на один запит). За умов довгого контексту + високої паралельності спостерігається лінійне зростання потреби в зберіганні відповідно до кількості token/запитів; CFM прогнозує, що ємність HBM у 2025/2026 роках зросте на +90%/+35% або більше в річному вимірі. Водночас «деградуюче» спускання KV Cache в нижчі рівні + дефіцит постачання HDD спричиняють перелив попиту та роблять eSSD найбільшим нижнім ринком NAND у 2026 році (частка зростає до 37%).

З боку пропозиції: розширення виробництва не збігається в часі, а дефіцит і підвищення цін триватимуть надовго. Оригінальні виробники пам’яті загалом застосовують стратегію утримання цін: передові потужності насамперед спрямовують на продукти зі зберіганням для AI з високою валовою маржею. Згідно з CFM, частка більш просунутих потужностей DRAM, зокрема HBM/DDR5/LP5X/6, зросла з менш ніж 50% у 2024 році до 85%+ у 2026 році. Водночас зрілі техпроцеси та потужності для споживчого сегмента постійно витісняються. Галузеві запаси зменшилися з 10~12 тижнів у 2023 році на 8~10 тижнів у 2024 році та до 4 тижнів у 2026 році — нижче історичної межі безпечного рівня. Цикл розширення виробництва зберігання сягає 18~24 місяців, тому у 26H2 не може з’явитися перелом у бік пропозиції. Silicon Motion Technology вважає, що лише у 2027 році настане для індустрії «темний момент» дефіциту зберігання. Починаючи з 25H2 ціни на зберігання входять у епохальне підвищення; CFM прогнозує, що DRAM і NAND ASP упродовж усього 2026 року продовжать зростати. У епоху AI-інференсу потужність зберігання є основою; сфера зберігання входить у довгостроковий перехід парадигми. Для суперзростання це не просто циклічний відскок.

▍Індустріальний ланцюг зберігання пришвидшує перебудову цінності.

На нещодавній конференції GTC NVIDIA акцентовано висунула «економіку Token factory». Її ключове значення полягає в тому, що стратегічний статус зберігання в AI-інфраструктурі посилюється, а також це означає, що «потолок прибутковості» індустрії зберігання буде довгостроково відкритий. За даними CFM, ASP продуктів eSSD у 26Q1 вже перевищив ASP споживчого рівня NAND у 2 рази. Для оригінальних виробників пам’яті ключове — здійснити оновлення середовища зберігання (介质升级) та реконфігурацію на рівні системної архітектури. У цій форумній доповіді основна увага була зосереджена на корпоративному ринку. Для постачальників рішень зі зберігання ключовий фокус галузі зміщується з «хто дешевший» на «хто може отримати продукцію (виконати поставки)». Одночасно такі провідні компанії, як Phison Electronics, прискорюють перехід до «кастомізованих модулів з високою доданою вартістю», що базуються на власнорозроблених контролерах, та розширюють корпоративні SSD, щоб переосмислити цінність зберігання та відійти від моделі, що традиційно спиралася на дешеві складські запаси.

▍Тенденції зберігання в AI-облаку (для підприємств): вибух великомісткої QLC та швидка еволюція інтерфейсів — перевизначення рушія обчислювальної потужності.

AI прискорює перехід від «тренування» до «інференсу». Очікується, що співвідношення інференсних і тренувальних серверів у майбутньому може сягати 10:1–50:1. Наразі через вузьке місце пропускної здатності зберігання доступність обчислювальних кластерів GPU (utilization) становить лише приблизно 46%–50%. Оновлення відеопам’яті стає ключовою потребою. Водночас на цьому саміті кілька виробників розповіли про функціональні механізми перерозподілу ресурсів та узгодження обчислень/зберігання. Роль eSSD змінюється з «пасивного контейнера для даних» у «ядро обчислювального рушія» та «рівень розширеної пам’яті»: у тренувальній частині, використовуючи надвеликомісткі QLC eSSD для збереження Checkpoint, можна суттєво підвищити ефективність роботи GPU; в інференсній частині eSSD, розшаровуючи кеш KV Cache, бере на себе завдання з управління гігантськими станами контексту, запитами до векторних баз даних і завантаженням фрагментів моделей тощо. Дані практичних тестів показують: коли KV-кеш вивантажують на SSD, усуваючи обчислення попереднього заповнення, час генерації першого токена (TTFT) можна знизити у 41 раз. Корпоративне зберігання демонструє такі технічні тенденції:

З огляду на потребу у кешуванні величезних масивів AI-даних і KV Cache, високощільна QLC стає ключовим середовищем. Рішення з QLC надвеликої місткості рівня «сотні терабайт» (TB) стає першим вибором. Kioxia (245.76TB), BigTop (245TB), а також SanDisk (схема SN670 аж до 256TB) також продемонстрували надвеликомісткі продукти QLC рівня понад двісті TB, що значно оптимізує ефективність використання простору та TCO.

Контролерні мікросхеми рухаються до «м’яко-жорсткої кооперації» (soft-hard collaboration), закриваючи прогалини середовища. Для сценаріїв інференсу, де KV Cache створює часті випадкові операції читання/запису та тиск на пропускну здатність, контролерні мікросхеми активно оновлюються. PingTouGe ZhenYue 510 завдяки нативній підтримці протоколу ZNS та системній кооперації підтримує масову комерціалізацію QLC; сукупні відвантаження — понад 500 тис. штук. Chipone Technology тим часом вводить технології прискорення KV та прогнозовану попередню вибірку, завдяки чому контролер із «перевізника даних» перетворюється на активного «інтелектуального диспетчера розподілу ресурсів».

Швидка ітерація інтерфейсів і інновації рідинного охолодження, щоб відповідати надвеликому кластеру GPU на 100 тис. карток. Перед кластерними задачами розміром від тисяч карток до десятків тисяч і навіть 100 тис. карток виникають складні виклики великого обсягу перенесення даних та високої щільності виділення тепла. Samsung демонструє 16-канальний PCIe 6.0 SSD PM1763: продуктивність введення/виведення зросла у 2.0 рази. Контролер PCIe Gen6 «Lhotse» від FADU вже в чипі (запущений у виробництво); послідовна швидкість читання досягне 28.5GB/s.

▍Тенденції зберігання на AI-пристроях (споживчий рівень): прискорене впровадження AI на пристроях і інтеграція зберігання та обчислень для подолання вузького місця зайняття пам’яті.

Середовище на пристроях дуже жорстко обмежує вартість апаратного BOM, системне споживання енергії та зайняття пам’яті DRAM. Тому, здійснюючи «зберігання+обчислення разом» (存算融合), використовуючи інтелектуальне диспетчеризування на рівні софт/хард та технології розширеного кешування, переносити навантаження інференсу з пам’яті (DRAM) на флеш (NAND) стає важливим додатковим способом прориву через вузьке місце розгортання великих моделей на пристроях.

AI PC і локальні великі моделі: Hybrid-гібридна технологія знижує різкий тиск на потребу в обсязі DRAM. Під час роботи на пристрої великих моделей на десятки мільярдів або сотні мільярдів параметрів пам’ять є серйозним випробуванням. JiangboLong випускає модуль обробки пам’яті (storage processing unit) з 5nm SPU та зберігаючого інтелект-агента iSA. У спільно налаштованій валідації та оптимізації на ПК-«хості» досягнуто локального розгортання моделі 397B, а в сценаріях з контекстом близько 256K знижується майже на 40% зайняття DRAM. Phison Electronics представила Phison Hybrid AI SSD та технологію aiDAPTIV+, прогнозуючи, що вона може зменшити використання DRAM більш ніж на 50%, забезпечуючи контрольовану вартість і безпечний локальний інференс.

Інтелектуальні автомобілі та edge обчислення: перехід до централізованої архітектури пулінгу та уніфікованої бази платформи. Embodied intelligence та високорівневе автономне керування висувають вимоги до глобальної кооперації на рівні базової архітектури. XPeng чітко зазначила: за обчислювальної потужності до 2250 TOPS DRAM-ширина смуги вже стала ключовим вузьким місцем для затримки інференсу; на горизонті ера LPDDR6 для авто, а автомобільне NAND-зберігання переходить від поділених «острівців» до централізованого пулінгу та програмно визначеної (software-defined) моделі.

Інтелектуальні смартфони та AIoT (Інтернет речей): глибоке занурення високошвидкісних інтерфейсів і технологій розширеного кешування. Для вимог до швидкості відгуку та автономності на мобільних пристроях і нових носимих девайсах Silicon Motion Technology готує до випуску нове покоління контролера UFS 4.1 SM 2755 та прискорює розгортання в AIoT-ринку, зокрема для розумних годинників/окулярів; SanDisk застосовує технологію SmartSLC кешування, досягаючи високошвидкісної роботи UFS 4.1 лише за приблизно 2W споживання енергії; JiangboLong просуває технологію HLC розширеного кешу для впровадження на вбудованих пристроях, щоб знизити вартість BOM кінцевих пристроїв.

▍Фактори ризику:

Ризики в’ялого стану глобальної макроекономіки; попит з боку нижчих ланцюгів не виправдає очікувань; інновації не виправдають очікувань; посилення ризиків через зміни в міжнародному індустріальному середовищі та загострення торговельних тертя; прогрес оновлення обчислювальної потужності не виправдає очікувань; капітальні витрати хмарних постачальників не виправдають очікувань тощо.

▍Інвестиційна стратегія:

Ми вважаємо, що в епоху Agent AI зростання потужності зберігання стимулюватиме тенденції в індустрії «зберігання+обчислення». За умов високої кон’юнктури в near-compute (наближені обчислення) ми позитивно оцінюємо ланцюг HBM та CUBE; водночас за дефіциту зберігання від основних до нішевих сегментів спостерігається повний дефіцит і підвищення цін. За зворотним зв’язком від кількох компаній, темпи зростання цін у 26Q2 у порівнянні з попереднім кварталом залишаються приблизно такими самими; ми прогнозуємо, що дефіцит «попит перевищує пропозицію» триватиме щонайменше до кінця 2027 року. Ключова рекомендація: компанії з модулів зберігання — сильна здатність до сплеску результатів у короткостроковій перспективі; оригінальні виробники зберігання та компанії, що максимально близькі до них за дизайном.

(Джерело: Jiemian News)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити