Ark Invest: Поточний стан і майбутнє інфраструктури штучного інтелекту

Джерело: Френк Даунінг, Ark Invest; переклад: Золотий фінанс Claw

Витрати на інфраструктуру штучного інтелекту зростають експоненційно

З моменту випуску ChatGPT протягом трьох років попит на прискорені обчислення зріс експоненційно. Річний дохід Nvidia зріс майже в 8 разів, з 27 мільярдів доларів у 2022 році до 216 мільярдів доларів у 2025 році, а ринок одностайно прогнозує, що у 2026 році він зросте ще на 62% до 350 мільярдів доларів. Інвестиції в глобальні системи дата-центрів (включаючи обчислювальне, мережеве та зберігання апаратного забезпечення) прискорилися з середнього річного темпу зростання 5% за десятиліття до 30% за останні три роки, і очікується, що у 2026 році зросте ще на понад 30%, до 653 мільярдів доларів.

Дослідження ARK показують, що прискорені обчислення (в порівнянні з універсальними ЦП) на базі GPU та спеціалізованих інтегральних схем (ASIC) тепер домінують у інвестиціях у сервери, складаючи 86% від обсягу продажів обчислювальних серверів.

Різке зниження витрат стимулює впровадження прискорення

Спонукальними факторами для постійного зростання витрат на інфраструктуру прискорених обчислень, необхідної для роботи AI-моделей, є постійне розширення сценаріїв використання генеративного AI на споживчому та корпоративному рівнях, а також потреба у навчанні більш розумних базових моделей у процесі досягнення “суперінтелекту”.

Швидке зниження витрат ще більше прискорює зростання попиту. Згідно з нашим дослідженням, витрати на навчання AI знижуються на 75% щороку. Витрати на інференцію знижуються ще швидше — у тестах, відстежуваних Artificial Analysis, середня річна знижка для моделей з оцінкою понад 50% досягає 95%.

Дві сили спільно сприяють значному зниженню витрат: по-перше, лідери галузі, такі як Nvidia, щорічно випускають нові продукти, що забезпечують покращення продуктивності апаратного забезпечення; по-друге, алгоритмічні вдосконалення на програмному рівні постійно підвищують ефективність навчання та інференції на одному й тому ж апаратному забезпеченні.

Споживачі та підприємства подають сильні сигнали попиту

Швидкість впровадження AI споживачами значно перевищує швидкість впровадження Інтернету в минулому. Рівень поширення AI за три роки зріс до приблизно 20%, що вдвічі більше, ніж швидкість переходу споживачів на Інтернет.

Попит з боку підприємств також зростає вражаючими темпами. Наприклад, за даними OpenRouter, з грудня 2024 року попит на токени зріс у 28 разів.

Протягом останніх двох років найбільш популярна AI-лабораторія серед корпоративних клієнтів Anthropic досягла вражаючого зростання доходів приблизно в 100 разів — з 100 мільйонів доларів річного операційного доходу наприкінці 2023 року до оцінюваних 8-10 мільярдів доларів до кінця 2025 року. Тренд зростання Anthropic продовжується в 2026 році, коли в лютому було оголошено про річний дохід у 14 мільярдів доларів, а також завершено раунд фінансування на 30 мільярдів доларів з оцінкою в 380 мільярдів доларів.

OpenAI, що змагається одночасно на фронтах споживачів та підприємств, також отримала значне зростання серед корпоративних користувачів, досягнувши 1 мільйона корпоративних клієнтів станом на листопад 2025 року. За словами фінансового директора Сари Фраір, темп зростання корпоративних доходів OpenAI перевищує темп зростання споживчого бізнесу, і очікується, що у 2026 році вони складуть 50% від загального доходу компанії. Фраір також пояснила причини подальших інвестицій в інфраструктуру у блозі в січні 2026 року: протягом останніх трьох років дохід OpenAI зростав пропорційно її обчислювальним потужностям.

Приватний ринок фінансує будівництво AI

Щоб задовольнити сильний попит, великомасштабні інвестиції в інфраструктуру стали необхідними. За даними Crunchbase, у 2025 році фінансування приватних AI-лабораторій перевищить 200 мільярдів доларів, з яких близько 80 мільярдів доларів направлено на розробників базових моделей, таких як OpenAI, Anthropic та xAI. На відкритому ринку гіганти хмарних обчислень використовують свої резерви готівки і шукають інші способи фінансування, щоб підтримати свої капітальні витрати на AI — у 2026 році ці витрати можуть досягти 7000 мільярдів доларів.

Згідно з повідомленнями, угода на 30 мільярдів доларів між Meta та Blue Owl є найбільшою угодою приватного капіталу в історії. Ця угода побудована у формі спільного підприємства, в основному фінансованого за рахунок боргу, структура спеціальної мети (SPV) якої не відображає борг проекту в балансі Meta, що викликало значні суперечки.

AMD та інші виробники стають сильними конкурентами Nvidia

За межами фізичних дата-центрів обчислювальні чіпи залишаються в центрі капітальних витрат на AI. Nvidia завжди була на передньому краї епохи прискорених обчислень, але тепер найбільші покупці AI-чіпів намагаються підвищити продуктивність кожного долара інвестицій. З моменту придбання ATI Technologies у 2006 році, AMD протягом багатьох років продавала GPU на споживчому ринку разом із Nvidia, а тепер також стала новим конкурентом на корпоративному ринку. Відтоді, як у 2017 році була представлена серія процесорів EPYC, частка AMD на ринку серверних ЦП зросла з майже нуля у 2017 році до 40% у 2025 році.

Що стосується інференції малих моделей, то GPU AMD вже порівнянні з Nvidia за загальною вартістю володіння (TCO) у відносній продуктивності. TCO враховує початкові витрати на покупку чіпів (капітальні витрати) та експлуатаційні витрати на чіпи протягом їх терміну служби. Продуктивність вимірюється за допомогою показника InferenceMax від SemiAnalysis, який оцінює кількість токенів, оброблених кожним GPU за секунду під час оптимізації пропускної здатності, а вартість базується на оцінках капітальних витрат та експлуатаційних витрат SemiAnalysis.

Хоча AMD вже “наздогнала” Nvidia у продуктивності малих моделей, Nvidia все ще має значну перевагу у продуктивності великих моделей, як показано на малюнку нижче.

Рішення Nvidia на рівні стійки Grace Blackwell з’єднує 72 GPU Grace Blackwell (GB200), змушуючи їх працювати як один надвеликий GPU з розділеною пам’яттю. Ця тісна взаємозв’язок між чіпами зміцнює можливості інференції великих моделей — великі моделі потребують розподілу ваг моделі на кількох GPU, що вимагає більше пропускної здатності зв’язку, ніж малі моделі. Щоб скоротити відставання перед випуском Nvidia Vera Rubin, рішення AMD на рівні стійки планується на другу половину 2026 року. До сьогоднішнього дня AMD отримала замовлення від таких клієнтів, як Microsoft, Meta, OpenAI, xAI та Oracle.

Гіганти хмарних обчислень ведуть революцію у персоналізованих чіпах

Крім постачальників комерційних GPU, гіганти хмарних обчислень і AI-лабораторії також прагнуть контролювати вплив Nvidia та знизити витрати на AI-обчислення, розробляючи власні чіпи. Протягом більше десяти років Google розробляє свої спеціалізовані інтегральні схеми для AI — тензорні процесори (TPU), які використовуються для запуску моделей рекомендацій у своїй пошуковій діяльності, і в останньому поколінні TPU v7 були оптимізовані для генеративного AI. SemiAnalysis оцінює, що Google знижує витрати на обробку внутрішніх завдань, використовуючи власні TPU, на 62% у порівнянні з Nvidia. Anthropic та Meta використовують TPU Google, щоб розширити свої обчислювальні потужності, що, можливо, підтверджує, що оцінка в 62% близька до реальності.

Чіпи Amazon Trainium, здається, є наступним передовим рішенням. Після придбання Annapurna Labs у 2015 році Amazon першою розробила персоналізовані чіпи для свого хмарного бізнесу, розширивши базовані на архітектурі ARM процесори Graviton та Nitro для обробки даних, забезпечуючи важливу обчислювальну потужність для Amazon Web Services (AWS). Нещодавно Amazon оголосила, що у 2025 році Graviton вже третій рік поспіль забезпечуватиме більше половини нових CPU потужностей AWS. Окрім використання TPU, Anthropic також обрала AWS і Trainium як свої основні платформи для навчання.

Microsoft лише у 2023 році вступила на ринок персоналізованих чіпів, випустивши AI-акселератор Maia 100, але тоді не зосередилася на генеративному AI, наразі її друге покоління продукту виходить, зосереджуючись на сценаріях інференції AI.

Broadcom домінує на ринку послуг персоналізованих чіпів

Google та Amazon зосереджуються на проектуванні чіпів на передньому плані (архітектура та функціональність), тоді як партнери з проектування на задньому плані відповідають за перетворення їх логіки в кремнієві чіпи, управління передовими упаковками та координацію виробництва з такими компаніями, як TSMC. У контексті викликів, з якими стикається підрозділ виробництва чіпів Intel, TSMC став вибраним партнером для більшості основних проектів AI-чіпів, тоді як Broadcom став провідним партнером з проектування на задньому плані для TPU Google, MTIA Meta та персоналізованих чіпів OpenAI, які будуть представлені у 2026 році. Apple завжди самостійно завершувала весь процес проектування своїх чіпів для смартфонів і ПК, але повідомляється, що вона також може співпрацювати з Broadcom для розробки AI-чіпів. Citi прогнозує, що доходи Broadcom у сфері AI можуть зрости в п’ять разів протягом наступних двох років, з 20 мільярдів доларів у 2025 році до 100 мільярдів доларів у 2027 році.

Шлях розробки Amazon Trainium є досить унікальним серед конкурентів — за повідомленнями, Trainium 2 співпрацює з Marvell, а потім, через неефективність Marvell, Trainium 3 та Trainium 4 стали співпрацювати з Alchip. Можливість Amazon змінювати партнерів з проектування на задньому плані свідчить про певний ризик вертикальної інтеграції для таких компаній, як Broadcom. Варто зазначити, що Apple та Tesla безпосередньо співпрацюють з фабриками з виробництва чіпів. Google, ймовірно, також зробить це з TPU v8 — цей продукт має два SKU, один з яких спільно розроблений Broadcom, а інший — самостійно розроблений Google за підтримки MediaTek.

Активність стартапів у сфері чіпів зростає

Наше дослідження показує, що група стартапів, які намагаються нові архітектурні парадигми, може ще більше кинути виклик ринковій позиції існуючих виробників чіпів. Cerebras відома своїм чіпом-двигуном на рівні кристала (величезний чіп, виготовлений з одного кремнієвого кристала, розміром з коробку піци), пропонує найшвидшу швидкість обробки токенів на ринку і, за повідомленнями, планує вийти на ринок цього року. Компанія нещодавно оголосила про співпрацю з OpenAI для запуску швидкорозрахункової моделі Codex Spark, раніше між сторонами було укладено угоду в січні цього року. Groq також завдяки видатній швидкості обробки токенів нещодавно підписала угоду про ліцензування інтелектуальної власності на 20 мільярдів доларів з Nvidia, що включає 90% співробітників Groq, а також генерального директора та спільного засновника TPU Джонатана Росса. Це фактично є придбанням команди та технології Groq, така структура угоди стає дедалі популярнішою на ринку M&A, оскільки технологічні гіганти прагнуть уникнути затримок, викликаних антимонопольним контролем. Щодо інших новин про злиття, Intel нещодавно, після невдалих переговорів про придбання, вирішила співпрацювати з SambaNova. З 2014 року Intel здійснила чотири придбання у сфері AI, але так і не змогла випустити визнані ринком продукти AI, що викликає певне розчарування.

Перспективи на майбутнє: до 2030 року обсяги досягнуть 1,4 трильйона доларів

Згідно з нашим дослідженням, постійне зростання попиту та постійне підвищення продуктивності в наступні п’ять років сприятим розвитку програмного забезпечення AI та хмарних послуг, витрати на інфраструктуру AI зростуть втричі за наступні п’ять років — з 500 мільярдів доларів у 2025 році до майже 1,5 трильйона доларів у 2030 році.

Наш прогноз ґрунтується на історичних спостереженнях інвестицій у системи дата-центрів відносно доходів від програмного забезпечення. На початку 2010-х років, з ростом хмарних обчислень, інвестиції в системи становили близько 50% від світових витрат на програмне забезпечення. До 2021 року надмірні інвестиції після пандемії COVID-19 та оптимізація клієнтів знизили частку інвестицій у системи до трохи більше 20%. Наш прогноз у 1,5 трильйона доларів припускає, що у 2030 році інвестиції становитимуть 20% від нашого нейтрального прогнозного сценарію для глобальних витрат на програмне забезпечення (тобто 7 трильйонів доларів у 2030 році), цей відсоток ми детально обговорили у блозі минулого року. Ми вважаємо, що рівень у 20% вже враховує потенційні ризики надмірних інвестицій до 2030 року, а також можливість того, що темпи зростання доходів від програмного забезпечення будуть повільнішими, ніж у нейтральному прогнозному сценарії — у такому випадку ми вважаємо, що інвестиції в інфраструктуру продовжать зростати швидкими темпами, як це було на початку 2010-х років.

З ростом попиту на обчислювальну потужність, що забезпечується AI, ми очікуємо, що частка персоналізованих чіпів у витратах на обчислення зростатиме — адже витрати часу та грошей на проектування чіпів для конкретних робочих навантажень з часом виявлять все більш важливу перевагу продуктивності на кожен долар в масштабах. Ми вважаємо, що до 2030 року частка персоналізованих ASIC на ринку обчислень може перевищити третину.

В цілому, наше дослідження показує, що поточне будівництво інфраструктури не є бульбашкою, що скоро лусне, а є основою унікальної платформної трансформації. ARK прогнозує, що витрати на інфраструктуру AI у 2030 році досягнуть майже 1,5 трильйона доларів, і цей ринок буде керуватися реальним і постійно зростаючим попитом з боку споживачів та підприємств, тоді як постійно знижувані витрати також продовжують підтверджувати та вивільняти нові сценарії використання. Ми віримо, що компанії, які виділятимуться протягом наступних п’яти років, будуть тими, хто зможе розробити найефективніші чіпи, створити найпотужніші моделі та реалізувати їх у великому масштабі.

Як зазначив генеральний директор Nvidia Дженсен Хуан на телефонній конференції з приводу звіту за четвертий квартал 2026 фінансового року, справжні практичні AI-агенти лише нещодавно почали масово впроваджуватися. Вони споживають величезну кількість токенів, але їхні можливості значно перевищують AI-продукти, до яких більшість користувачів звикли раніше. Розширення цих агентів на мільйони підприємств стане надзвичайно обчислювально інтенсивним завданням, і з нашої точки зору, підвищення продуктивності, що з цього випливає, повністю виправдає ці інвестиції.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.27KХолдери:1
    0.00%
  • Рин. кап.:$2.27KХолдери:1
    0.00%
  • Рин. кап.:$0.1Холдери:0
    0.00%
  • Рин. кап.:$0.1Холдери:1
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Закріпити