Децентралізований експеримент штучного інтелекту, який раніше був обмежений криптовалютними колами, отримав публічне схвалення від генерального директора Nvidia Дженсена Хуана, що свідчить про те, що розподілене навчання моделей може наближатися до мейнстріму.
Чамат Паліхапітія висвітлив Covenant-72B від Bittensor під час епізоду подкасту All-In, представивши його як конкретний приклад того, як децентралізований штучний інтелект виходить за межі теорії. Bittensor працює як децентралізована мережа на основі блокчейну, яка створює пірінговий ринок, де обмінюються та заохочуються моделі машинного навчання і обчислювальні ресурси AI.
Паліхапітія описав цю ініціативу простою мовою: масштабна мовна модель (LLM), навчена без централізованої інфраструктури, на основі мережі незалежних учасників. «Вони змогли навчити модель LLaMA з 4 мільярдами параметрів, цілком розподілену, з участю багатьох людей, що надають надлишкові обчислювальні ресурси», — сказав він, назвавши це «дуже крутим технічним досягненням».
Це порівняння було проілюстроване знайомою аналогією. «Є випадкові люди, і кожен отримує невелику частку», — додав Паліхапітія, посилаючись на ранній проект розподілених обчислень, що використовував неактивне обладнання по всьому світу.
Хуанг не відкидає цю ідею. Замість цього він розглядає ширше ринок AI, пропонуючи, що децентралізовані та власницькі підходи не є взаємовиключними. «Ці дві речі — не А або Б; це А і Б», — сказав Хуанг. «У цьому немає сумнівів».
Це двовекторне бачення відображає зростаючий розкол — і перехрестя — у сфері AI. З одного боку — закриті, високотехнологічні системи, такі як ChatGPT, Claude і Gemini. З іншого — відкриті ваги та децентралізовані моделі, що дозволяють розробникам і організаціям налаштовувати системи під конкретні потреби.
Хуанг чітко заявив, що обидва напрямки є важливими. «Моделі — це технологія, а не продукт», — сказав він, зазначивши, що більшість користувачів і надалі будуть покладатися на відшліфовані, універсальні системи, а не створювати свої власні з нуля.
Водночас він звернув увагу на галузі, де налаштування не є опцією. «Є всі ці галузі, де їхній доменний досвід… має бути зафіксований так, щоб вони могли контролювати його», — пояснив Хуанг, додавши, що «це можливо лише за допомогою відкритих моделей».
Ця заява цілком стосується Bittensor. Covenant-72B, розроблений через його підмережу 3 (Templar), є одним із найбільших децентралізованих тренувальних запусків на сьогодні, координуючи понад 70 учасників через стандартні інтернет-з’єднання без центрального органу.
Технічно модель порушує межі. З 72 мільярдами параметрів і навчена на приблизно 1,1 трильйоні токенів, вона використовує інновації, такі як стиснені протоколи зв’язку та розподілений паралелізм даних, щоб зробити тренування можливим поза традиційними дата-центрами.
Показники продуктивності свідчать, що це не просто експеримент. Результати бенчмарків ставлять її у конкуренцію з усталеними централізованими моделями, що допомагає зрозуміти, чому цей проект привернув увагу поза крипто-спільнотою.
Ринок також звернув увагу. Після оголошення токен проекту TAO виріс на 24% з моменту поширення відео Паліхапітії та Хуана у соцмережах.
Проте коментарі Хуана натякають, що справжня історія — не про руйнування, а про співіснування двох підходів. Власницькі системи AI ймовірно залишаться домінуючими для загальних користувачів, тоді як відкриті та децентралізовані моделі займуть свою роль у спеціалізованих, чутливих до вартості або суверенітету застосунках.
Для стартапів Хуанг окреслив прагматичний план: починайте відкрито, а потім додавайте власницькі переваги. «Кожен стартап, у який ми зараз інвестуємо, спершу відкритий, а потім переходить до власницької моделі», — сказав він.
Інакше кажучи, майбутнє AI може не належати одній архітектурі або філософії. Воно може належати тим, хто вміє орієнтуватися обома шляхами і знати, коли використовувати кожен із них.
Мовна модель з 72 мільярдами параметрів, навчена через децентралізовану мережу учасників без централізованої інфраструктури.
Він зазначив, що відкриті та власницькі моделі AI співіснуватимуть, описуючи їхні відносини як «А і Б», а не вибір між ними.
Це показує, що великомасштабне навчання AI можливо поза традиційними дата-центрами, що кидає виклик уявленням про необхідність інфраструктури.
Це підтримує гібридне майбутнє, де централізовані платформи та децентралізовані моделі виконують різні ролі у різних галузях.