Дослідницька команда ServiceNow представила нову модель Apriel-1.6-15B-Thinker — справжній «монстр» у своєму класі: вона досягає топових результатів із 15 мільярдами параметрів, а її об’єм зменшено в 15 разів. Ще цікавіше, що 15% даних для попереднього навчання моделі були створені за допомогою драйверів NVIDIA — такий підхід до оптимізації обчислювальних ресурсів заслуговує на увагу.
Якщо шлях до високої продуктивності невеликих моделей вдасться, це суттєво вплине на розстановку сил на ринку AI-обчислень. Адже зараз усі змагаються, «спалюючи» гроші на збільшення параметрів, а рішення, що дозволяють виконувати ті ж завдання з меншими витратами ресурсів, безумовно стануть бажанішими.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
5
Репост
Поділіться
Прокоментувати
0/400
ShibaMillionairen't
· 15год тому
Зменшення об'єму у 15 разів? Якщо це справді зможе стабільно працювати, вартість обчислювальних потужностей скоротиться вдвічі.
Переглянути оригіналвідповісти на0
AirdropHunterXM
· 15год тому
15B може замінити великий мовний модель? Якщо це справді зможе стабільно працювати, вартість обчислювальних потужностей одразу зменшиться вдвічі.
Переглянути оригіналвідповісти на0
wagmi_eventually
· 15год тому
15B вже можна отримати, ось це справжній шлях, нарешті хтось не просто нарощує параметри
Переглянути оригіналвідповісти на0
GweiWatcher
· 16год тому
Ого, зменшення об’єму у 15 разів із тим самим ефектом — якщо це справді вдасться реалізувати, виробники GPU будуть у розпачі.
Переглянути оригіналвідповісти на0
WhaleWatcher
· 16год тому
Зменшити обсяг у 15 разів і все одно працювати — ось це справжня майстерність, набагато краще за ті показні моделі з мільярдами параметрів.
Дослідницька команда ServiceNow представила нову модель Apriel-1.6-15B-Thinker — справжній «монстр» у своєму класі: вона досягає топових результатів із 15 мільярдами параметрів, а її об’єм зменшено в 15 разів. Ще цікавіше, що 15% даних для попереднього навчання моделі були створені за допомогою драйверів NVIDIA — такий підхід до оптимізації обчислювальних ресурсів заслуговує на увагу.
Якщо шлях до високої продуктивності невеликих моделей вдасться, це суттєво вплине на розстановку сил на ринку AI-обчислень. Адже зараз усі змагаються, «спалюючи» гроші на збільшення параметрів, а рішення, що дозволяють виконувати ті ж завдання з меншими витратами ресурсів, безумовно стануть бажанішими.