目前 більшість застосунків штучного інтелекту нагадують непрозору чорну скриньку: користувачі можуть лише пасивно приймати результати, але не можуть дізнатися, чи є процес обґрунтування справедливим і чи не був він підроблений. Ця невизначеність є саме тією перешкодою, яка ускладнює глибоку інтеграцію AI у світ Web3, що наголошує на визначеності. У відповідь @inference_labs запропонували ключову ідею: процес обґрунтування AI сам по собі має стати піддаваною аудиту інфраструктурою. Вони зосереджені не на абсолютній продуктивності моделі, а на тому, щоб кожен результат обґрунтування був надійним і міг бути незалежно підтверджений. Це безпосередньо вирішує основну проблему поєднання AI та блокчейну: коли рішення AI починають безпосередньо впливати на активи або автоматично виконувати контракти, вся система не може базуватися лише на довірі до централізованого сервера. За допомогою механізмів перевірного обґрунтування Inference Labs прагнуть зробити вихідні дані AI так само надійними, як і транзакції у ланцюгу, що створює важливі передумови для безпечного застосування AI у DeFi, автоматизованих протоколах та складних системах з багатьма агентами. Це також передвісник майбутнього тренду: у відкритій мережі справді масштабованими можуть стати не найрозумніші моделі AI, а ті системи, процес обґрунтування яких є максимально прозорим і надійним. Inference Labs саме працює над створенням основ для такого довірливого майбутнього. @Galxe @GalxeQuest @easydotfunX

Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити