Автономні системи найстрашніше не через помилки, а через те, що трапилось, і ніхто не може чітко пояснити, чому вони так вчинили.



Люди насправді можуть прийняти помилки у судженнях, але дуже важко змиритися з такою ситуацією:
Результат вже стався, а шлях прийняття рішення залишається чорним ящиком.

Багато штучного інтелекту застрягає у високоризикових сценаріях і не може зробити кроку вперед, не через недостатню здатність, а тому, що його логіка прийняття рішень просто не піддається зовнішній перевірці.

Вибір @inference_labs@ дуже ясний:
Не витрачати зусилля на пояснення, що саме «у голові» моделі, а безпосередньо довести, чи не виходить вона за межі.

Чи відповідає поведінка правилам, чи суворо дотримуються правил, чи можна простежити рішення.
У світі автономних систем це часто важливіше, ніж «пояснити логіку».
Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити