Роботы, которых можно принять, должны быть проверены опытом!
Хирургические роботы принимаются не потому, что они выглядят умно, а потому, что точность с самого начала не обсуждается. Каждое действие, каждое решение должно быть контролируемым, воспроизводимым и подотчётным.
По мере роста автономии этот стандарт будет только выше, а не ниже. Надзор, проверка безопасности, клиническая посадка — никогда не принимайте приговор о вере в то, что система была правильна в тот момент. В условиях высокого риска «доверьтесь мне» — это безусловный ответ сам по себе.
Настоящая проблема такова:
Почему система приняла такое решение именно в тот момент? Это декларированная модель? Был ли процесс рассуждения изменён или ухудшён?
Если это нельзя проверить, автономия не может быть масштабирована. Смысл Доказательства Вывода — здесь. Речь не о том, чтобы сделать систему более сложной, а сделать каждое автономное решение проверяемым. Вместо того чтобы объяснять после факта, когда действие происходит, можно доказать, что оно действительно действовало согласно правилам.
Когда автономные системы входят в ключевые сферы, такие как здравоохранение, промышленность и общественная безопасность, проверка перестаёт быть дополнительным вариантом, а является необходимым условием автономии.
#KaitoYap @KaitoAI # Да-@inference_labs
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Роботы, которых можно принять, должны быть проверены опытом!
Хирургические роботы принимаются не потому, что они выглядят умно, а потому, что точность с самого начала не обсуждается. Каждое действие, каждое решение должно быть контролируемым, воспроизводимым и подотчётным.
По мере роста автономии этот стандарт будет только выше, а не ниже. Надзор, проверка безопасности, клиническая посадка — никогда не принимайте приговор о вере в то, что система была правильна в тот момент. В условиях высокого риска «доверьтесь мне» — это безусловный ответ сам по себе.
Настоящая проблема такова:
Почему система приняла такое решение именно в тот момент?
Это декларированная модель?
Был ли процесс рассуждения изменён или ухудшён?
Если это нельзя проверить, автономия не может быть масштабирована. Смысл Доказательства Вывода — здесь. Речь не о том, чтобы сделать систему более сложной, а сделать каждое автономное решение проверяемым. Вместо того чтобы объяснять после факта, когда действие происходит, можно доказать, что оно действительно действовало согласно правилам.
Когда автономные системы входят в ключевые сферы, такие как здравоохранение, промышленность и общественная безопасность, проверка перестаёт быть дополнительным вариантом, а является необходимым условием автономии.
#KaitoYap @KaitoAI # Да-@inference_labs