Помните, когда совет ушел в отставку с должности генерального директора Саму? Возможно, они увидели что-то, что мы пропустили.
Похоже, крупная лаборатория ИИ внедряет новые протоколы безопасности для своих моделей. Они особенно сосредоточены на создании ограничителей, чтобы предотвратить вредоносные выводы. Теперь подход к обучению включает обучение моделям тому, как справляться с рискованными запросами без их фактического выполнения.
Интересное время, верно? Эти меры безопасности появились после месяцев внутренних дебатов о скорости развития ИИ и ответственности. Техническая основа включает многоуровневую проверку перед генерацией любого ответа модели.
Что привлекает мое внимание: они больше не просто фильтруют выводы. Сам обучающий материал структурируется заново, чтобы учитывать вопросы безопасности с самого начала. Это другой подход, чем реактивная модерация, которую мы видели ранее.
Тем не менее, остаются вопросы о том, смогут ли эти меры безопасности поспевать за быстрым развитием систем. Расхождение между возможностями и контролем продолжает расширяться.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
7 Лайков
Награда
7
4
Репост
Поделиться
комментарий
0/400
SundayDegen
· 5ч назад
Ха... Случай с Самом действительно оказался довольно интересным, сейчас, когда смотрю на всю эту систему safety, действительно чувствую, что немного запоздал.
Говоря о таких вещах, сколько бы мер ни принимал, всё равно не успеешь за скоростью обновлений, кажется, что всё равно просто заделываешь дыры.
Многоступенчатый отбор кажется хорошей идеей, но что можно изменить в базовых данных... Просто меняешь угол подачи и продаёшь одно и то же.
Посмотреть ОригиналОтветить0
OnChainSleuth
· 12-10 20:23
История с отстранением Сама, похоже, действительно вызывает некоторые сомнения... Эта команда действительно занимается безопасными протоколами или просто делает вид?
Посмотреть ОригиналОтветить0
GasFeeSobber
· 12-10 20:23
Ха, после дела с Самом только начали разработку протокола безопасности? Немного запоздало, не правда ли?
Посмотреть ОригиналОтветить0
YieldFarmRefugee
· 12-10 20:10
Короче говоря, всё равно испугались, быстро подумали и решили исправить ситуацию.
Помните, когда совет ушел в отставку с должности генерального директора Саму? Возможно, они увидели что-то, что мы пропустили.
Похоже, крупная лаборатория ИИ внедряет новые протоколы безопасности для своих моделей. Они особенно сосредоточены на создании ограничителей, чтобы предотвратить вредоносные выводы. Теперь подход к обучению включает обучение моделям тому, как справляться с рискованными запросами без их фактического выполнения.
Интересное время, верно? Эти меры безопасности появились после месяцев внутренних дебатов о скорости развития ИИ и ответственности. Техническая основа включает многоуровневую проверку перед генерацией любого ответа модели.
Что привлекает мое внимание: они больше не просто фильтруют выводы. Сам обучающий материал структурируется заново, чтобы учитывать вопросы безопасности с самого начала. Это другой подход, чем реактивная модерация, которую мы видели ранее.
Тем не менее, остаются вопросы о том, смогут ли эти меры безопасности поспевать за быстрым развитием систем. Расхождение между возможностями и контролем продолжает расширяться.