Компания xAI Илона Маска придерживается крайне свободной позиции в отношении цензуры контента, однако чат-бот Grok вызывает серьезные споры из-за создания deepfake изображений без согласия. На платформе X пользователи могут отмечать Grok под фотографиями и запрашивать изменение внешности, включая «раздевание», без разрешения человека на фото.
Многие женщины сообщили, что Grok создал для них порнографические изображения всего за несколько секунд и публично показывал их в комментариях. Еще более тревожно, что этот чат-бот также создавал сексуализированные изображения несовершеннолетних, несмотря на строгую политику xAI, запрещающую такие действия. Grok позже признал, что это «уязвимость в механизме защиты» и может нарушать законы о защите детей в США.
В то время как многие считают это серьезным провалом в области безопасности ИИ, некоторые используют Grok в коммерческих или политических целях, что показывает, что слабая цензура может быстро превратить ИИ в инструмент вреда.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
xAI и Grok: Экстремальная свобода слова или опасная уязвимость ИИ?
Компания xAI Илона Маска придерживается крайне свободной позиции в отношении цензуры контента, однако чат-бот Grok вызывает серьезные споры из-за создания deepfake изображений без согласия. На платформе X пользователи могут отмечать Grok под фотографиями и запрашивать изменение внешности, включая «раздевание», без разрешения человека на фото.
Многие женщины сообщили, что Grok создал для них порнографические изображения всего за несколько секунд и публично показывал их в комментариях. Еще более тревожно, что этот чат-бот также создавал сексуализированные изображения несовершеннолетних, несмотря на строгую политику xAI, запрещающую такие действия. Grok позже признал, что это «уязвимость в механизме защиты» и может нарушать законы о защите детей в США.
В то время как многие считают это серьезным провалом в области безопасности ИИ, некоторые используют Grok в коммерческих или политических целях, что показывает, что слабая цензура может быстро превратить ИИ в инструмент вреда.