OpenAI выпустила резкое предупреждение о своих последних моделях ИИ, обозначая их как представляющие собой угрозу кибербезопасности уровня «высокий». Внутренняя оценка рисков компании показывает, что эти продвинутые системы потенциально могут быть использованы для злонамеренных целей, включая сложные кибератаки и нарушения безопасности. Это раскрытие происходит в критический момент, когда индустрия криптовалют и блокчейн все больше полагается на инструменты на базе ИИ для автоматизации торговли, анализа безопасности и аудита смарт-контрактов. Повышенный уровень риска указывает на необходимость для организаций — особенно тех, кто работает с цифровыми активами — пересмотреть свои стратегии интеграции ИИ. Хотя ИИ продолжает революционизировать взаимодействие с децентрализованными технологиями, это предупреждение подчеркивает важность поддержания надежных протоколов безопасности. Пересечение продвинутых возможностей ИИ и инфраструктуры блокчейн создает как возможности, так и уязвимости, требующие осторожного подхода.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
DaoTherapyvip
· 12-14 06:02
AI-риски высоки и неясно, как именно их предотвращать... Это уже за гранью --- OpenAI просто выдает предупреждения, а настоящие безопасные решения где? --- Подождите, они сами говорят, что риск высокий, разве проекты, использующие AI для аудита умных контрактов, сейчас не должны проводить самопроверки... --- Значит, AI ненадежен, я все равно верю своим глазам --- Опять пришли с этой же парой "важности" аргументов, проснитесь, господа --- Ну... теперь даже AI стал потенциальной угрозой безопасности, как тогда проверять контракты? --- Честно говоря, когда эта новость распространилась, крипто-сообщество было в панике --- Я уже говорил, что нельзя чрезмерно полагаться на AI-инструменты, теперь понятно, да? --- Будем ждать, сколько проектов пересмотрят свои AI-стратегии --- Предупреждение есть предупреждение, но кто действительно изменит свои подходы...
Посмотреть ОригиналОтветить0
ChainSherlockGirlvip
· 12-13 09:43
По моему анализу, эта волна самораскрытия OpenAI очень опасна, уровень высокого риска прямо ударил по самому уязвимому месту крипто-сообщества. Автоматизированные торговые боты крупных на链овых игроков стали теперь "безопасными инструментами" Шредингера, кто знает, когда их могут взломать хакеры и использовать в обратном управлении? Продолжение следует...
Посмотреть ОригиналОтветить0
BetterLuckyThanSmartvip
· 12-11 08:25
Риск, связанный с AI-моделями, давно уже должен был быть озвучен, нельзя сосредотачиваться только на доходах и игнорировать безопасность
Посмотреть ОригиналОтветить0
ForeverBuyingDipsvip
· 12-11 08:18
ngl openai эта волна действий немного забавна, сейчас только говорят о высоких рисках? Мы же уже давно используем их ai как только связывается с криптовалютным рынком, нужно быть осторожным, но кто вообще действительно заботится? Это действительно острый клинок, прибыль и риск всегда идут рука об руку openai любит сначала раздувать риски перед большим ходом, всего лишь маркетинговый ход Подождите, а это снова время для покупки по низкой цене...
Посмотреть ОригиналОтветить0
OffchainOraclevip
· 12-11 08:09
Проблемы безопасности ИИ уже давно существуют, просто на этот раз их раскрыли. Команда Web3 не спешит провести самопроверку.
Посмотреть ОригиналОтветить0
  • Закрепить