Виталик Бутерин предупреждает, что инструменты ИИ могут стать серьезным риском приватности для пользователей

ETH-4,17%
  • Виталик Бутерин предупредил, что многие инструменты на базе ИИ могут стать серьезной угрозой приватности, потому что они опираются на удаленную инфраструктуру с доступом к данным пользователей.
  • Он сказал, что риски выходят за пределы самих больших языковых моделей — к сторонним сервисам, утечкам данных и атакам с обходом ограничений (jailbreak), которые могут направить системы против интересов пользователя.

Виталик Бутерин выступил с новым предупреждением об искусственном интеллекте; на этот раз он меньше фокусируется на хайпе и больше — на приватности. В новом блоге соучредитель Ethereum утверждал, что многие инструменты ИИ построены на удаленной инфраструктуре, которая может получать доступ к чувствительным данным пользователей, создавая риски, которые большинство людей не полностью видят, когда они вводят текст в чат-бот, делегируют задачу или подключают внешний сервис. Как он это описывает, проблема не ограничивается одной моделью или одним приложением. Это структурный вопрос. Удаленная ИИ-инфраструктура расширяет поверхность приватности Суть его тезиса довольно прямолинейна. Растущее число продуктов на базе ИИ опирается на инфраструктуру, которая находится за пределами устройства пользователя и за пределами контроля пользователя. Это означает, что запросы, файлы, данные учетных записей и паттерны использования могут проходить через системы, которые могут хранить, обрабатывать или повторно использовать данные способами, на которые пользователь никогда не рассчитывал. Он предупредил, что проблема не заканчивается на больших языковых моделях. Внешние сервисы, связанные с такими системами, могут привнести собственные уязвимости — от простых утечек данных до несанкционированного использования персональной информации. Иными словами, опасность заключается не только в модели. Опасен весь контур вокруг нее. Это важно, потому что ИИ все чаще продают как вспомогательный слой во финансах, ПО, коммуникациях и онлайн-идентичности. Чем полезнее он становится, тем больше приватного контекста он, как правило, поглощает. Джейлбрейки превращают ИИ из помощника в обузу Бутерин также указал на атаки с обходом ограничений (jailbreak) как на конкретную угрозу. Эти атаки используют внешние входные данные, чтобы заставить модель вести себя так, чтобы это шло вразрез с интересами пользователя, по сути превращая ассистента во что-то менее надежное и потенциально вредное. Это предупреждение приходится на время, когда инструменты ИИ все ближе подходят к исполнению, а не только к диалогу. По мере того как такие системы получают доступ к сообщениям, кошелькам, документам и автоматизированным действиям, провалы в приватности могут быстро превратиться и в операционные провалы. То, что Бутерин на самом деле подчеркивает здесь, — это сдвиг в оценке риска. ИИ больше не только вопрос возможностей. Он становится вопросом границ доверия, того, кто контролирует данные, где работает модель, и что происходит, когда эта граница дает сбой.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев