📣 创作者福利来啦!Gate 广场创作者认证正式上线!
现在在 Gate 申请认证,成功通过即可享受价值 $3,000 的早鸟专属福利!获得专属徽章、现金奖励、限量周边,更有机会登上官方榜单,享受更多曝光与特权!
申请门槛超低,只需 500 粉丝 + 积极发帖互动,你也可以成为社区领袖!
早鸟福利:
🏆 最具影响力创作者 3 名(最多互动):50 USDT + Gate X RedBull 随行杯+ 精选文章 5 篇
🏆 最佳内容奖 5 名(内容最佳):$50 仓位体验券+ Gate 平沿帽 + 精选文章 5 篇
🏆 除此之外前50名成功申请者:$50 仓位体验券
所有成功申请者均可获得认证创作者徽章+官号 “首批认证创作者榜单” 曝光
海外用户:Gate 平沿帽 = $20 仓位体验券,Gate X RedBull 随行杯 = $30 仓位体验券
申请步骤:
1️⃣ App 首页 → 底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】 → 进入认证页面
3️⃣ 审核通过后,头像旁将显示专属认证徽章,彰显你的专业与权威!
🎁 专属福利包含:身份标识、内容推荐、专属曝光 、活动优先权 、热门项目合作等!
立即申请,成为广场社区领袖,享受更多福利和机会!
详情阅读:https://www.gate.com/help/community-ce
人工智能浏览器受到攻击:隐藏的网络提示可以劫持您的代理和连接的账户
安全研究人员警告,人工智能(AI)驱动的浏览器和来自Perplexity、OpenAI和Anthropic的代理面临越来越高的隐秘提示注入攻击和隐私泄露风险,可能通过连接的账号和应用程序接口暴露用户数据。
AI浏览器漏洞引发安全担忧
来自Perplexity、OpenAI和Anthropic的AI浏览器和代理正在重新定义用户与网络的互动方式——但专家表示,这种便利是有代价的。
根据审核的安全审计和研究,这些系统中的漏洞允许恶意行为者在网站中嵌入隐藏指令,而AI工具可能会在不知情的情况下执行这些指令。
这些攻击被称为隐蔽或间接提示注入,可以操纵AI代理执行未经授权的操作,例如泄露敏感信息、执行代码或将用户重定向到网络钓鱼网站,而无需明确的用户同意。
攻击如何利用人工智能代理
在隐蔽的提示注入场景中,攻击者将恶意命令隐藏在网页的文本、元数据或甚至不可见元素中。一旦人工智能接收了这些数据,命令就可以覆盖用户意图,导致代理执行不想要的操作。测试表明,在受控实验中,未受保护的人工智能浏览器几乎有四分之一的概率会受到此类欺骗。
困惑性、OpenAI 和 Anthropic:识别的关键风险
记录的事件和行业警告
研究人员和网络安全公司,包括Brave、Guardio和Malwarebytes,发布的研究结果显示,即使是简单的在线内容也能危及AI代理。在一项测试中,一篇Reddit帖子迫使AI浏览器运行网络钓鱼脚本。来自几家顶尖科技出版物的报告警告称,这些问题可能导致未经授权的数据访问或甚至金融盗窃。
账号整合的危险
安全分析师对与密码或应用程序接口(API)相关的人工智能代理提出了警告。允许此类集成可能会暴露电子邮件账号、云驱动器和支付平台。Techcrunch 和 Cybersecurity Dive 都报道了人工智能代理被诱导泄露或操控敏感信息的实例,这些信息是通过注入命令实现的。
推荐的安全措施和展望
专家们呼吁用户限制权限,避免授予AI代理密码级别的访问权限,并监控AI日志以发现异常。开发人员也被建议实施隔离系统和提示过滤器。一些研究人员甚至建议在AI工具获得更严格的保护措施之前,对敏感操作使用传统浏览器。
尽管OpenAI、Anthropic和Perplexity可能听说过这些挑战,但网络安全专业人士警告称,2025年AI驱动的浏览仍然是一个高风险领域。随着这些公司进一步推动自主网络交互,行业观察人士表示,在这些工具成为主流之前,透明度和更强的安全标准是必不可少的。
常见问题 🧭