在追求AI代理(Agent)强大功能的同时,安全隐患如影随形。OpenAI近日罕见地公开承认了其产品架构中存在的天然漏洞,并提出了新的防御思路:
坦承缺陷 难以根除的顽疾
OpenAI公开承认,具备代理能力的AI浏览器在架构上存在天然的安全短板,目前很难彻底消除“提示注入”(Prompt Injection)攻击的风险。这意味着,即便安全防护技术不断升级,这种攻击方式仍将是AI领域面临的一项长期技术挑战,而非一个可以被短期修复的简单Bug。
自OpenAI于今年10月推出内置在ChatGPT中的 Atlas AI浏览器 以来,其安全问题一直备受关注。研究发现,攻击者只需在网页或文档中隐藏特定指令,就能在用户毫无察觉的情况下操控浏览器的底层行为。由于AI代理通常拥有访问邮箱、执行支付等高权限,一旦失守,后果不堪设想。

以攻代守 引入“机器人黑客”
为了应对这一顽疾,OpenAI正在尝试一种差异化的防御路径——开发基于大模型的“自动化攻击者”系统。
该系统利用强化学习技术,模拟黑客行为对AI代理进行高频攻防演练。通过深入洞察模型内部的推理过程,这个“机器人黑客”能发掘出人类测试者难以察觉的新型攻击路径,从而帮助开发团队在真实威胁发生前完成补丁修复。
专家示警 权限需设防
行业专家指出,AI浏览器的风险本质在于其“自主权”与“访问权限”的乘积效应。目前,包括Google和Brave在内的厂商也在寻求多层防御策略。OpenAI建议用户,在现阶段应避免赋予AI代理过于宽泛的权限,特别是在涉及发送邮件或发起支付等关键动作时,必须保留人工确认环节,以确保安全。
相关推荐

2025 AI 技术峰会

AI 实战课程
热门工具
AI 助手
智能对话,提升效率
智能图像处理
一键美化,智能修图
AI 翻译
多语言实时翻译






评论 (0)
暂无评论,快来发表第一条评论吧!