随着全球人工智能引擎持续加速运转,人们对其底层基础设施所面临威胁的担忧也与日俱增。AI Agent的兴起引发了一系列新问题:需要何种级别的安全控制来管理其访问权限与行为?如何确保Agent间通信协议的安全性?如何构建支持中国等国家加速AI发展的技术保障体系?
早在2022年底OpenAI的ChatGPT横空出世后不久,网络安全界就表达了对AI风险加剧的忧虑。三年多后的今天,随着AI技术广泛应用,AI Agent的普及正促使安全研究人员思考:威胁范围是否已进一步扩大?
"我们开始观察到的AI Agent自主行为模式正在重塑安全格局,"Darktrace公司安全与AI战略副总裁Margaret Cunningham博士在非营利组织云安全联盟(CSA)举办的为期两天的虚拟简报会上表示,"随着AI技术普及,攻击面正在急剧扩张。"


MCP服务器成为攻击目标
当前攻击面涵盖网络中最广泛使用的模型上下文协议(MCP)服务器。这些服务器使大语言模型(LLM)能够连接外部数据源、其他模型及软件应用。
安全研究人员指出,当Anthropic公司在2024年11月推出MCP开放标准时,将安全配置责任完全推给了用户。此后数月间,红帽公司与IANS研究机构的安全专家陆续记录了MCP存在的安全隐患。Anthropic虽在去年11月发布了补充指南,提及AI Agent使用MCP时的代码执行安全技术,但收效有限。
"MCP协议中尚未实现真正原生的全栈安全机制,"IANS研究院教员Aaron Turner在CSA活动演讲中直言,"我们必须为可能发生的严重安全事件做好准备。"
MCP安全问题已蔓延至CI/CD流水线、云工作负载及员工终端。Clutch安全公司近期对企业环境MCP部署的分析显示,95%的MCP实例运行在安全工具无法监控的员工终端上。Turner警告:"若发现MCP试图在终端运行,应将其视为恶意软件处理。"
跌破安全基线
AI部署挑战使得中小企业保护关键资产的能力再度成为焦点。埃森哲报告显示,虽然43%的网络攻击针对小企业,但仅14%具备有效防护能力。


1Password公司研究计划总监Wendy Nather提出的"安全贫困线"概念正在获得共识——网络安全界日益担忧AI将加剧资源充足企业与无力配置安全团队/工具企业间的鸿沟。
"利润率仅1%的零售店根本无力承担必要安全投入,"Nather在CSA活动上表示,"单纯培训根本无济于事。"更严峻的是,资源有限的恶意行为体反而更善于利用AI技术。GreyNoise情报公司的蜜罐数据显示,去年10月起的三个月内,LLM基础设施遭受超过9.1万次攻击,其中8.1万次集中发生在11天内,主要针对OpenAI兼容API和Google Gemini等模型终端。
"低资源攻击者正在实现规模化,"CSA首席分析师Rich Mogull指出,"从脚本小子到国家行为体,都在利用AI开发漏洞利用程序——这确实令人担忧。"
中伊两国AI能力进展
国家行为体参与漏洞开发及AI基础设施攻击,为网络安全防御增添了新变数。特拉维夫大学高级研究员Avi Davidi博士近期分析了伊朗构建网络战主权AI能力的企图。其研究显示,伊朗组织正使用商业AI工具扫描工业控制系统,探测他国防务体系。黑客组织APT-42甚至试图诱骗AI系统提供"红队"式攻击指导。
更令安全专家忧虑的是中国AI能力的预期增长。Anthropic CEO Dario Amodei近期撰文指出,中国最有可能在AI能力上超越美国。这种观点也得到美国防务界呼应。在旧金山TED AI论坛上,前国防部副部长Colin Kahl表示:"虽然美国仍拥有顶尖AI实验室,但中国已具备快速跟进的几乎所有要素。"


尽管美国实施两年半导体出口管制,但现行政策仍允许英伟达H200 AI处理器对华出口。Kahl透露,中国科技企业的H200订单已超200万片。"从国家安全角度看,放任中国缩小技术差距绝非明智之举。"


