
近日,由中国电信牵头,联合多家权威机构共同编写的《AI智能体安全治理白皮书(2025)》正式发布▲◁。白皮书系统梳理了当前人工智能从“对话智能”向“决策智能”演进过程中○▽,AI智能体面临的全新安全风险,并提出了覆盖▷“感知-决策-记忆-执行△▼•”全链路的治理框架与实践路径◁●,为行业健康发展提供了重要参考。
随着大语言模型技术的突破,AI智能体已不再是简单的指令执行工具,而是逐步成长为具备环境感知▷◆、自主规划与任务执行能力的▲“数字协作伙伴▪…△”。其在金融▽■=、医疗、制造及公共服务等领域的深度融合,正推动生产与服务模式的深刻变革。然而,能力的跃升也伴随着风险的同步扩大。白皮书指出,AI智能体不仅继承了大语言模型的数据泄露、算法偏见等传统风险,更因其具备多模态感知◇△、自主决策与执行等特性▲,衍生出一系列独特的系统性安全隐患。
具体而言,安全风险贯穿智能体运行的每一个环节。在感知层,智能体可能遭受指令劫持◇、传感器欺骗等多模态输入污染,导致其•“看见”和•-○“听见”的内容被恶意操控。决策层则因依赖复杂推理链条▽,容易受到模型幻觉与语义歧义攻击,微小的逻辑偏差可能在多步决策中被不断放大▷,引发严重后果。记忆层作为智能体的“外挂大脑-”▪▪◇,存储着大量用户交互数据与个性化状态,极易成为隐私泄露的突破口,也可能被恶意信息持久化污染■-,长期影响智能体行为。在执行层,由于能够调用外部工具并作用于物理世界,智能体面临工具滥用、权限越界和行为失控的风险•◆,可能从数字空间的安全问题演变为物理世界的真实危害。
面对这一系列挑战,白皮书强调△☆■,传统的“边界防御”思维已不再适用▪,必须建立覆盖全生命周期的动态治理体系☆◁◇。在治理路径上••=,需要分层施策:在感知层强化输入过滤与多源验证,决策层引入可解释性与人工监督机制,记忆层实施严格的访问控制与内容审计▪,执行层则需构建行为管控与恶意操作阻断能力☆◆。同时,安全治理需坚持技术防护与制度规范并重,推动标准制定◁-▪、安全测评与合规实践的联动△▪▼。
值得关注的是,白皮书还分享了中国电信、蚂蚁集团等机构的先行实践经验▪▽=。例如,中国电信星辰智能体平台通过内置全流程安全能力,实现对知识库、工作流及运营环节的风险防控;蚂蚁集团则针对智能体间通信协议(MCP)的安全漏洞,研发了能够快速识别风险的扫描工具。此外,业界也在推动端侧智能体的自动化安全评测○▷,通过模拟真实移动环境与多模态分析■,精准定位潜在安全隐患。
展望未来▼,AI智能体的安全治理是一项长期系统性工程。白皮书建议-•,需要政府■△◁、行业与企业协同完善顶层设计,加快相关立法与标准体系建设。同时,应持续夯实各层级安全技术能力◁,并针对不同自治程度与应用场景的智能体,实施分类分级的安全策略△。只有在安全=○=、可控、可信的前提下,AI智能体才能真正释放其价值,推动技术创新与社会进步,成为人类可靠的数字伙伴。
该白皮书的发布,标志着我国在AI智能体安全治理领域进入了系统化、实操化的新阶段,为产业界的探索与实践提供了清晰指引,也为构建健康可持续的智能体生态奠定了重要基础。