生成式人工智能服务进入规范化阶段,国家层面

作者:mile官网 日期:2025-12-07 浏览: 来源:mile米乐集团

生成式人工智能服务进入规范化阶段,国家层面正式发布了相关的治理办法,这是首次就生成式AI产业出台的制度性规定。新规在放宽监管的同时,新增激励与扶持举措,着力推动技术创新与应用落地。

01 AIGC数据安全风险持续显现mile米乐

在推动生产力升级的同时,生成式人工智能也带来数据安全、隐私保护和算法安全等挑战。全球范围内出现多起因使用生成式AI而引发的数据泄露事件,涉及机密资料、产品数据与个人信息等多类数据风险。与此同时,关于用于训练的数据合规性也引发广泛关注,业内存在大量未经授权的数据被用于训练的担忧,相关诉讼与监管案例不断累积。各国监管部门也在加强数据安全审查与问责机制,关注点包括新型AI模型在发布前的认证、数据来源合规性以及对个人信息保护的要求。

针对国内市场,相关治理办法对个人信息保护提出明确要求。提供文本、图像、语音等生成服务的机构和个人,需承担相应的内容生成者责任;涉及个人信息的处理,应履行法定信息保护义务,不得非法留存可识别用户身份的输入信息,也不得以输入数据进行画像或向第三方转移。用于模型训练的预训练和优化数据,应排除侵犯知识产权的内容,涉及个人信息的需取得主体同意或符合法律规定。

随着监管与伦理框架不断完善,数据安全、隐私保护以及模型安全等环节的治理将进一步落地。隐私计算等关键技术被视为实现可信AI的核心支撑,将在数据全链路的保护中发挥越来越重要的作用。

02 技术要素推动数据安全落地

AIGC以数据、算力、算法为核心要素,其中数据是关键生产要素。当前面临的主要挑战包括输入输出阶段的隐私泄露、生成结果的可能误导与版权风险,以及训练数据的获取与共享难题。为实现数据高效合规利用,必须通过技术手段实现数据在不暴露隐私的前提下的共享与使用。

隐私计算被视为破解数据流通瓶颈的关键路径,能够在保障隐私的前提下实现数据的可用与可控。具体而言,隐私计算将数据以“可用但不可见、可控且可计量”的方式进行跨方协作与共享,从而扩大高质量数据集的获取途径,支撑更丰富的训练与评估场景。

在应用层面,隐私计算可覆盖整个模型生命周期:训练阶段通过跨方数据聚合提升数据规模与多样性;推理阶段通过多方安全计算提升输入输出的隐私保护水平;部署阶段借助可信执行环境,将模型放在安全执行环境中运行,防止模型与数据泄露。通过这些技术路径,可以在保密性与实用性之间实现平衡,降低信息泄露风险。

当前市场已有多家企业结合生成式AI推出集成隐私计算能力的产品,隐私计算的三大主线技术包括可信执行环境、跨方安全计算以及联邦学习。不同技术路径在性能与安全性方面各有侧重,可在不同场景下与大模型应用进行对接,形成完整的安全性保障体系。

03 “隐私计算+”范式为数字经济筑基

隐私计算与生成式AI的结合,带来机遇与挑战并存。海量级、参数化的大模型对隐私计算提出新的技术要求,传统方法需要迭代升级以适应AIGC的应用场景。同时,隐私计算的引入可能对计算效率产生一定影响,如何实现高效协同仍需持续探索。

从长远看,这一范式将推动数据在各行业内安全高效流动,促进数据价值释放与数字经济发展。随着算力资源的持续增加、数据质量提升与合规体系完善,隐私计算在AIGC的训练、推理与部署全链路中的应用前景广阔,预计将成为支撑大规模智能应用与行业治理的重要基础设施。