
现场发布的最新成绩单显示,自文心大模型向社会开放以来,千帆大模型平台的API日调用量实现十倍增长,平台已服务逾四万家企业,并帮助企业对近一万个大模型进行精调。相较于自建系统训练大模型,借助千帆平台训练的成本可下降高达90%。
百度集团高层强调,AI原生时代正在推动云计算产业进入新一轮创新周期。大模型对云计算的重构主要体现在三个层面:AI原生云将改变云计算格局,模型即服务(MaaS)将成为新的基础服务,AI原生应用将催生全新的研发范式。
在云基础设施层面,应用场景从以CPU为主的移动互联网时代转向对GPU及异构计算的强烈需求,底层算力将更偏向GPU集群。在模型层,大模型正逐步成为通用服务能力,即 MaaS,显著降低AI落地门槛,推动普惠式智能化应用普及。至于应用层,大模型在理解、生成、推理、记忆等方面的能力将彻底改变应用开发范式,推动整个技术栈、数据流和业务流程的再造。
侯震宇指出,构建繁荣的AI原生应用生态,需要大模型、智能算力和AI原生研发新范式三要素协同作用。大模型是AI原生应用的“大脑”,智能算力提供运行支撑,新的研发范式帮助开发者高效基于大模型能力开发应用;数据飞轮是AI原生应用成功的关键驱动,促使大模型能力快速迭代、产品体验持续提升。
在AI原生时代,面向大模型的云计算基础设施将被全面重构,百度智能云将从三大方面重塑服务能力:面向模型的智算基础设施、面向数据的数据基础设施,以及面向应用的云基础设施,以支撑AI原生应用的落地。
大会现场,百度智能云还密集发布并升级了二十余款云计算产品,覆盖智能计算、通用计算、数据库与大数据、分布式云、应用开发平台五大领域。
智能计算领域强调算力是大模型落地的基础。目前,大模型的训练、推理与部署对高速互联、计算效率与成本均提出高要求,需要新型智算基础设施。为解决现有计算集群的挑战,百度发布百舸AI异构计算平台3.0,对AI原生应用以及大模型的训练、推理等环节进行专项优化。在稳定性、效率和运维便捷性方面实现显著提升,万卡级任务的训练时长可提升至98%以上的有效完成率,带宽有效性达到95%。相较自建智算基础设施,模型训练吞吐和推理吞吐分别提升至最高30%和60%。
为应对AI原生时代对算力供给的平衡,百度智能云推出智算网络平台。该平台将百度及第三方建设的智算中心、超算中心、边缘节点等算力节点全域接入,形成统一的算力资源池,通过自主研发的算力调度算法对资源状态、性能与利用率进行智能分析与调度,从而让算力更加灵活、稳定、高效地服务于有需求的用户,形成“南水北调”式的算力调度与供给。
在通用计算领域,云原生基础设施也需要升级以更好支撑AI原生时代的弹性、高性能与智能运维。大会推出三款新实例:通用计算型云服务器G7,综合性能相较上一代提升约10%;昆仑芯弹性裸金属实例NKL5,搭载自研昆仑芯R300处理器,在大模型推理场景下相较主流加速卡性能提升约50%;基于昇腾910B加速处理器的弹性高性能计算实例NH6T,在大模型训练场景中的综合性能提高约40%。此外,CHPC(Cloud HPC)正式对外发布,提供一站式公共云高性能计算服务,支持一键创建高性能计算环境,并可灵活扩展云上资源;在应用层,结合在VPC内的百度网盘等服务,实现从源文件提交、上传、处理、回传到分发的全链路打通,提升研发效率。mile米乐
在分布式云领域,百度智能云带来三项升级:边缘计算节点BEC能力升级,构建全球统一的边缘计算网络与“云边一体”的完整体验;专有云ABC Stack新能力发布,支持本地部署千帆大模型平台;本地计算集群LCC新能力发布,支持全新一代CPU/GPU实例以及AI与HPC集群的统一管理,进一步丰富基础设施与云产品的支持矩阵。
数据与存储基础设施方面,数据量的存储、管理与分析成为大模型落地的关键支撑。百度发布沧海·存储,构建统一技术底座,支持多类存储产品,提升大规模、低成本存储能力以适应AI时代的数据湖与AI存储需求。对象存储 BOS、云磁盘 CDS、并行文件存储 PFS 等产品也实现全面升级,强化数据处理与价值释放。云原生数据库 GaiaDB 4.0 正式发布,增强并行查询能力,突破单机计算瓶颈,支持跨机多核并行查询,在混合负载与实时分析场景中性能提升超10倍;推出列存索引与列存引擎,针对不同工作负载提升查询速度,其中列存引擎对PB级数据的复杂分析能力尤为突出,并实现与事务处理的严格隔离;通过共识协议优化、链路优化与自适应多版本存储等多项数据流优化,GaiaDB 的整体性能提升超过60%。
在本届智算大会上,针对应用大模型最关注的“提效”和“降本”两大诉求,千帆大模型平台推出了一系列新功能,包括数据统计分析、数据质量检查等。此外,为满足企业高效开展AI原生应用开发的需求、降低开发门槛,千帆AppBuilder正式开放服务。