未来还将陆续开放多模态理解、深入研究、内容

作者:mile官网 日期:2025-12-24 浏览: 来源:mile米乐集团

  

未来还将陆续开放多模态理解、深入研究、内容创作、视频通话等能力

  谭待表示,截至今年12月◇■,豆包大模型日均Tokens使用量已突破50万亿★□■,居中国第一、全球第三▲☆;超过100家企业在火山引擎上累计Tokens使用量超过一万亿。

  大会发布的豆包大模型1.8△○▲、豆包视频生成模型Seedance 1.5 pro等一系列模型,一如既往,不负众多观众的期待。

  作为云计算领域的后来者■◇,火山引擎正乘着大模型,成为行业不可忽视的角色。在这背后▽-,火山引擎都做对了什么?

  大模型浪潮来袭两年,MaaS正成为云厂商争夺的核心市场,是新的基础设施。而Tokens,更是成为衡量大模型产业落地的关键标尺。

  在Force原动力大会上,谭待坦言:“每一次Force大会,我们都会来公布豆包大模型日均tokens的数据。因为模型只有在被调用的时候才能发挥价值◆-,越有价值的模型调用的次数也就越多。”

  Tokens的消耗往往真实反映企业在产品落地过程中实际使用量。换言之,MaaS时代,Tokens的消耗更能反映一家云计算厂商在市场的占有率。

  过去,人们提到云计算无外乎IaaS、PaaS◇、SaaS▼☆,创新几乎停滞,基本没有颠覆性升级△◇•,集中于优化成本,以更高效==▽、更弹性、更经济的方式通过互联网交付。

  2023年,以ChatGPT为代表的大语言模型带来了生成式AI的革命•,为云计算的升级带来全新的驱动力☆…。

  训练和运行大模型需要前所未有的海量算力,直接刺激了云基础设施的升级需求,云的核心价值从▪▽▷“提供计算资源”转变为 •□“提供智能能力” 。

  AI不再只是云上的一种服务,而成为了云平台的“大脑○▷”和“新操作系统”,MaaS(模型即服务)的火热成为AI云时代的标志特征。

  所谓MaaS,是指云计算厂商将自己训练好的、或从合作伙伴获得的大模型,通过API、精调工具、部署平台等形式,提供给企业和开发者直接调用□。

  在MaaS的服务下,用户不再需要从零开始训练模型的天价成本◆◇。换言之★◆▲,用户无需从零开始训练天价成本的模型。

  比如,火山引擎的火山方舟平台、阿里云的灵积平台、百度的文心千帆◇◁,都是MaaS平台的代表。

  作为火山引擎在AI时代的战略布局,早在2023年▷◁▼,火山引擎就推出火山方舟一站式大模型服务平台,服务涵盖汽车

  、智能终端…★★、金融等领域■◁…。尤其是,在汽车▪、智能终端等领域,火山方舟的客户已经涵盖90%以上的企业=。

  一年前的Force大会■◇▷,火山引擎提出「AI 云原生」概念。与此前行业常说的「云原生+AI」不同•…•,「AI 云原生」更加强调模型的主导性▽,将模型作为智能体生产流程的驱动力。

  2025年2月,火山引擎进一步明确,AI云原生的核心是“以模型为中心”。12月18日的Force原动力大会上,谭待表示,我们需要一个全新的面向Agent来设计的新架构。这个技术架构就是火山引擎一直在提倡的AI云原生架构。在这个架构里●▷=,模型是软件的核心,MaaS则是使用模型的最佳方式。通过模型和MaaS,火山引擎将算力以tokens的方式转化为了智能○▼▲。

  大模型的出现△■,将云计算从 “生产力工具”的云,升级为 “创造力引擎”的云。云计算的竞争●▪,从过去 “资源的战争•▷★” ★•=,演变成为AI时代 “智能的战争…★•”。

  对开发者而言•,他们不再直接操作底层设施,而是通过API调用强大的模型能力。也因此☆■,企业与开发者在整个用云过程中消耗的Tokens数量…◆•,成为反映最终的服务交付量。换言之,在AI云原生的新形态时代,云计算最终是算力换智能的Tokens服务交付。

  就像工业时代用“千瓦时”度量电力消耗△,互联网时代用●▲=“GB•■=”度量数据流量一样,AI时代,●□“Token”将成为度量模型工作量关键指标,成为主要的计费和资源度量单位△▪□,精确反映Agent和模型的使用成本,并向用户输送智能。一个行业的Tokens调用量越多☆=-,说明这个行业的AI落地进程越快。

  谭待表示,回顾历史,我们现在正处在从PC、移动到AI这三个时代的变化之中==◇。PC时代,技术主体是Web和网站;移动时代则是APP▪▷,AI的主体就是Agent■。Agent能够自主感知规划和执行◁▷=,完成复杂任务,软件也在历史上第一次从被动的工具变成主动的执行者。

  不同于传统云计算时代的IaaS、PaaS☆◇、SaaS这样的分层规划IT架构△■▼,在AI时代,这样的体系不再完备△,我们需要一个全新的面向Agent来设计的新架构。这就是火山引擎一直在提倡的AI云原生架构,在AI云原生架构中,模型是软件的核心,MaaS则是使用模型的最佳方式▷=。通过模型和MaaS我们将算力以tokens的方式转化为了智能。同时围绕Agent开发和Agent运营●▼-,云平台和中间件进一步把Tokens组装成Agents,并实现Agent和现有工作流、Agent和Agent之间的智能互通△◁。

  为此,火山引擎升级了AI云原生全栈服务:MaaS服务上,推出企业自有模型的推理代工服务、强化学习平台▲◇;面向Agent开发◇,发布企业级AI Agent平台AgentKit;面向Agent运营,发布HiAgent•○“1+N+X-●☆”智能体工作站▷,让Agent实现大规模落地。

  以Tokens调用量来看▽◆,最早押中MaaS的云厂商之一,火山引擎,是当下毫无疑问的Top级。

  IDC《中国大模型公有云服务市场分析,2025H1》调研报告显示,2025年上半年,中国公有云上大模型调用量达 536=▲△.7 万亿 Tokens, 较2024 年全年 114 万亿 Tokens 的总量规模增长近 400%。

  数据显示,2025年上半年-△,火山引擎MaaS调用Token量占整个中国公有云市场49.2%,与2024年的46.4%相比,火山引擎的市场份额还在继续上升。

  并且,以上数据的统计口径不包括自有业务▲,而是以云厂商对外部客户提供的服务的Token 量为准。

  如此大规模的调用量背后◁▲•,是火山引擎依托豆包大模型以及火山方舟,为用户提供越来越便利的模型调用平台。

  Gartner®发布的2025年度全球《AI应用开发平台魔力象限》(下称报告)显示,凭借豆包大模型和火山方舟大模型服务平台 ◁▪,火山引擎领跑全球•◆“挑战者■▼●”象限。

  这是 Gartner 首次评估全球 AI 应用开发平台△◁,标志着MaaS市场逐渐走向成熟。Gartner 指出,AI 应用开发平台提供了必要的工具集,稍有计算机知识的企业开发者即可借助该平台构建 AI 助手△、Agent 和多模态应用。

  作为AI云时代的尖兵○▲,火山引擎早在2024年5月便推出AI应用开发平台——扣子专业版,其低门槛▷☆、个性化★、实时性、多模态等优势■,受到不少传统企业的赞誉。

  彼时,雷峰网(公众号:雷峰网)在《闷声狂奔一年,字节大模型的进阶之路》就曾写道,招商银行搭建“掌上生活▪-”bot-◆○,海底捞搭建顾客评价分析模型等使用火山方舟扣子平台的优秀案例。

  随着助手类应用、多模态应用逐渐迈向 Agentic AI,火山方舟作为 MaaS 平台围绕“有好模型”到“用好模型-=◁”,推出了一系列框架☆、工具、产品▼,支撑AI应用更易落地。

  今年以来=▷,火山引擎多次升级旗下 AI 云原生套件,优化了从训练、推理到 Agent 开发的 AI 云原生基础设施及解决方案全链路,帮助企业高效构建模型应用和 Agent-△-。

  品质生活购物社区平台得物,通过与火山引擎合作,引入火山引擎 Data Agent,优先聚焦“智能看板=”和■▼◇“归因决策=◆”两个场景,逐步实现财务管理场景的 Data Agent(数据智能体)智能升级。

  基于双方合作,得物的财务管理效率得到极大提升=■,特别是在智能看板搭建和归因决策等方面。据得物财务相关负责人介绍,目前财务团队的工作效率得到了大幅提升,财务人员手工处理基础工作的耗时缩短了60%左右。此外,通过流程优化与工具升级△,得物将数据等待与处理所需的时间缩短70%。

  12月18日大会上☆,火山引擎HiAgent发布的下一代企业 AI 员工协同入口——AgentSphere(Preview版)◆,为企业打造统一的AI任务调度入口。AgentSphere还支持纳管各种三方Agent,企业通过Coze★、Dify或者高代码搭建的Agent都可以通过A2A协议接入,方便企业员工按需选用…=、高效办公-●。

  AI科技评论注意到,同济大学通过火山引擎HiAgent平台服务了27000多名在校师生,学生们已经创造了14000多个智能体。随着HiAgent的升级,相信AgentSphere(Preview版)会受到越来越多用户的欢迎。

  在MaaS的产业化落地上,火山引擎的合作客户已经涵盖金融、教育■、手机■○▽、汽车等常见行业。

  金融方面☆▷,火山引擎已经服务中信证券、国泰海通★◁、华泰证券等8成头部券商,招商银行、民生银行等8成系统重要性银行▷,提供营销、投研、信贷等智能体建设方案。通过•“技术支撑+场景共建”的模式,火山引擎为超过200家金融机构提供了技术支持与创新解决方案▪○□。

  教育方面,火山引擎与北京大学、浙江大学、南开大学等超七成985高校达成合作,通过“模型+平台+解决方案□☆•”的模式,为教育科研客户提供全方位的支持。

  手机等智能终端方面,火山引擎已与全球Top 10手机厂商中的9家建立了深度合作△○●,成为OPPO、vivo◆■-、小米等一线手机厂商的首选AI合作伙伴,覆盖超过5亿台终端设备◁。

  在汽车领域,火山引擎的合作客户更是覆盖超九成主流车企◆☆,包括奔驰、宝马、上汽、特斯拉△•、比亚迪等,覆盖汽车云、智能座舱◆=、企业应用、汽车出海☆▪、具身智能等全流程场景。

  三个月前◇,上汽荣威M7 DMH于9月17日正式上市,全球首发搭载了“豆包·深度思考模型”◇▼★,旨在打造一个真正“会深度思考的AI智舱”。

  一位火山引擎人士告诉我们▼▽,上汽与豆包的这一项目,实际交付非常快▽,仅三个多月的时间。据他介绍,一般而言,汽车项目作为To B领域的交付项目◇■,审核比一些C端应用复杂的多,至少需要6个月以上的周期▷。

  上汽与豆包深度思考模型的合作进展之所以能这么快,很大程度上也是基于火山引擎此前的深度积累。

  近期,火山引擎与特斯拉的合作受到不少关注-。在2025 年 8 月发布的全新 Model Y L(六座旗舰 SUV)○◁•,豆包大模型与 DeepSeek 模型同时通过火山引擎 API 实现车机集成。

  一位行业人士分析,作为一家非常技术流的公司▪-,特斯拉的选择或也更为简单▪。无他,良好的体验,极致的响应。

  特斯拉所以选择火山引擎,与火山的积累▼★▪,以及在C端和B端兼具口碑都不无关系,这也体现出特斯拉对火山引擎交互团队专业素质和产品理念的认可。

  彼时,我们在现场就见证了一场小小的「字节式」震撼。尽管此前不少圈内人已经听闻字节的大模型或创新低价格,但当彼时火山引擎正式对外宣布价格时,还是令人大吃一惊。

  就当时而言,豆包大模型使用价格低于同行95%以上,快速将模型Token使用价格带入厘时代○★…。很多人觉得,这是豆包大模型在“以亏损换市场”。

  彼时,在会后的媒体采访中○,火山引擎总裁谭待表示:“用亏损换收入是不可持续的,我们从来不走这条路子。敢于定价这么低,是因为我们对优化推理成本的技术能力很有信心。▽…•”

  在谭待看来,首先是,字节能做到这样的价格成本;其次是,行业需要这么做,应用的普及需要低成本,只有这样◁…◆,更多企业才敢于尝试加入大模型应用。

  以此为始■,各家公有云厂商都开始在比拼服务的同时,提供相对普惠的成本。越来越多的企业开始在生产制造场景中使用AI▪▲,大模型落地不再遥不可及,而火山引擎自然成为其中最大的「供应商」□★▷。截至2025年12月▽●○,豆包大模型日均处理50万亿 Tokens。

  12月18日Force原动力大会上,火山引擎进一步创新模型定价模式,推出“AI节省计划☆◁”◇,这是业内首个大模型节省计划-,覆盖火山引擎上所有的按量后付大模型产品,包括豆包大模型家族△◇◁、各类三方开源模型◁▼□。AI科技评论获悉,该计划还设置了阶梯式折扣,用量越多省得越多,最高可节省 47% 的使用成本。

  2025年,AI Agent大面积爆发,但从Demo走向大规模落地,仍面临成本、技术、落地等挑战,火山引擎为用户打造的一整套AI云原生“新底座▪☆”,打破智能体规模化落地的壁垒★•▼,让Agent真正走入企业日常生产系统•-▷。

  值得一提的是,火山引擎新带来的豆包助手API已经登陆火山方舟,提供豆包App的日常沟通、深度沟通、联网搜索△○■、边想边搜等文本能力,未来还将陆续开放多模态理解、深入研究◇★、内容创作、视频通话等能力•□,通过API让企业开箱即用◆。火山引擎希望通过豆包助手API能够进一步降低AI的创新门槛▽▲▼,能够激发更多企业的创新性•○,为企业打造自己的专属豆包。

  移动互联网时代,字节跳动的C端产品几乎所向披靡。五年前,字节跳动决定自建基础设施,其中最重要的云底层技术。

  当时,与之伴随的是○,OpenAI在2020年前发布了 ChatGPT3 大语言模型,在AI行业内已经受到颇多关注。两年多后,ChatGPT3.5发布,带动了生成式AI的快速发展。

  在公有云领域▪•,MaaS成为未来不可或缺的主流。依托字节积累的技术,火山引擎成为这个时代的新秀○▷=。

  这种能力,首先体现在字节内部产品上。就字节整个集团而言,火山引擎同时也是对内赋能的•-●,包括豆包、抖音的AI功能等一系列产品交互背后,也有火山引擎的支持。从C端角度来看▼★,字节的豆包已经取得不错的口碑和用户量,稳稳占据行业第一的位置。

  QuestMobile数据显示●•,三季度▽,通用AI助手赛道呈现出清晰的★☆□“一超多强”格局,其中豆包月活环比增长22.2%至1.59亿。

  一位火山引擎人士向雷峰网透露,在火山引擎内部,To B和To C底层的基础模型是一套,这在内部被称为基模共建●。也就是说•,在C端体验比较好的产品,B端用户也能够直接使用,这进一步提升了火山引擎B端用户的体验感…■☆。

  同时…☆,火山引擎的MaaS平台火山方舟,充分尊重用户需求,对DeepSeek等大模型产品也非常开放▷。相关的客户也能够通过火山方舟调用其他大模型的API接口。

  当然,这绝非意味着,字节的豆包大模型不如其他竞品。相反,不断增多的日均tokens调用量◆◁,就是最好的例证。纵观近两年◇▪,豆包大模型的迭代升级有目共睹…,C端用户的使用数据则是更直接的反馈。只是,不同企业固然会有其自身的一些考量•▷,火山也充分尊重用户,提供不同的选择●■。

  大模型的迭代仍然处在快速升级中,对坚定MaaS路线,关注tokens指标的火山引擎而言…,最好的增长机遇或许才刚刚开始。