6 月 11 日,字节跳动旗下火山引擎举办的 Force 原动力大会成为行业焦点。此次大会上,豆包大模型家族迎来全面升级,一系列新模型的发布以及创新性定价模式的推出,引发了广泛关注与热烈讨论。
豆包大模型 1.6 系列的重磅发布无疑是本次大会的重头戏。其中,豆包 1.6 作为全功能综合模型,支持 256K 长上下文,能够自适应思考,自动判断是否开启深度推理,极大地提升了模型在不同场景下的应用灵活性。豆包 1.6—thinking 强化了深度推理能力,在编码、数学、逻辑等方面表现卓越,为复杂智能体的构建提供了有力支持。而豆包 1.6—flash 则凭借低延迟的特点,成为智能客服、语音助手等实时交互场景的理想选择。多项权威测评成绩显示,在复杂推理、竞赛级数学、多轮对话和指令遵循等测试集中,豆包 1.6—thinking 的表现已跻身全球前列,充分证明了其强大的性能。
在多模态能力方面,豆包 1.6 也取得了新突破,支持实时视频通话分析、商品图片同款识别等功能。这一进展不仅拓展了大模型的应用边界,更为电商、社交等行业带来了全新的发展机遇。此前,豆包 1.5 的多模态能力已在 60 个公开评测基准中取得 38 项最佳成绩,并广泛应用于电商识图、自动驾驶数据标注、门店巡检等场景。如今,豆包 1.6 的图形界面操作能力更是赋予了模型 “行动力”,使其能够更好地理解和处理真实世界的问题。
除了豆包大模型 1.6 系列,视频生成模型 Seedance 1.0 pro 也在本次大会上惊艳亮相。在国际知名评测榜单 Artificial Analysis 上,Seedance 在文生视频、图生视频两项任务中均排名首位,超越了谷歌的 Veo3、快手的可灵 2.0 等优秀模型,展现出了强大的视频生成能力。
一直以来,成本问题都是制约大模型广泛应用的关键因素。此次大会上,豆包大模型 1.6 首创的 “区间定价” 模式成为关注焦点。通过技术和商业的双重创新,豆包 1.6 按 “输入长度” 区间定价,统一了深度思考、多模态能力与基础语言模型的价格。具体而言,其定价策略具有两大核心特点:一是统一价格,消除功能溢价,企业无需为非必要功能支付额外成本;二是分区调度,精准匹配需求。豆包大模型 1.6 将定价区间按照输入长度分为 0—32K 区间、32K—128K 区间和 128K—256K,价格随着输入长度的增加而增加。在企业使用量最大的 0—32K 输入区间,豆包 1.6 的输入价格为 0.8 元 / 百万 tokens、输出 8 元 / 百万 tokens,综合成本只有豆包 1.5 深度思考模型或 DeepSeek R1 的三分之一。此外,Seedance 1.0 pro 模型每千 tokens 仅 0.015 元,每生成一条 5 秒的 1080P 视频只需 3.67 元,堪称行业最低成本。
据火山引擎观察,模型成本存在 “成本递增效应”,即随着上下文长度增加,模型处理每个 token 的计算复杂度呈指数级上升。例如,有些模型在处理超过 128K tokens 时收费翻倍,因其注意力机制需与前文所有 tokens 进行关联计算。而当前超过 80% 的企业调用请求集中在 32K tokens 以内,豆包大模型 1.6 通过区间定价模式,精准匹配企业需求分布,在性能与成本之间找到了最佳平衡点。
业内普遍认为,2025 年是智能体爆发元年,然而企业级 Agent 的实际应用成本压力突出,单个 Agent 每日 token 消耗成本可达 20 美元,这在很大程度上限制了智能体的规模化落地。豆包大模型 1.6 的定价策略直击成本痛点,将企业使用成本降至行业平均的 1/3 左右,有望加速 Agent 的大规模落地应用。事实上,豆包大模型近年来使用量呈现爆发性增长,火山引擎披露的数据显示,豆包大模型日均 tokens 调用量从去年 12 月的 4 万亿飙升至 2025 年 5 月的 16.4 万亿,年增长率超 300%。同时,火山引擎在云市场的份额也不断攀升,IDC 发布的《中国公有云大模型服务市场格局分析,2025 年一季度》报告显示,2024 年中国公有云大模型调用总量达到 114.2 万亿 tokens,其中火山引擎占据 46.4% 的市场份额,位列第一,调用量几乎等于阿里云与百度云之和。豆包 1.6 在性能与成本上的优化,或将加速 Agent 的大规模落地,降低企业 AI 应用门槛,进一步巩固火山引擎在 AI 云原生基础设施领域的领导地位。
|