刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场
对企业来说,token 消耗量直接等于成本。当模型开启深度思考时,效果确实能提升一大截,可延迟高了,token 烧得更猛了,成本也就跟着水涨船高。
尤其是 AI 应用越来越多,token 消耗也在暴涨。以豆包大模型为例,到 9 月底的日均 token 调用量已经突破 30 万亿+,比 5 月底暴涨超 80%。而这,还只是市场的一部分。
当 AI 需求以这样的速度增长时,要么忍着用效果差的轻量模型省钱,要么咬牙烧钱用顶级模型保效果。问题也就在摆在眼前——要效果,还是要成本?
10 月 16 日,火山引擎在武汉的 FORCE LINK AI 创新巡展上,用四款新品告诉你:小孩子才做选择。
豆包大模型 1.6 原生支持 4 档思考长度调节,豆包 1.6 lite 腰斩成本还能提升效果,还有豆包语音合成模型 2.0 和声音复刻模型 2.0。
根据 IDC 报告,2025 年上半年中国公有云大模型服务市场里,火山引擎拿下 49.2% 的份额,稳坐第一。
今天发布会上提到,深度思考模式虽然能让效果提升 31%,但因为延迟、成本和 token 消耗的暴涨,实际使用占比只有 18%。说白了,企业想用,但真烧不起。
针对这个痛点,今天全新升级的豆包大模型 1.6 提供了 Minimal、Low、Medium、High 四档思考长度。
就是给 AI 装了个「变速器」:简单查询用 Minimal 档省 token,复杂推理切 High 档保效果。
相比升级前的单一思考模式,总输出 tokens 直接砍掉 77.5%、思考时间暴降 84.6%。
成本层面,在 0-32k 输入区间里,综合使用成本较豆包 1.5 pro 狂降 53.3%。
新发布的两大语音模型针对性优化后,在小学到高中全学科的复杂公式朗读中,准确率直接飙到 90%。
这背后是基于豆包大语言模型研发的全新语音合成架构,让合成和复刻的声音都具备深度语义理解能力,还拓展出上下文推理功能。
以武汉保护青头潜鸭为主题创作儿童绘本,豆包图像创作模型 Seedream4.0 生成插图,豆包语音合成模型 2.0 进行情感演绎。
自去年 5 月首发以来,豆包语音模型家族已覆盖语音合成、语音识别、声音复刻、实时语音、同声传译、音乐创作、播客创作等 7 大领域,接入超过 4.6 亿台智能终端。
深度思考模型正与多模态理解能力深度融合,视频、图像、语音模型逐步达到生产级应用水平,企业级复杂 Agent 正在走向成熟。
火山引擎发布了智能模型路由(Smart Model Router),这是国内首个针对模型智能选择的解决方案。
该功能支持「平衡模式」、「效果优先模式」和「成本优先模式」三种方案,能针对任务请求自动选择最合适的模型。
目前,火山引擎智能模型路由已支持豆包大模型、DeepSeek、Qwendeepseek、Kimi 等多种主流模型。
在成本优先模式下,在实现 DeepSeek-V3.1 相似效果的条件下,模型综合成本最高下降超 70%。
更强的模型能力解锁新的应用场景 → 新应用的爆发推高 token 消耗量 → 消耗量的增长倒逼智能路由不断优化 → 路由优化进一步降低单位成本 → 成本下降释放更多需求弹性 → 需求的释放又推高整体消耗。
这让人想起 1882 年,当爱迪生建成世界第一座商用发电厂时,没人能预见「千瓦时」这个单位会催生整个现代工业体系。
前不久 OpenAI 公布的「万亿 token 俱乐部」名单、Google 每月燃烧的 130 万亿 token,都印证着这股生产力的蓬勃涌动。
当你问 AI 一个问题时,不应该再纠结是要快还是要好。分档思考让简单问题秒回且准确,复杂问题深度推理且高效。
用自然语言就能精准控制语音模型,而不是被一堆参数搞晕。这些技术的每一次迭代,最终目的只有一个:让用户用得起、更要用得好。原文出处:刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场,感谢原作者,侵权必删!