最新豆包大模型发布火山引擎推出Agent开发新范式

6月11日-12日, 北京国家会议中心人山人海,2025 火山引擎 Force 原动力大会如约而至。

最新豆包大模型发布火山引擎推出Agent开发新范式-2

作为开发者社区的一员,这场 大会上 的 一系列新发布 让我们感受到了: 这个 Agent 技术落地 元年的关键节点, 火山引擎有属于自己的独特理解。

大会发布了豆包大模型 1.6、PromptPilot 提示词优化平台和 MCP 服务 等一系列成果,集中展示了火山引擎AI云原生的全新范式。这背后需要具备强推理、多模态、低成本的强大模型,从而支撑起更复杂的 Agent,而 Agent 开发新范式也构建起了覆盖大模型开发全链路的工具矩阵,为开发者和企业提供从 Prompt 优化到 Agent 落地的一站式方案。

随着 Agentic AI 应用探索进入实质阶段 ,一起来看看火山引擎如何凭借 Agent 开发新范式来释放智能生产力的新原动力。

AI 云原生:从模型到智能体的范式演进

大会上,火山引擎提出了面向 Agent 时代的 “AI云原生” 理念。

AI 发展经历三次范式跃迁,从感知 AI,到生成式 AI,再到如今的智能体(Agentic AI),每一次都重塑了人机协作的边界。且每一代技术的核心载体也不断演进,从 Web 页面到移动 App,再到如今的智能体(Agent)。在这个转折点上,传统技术栈已难以支撑 AI 时代的需求,必须围绕 AI 云原生重构未来的技术架构。

所谓 AI 云原生,就是让应用以 AI 智能体为中心构建和生长的新模式。这意味着 AI 不再是附属的插件,而是应用的内核,从开发之初就与数据、工具和环境深度融合。

可以看到, 以 Agent 为核心构建应用正在成为新潮流。然而,构建一个成熟的 Agent 系统并非易事:从创意构思到应用开发再到部署运营,链路漫长且涉及繁杂的工具生态。为此,火山引擎打造了 AI 云原生技术栈 , 旨在大幅降低开发门槛,加速 Agent 从概念走向应用。

火山引擎提出了一套 AI 云原生 理念 希望帮助企业打造 Agentic AI,成为企业智能体转型的“使能者”,而非单纯的资源提供者,在降低技术风险的同时,最大化释放 Agent 的智能价值。换言之,AI 云原生范式不仅提供技术工具,更扮演企业智能升级的催化剂,加速 AI 从技术走向生产力,让 AI 真正成为像电一样的基础设施。

豆包大模型 1.6:更强大、更全面、更便宜

本次大会,火山引擎正式发布 豆包大模型 1.6 。

作为火山引擎 AI 云原生架构的“模型基座”,豆包大模型 1.6 系列一举迈入全球大模型第一梯队,在复杂推理、数学竞赛问题、多轮对话、指令遵循等多项权威评测中表现优异。

本次升级推出了三款型号:

主力版:灵活支持 thinking/non-thinking/自适应思考三种模式的 Doubao-Seed-1.6 模型;

思考版:豆包目前最强的思考模型 Doubao-Seed-1.6-thinking;

极速版:以及具备超低延迟和出色的视觉理解能力的 Doubao-Seed-1.6-flash 模型;

在众多权威测评集上,豆包大模型 1.6 得分均位居 国际第一梯队 。在推理能力、多模态理解能力、GUI 操作能力上具备领先优势。

最新豆包大模型发布火山引擎推出Agent开发新范式-3

更令人称道的是豆包 1.6 的 原生 多模态理解和图形界面操作能力 。简单来说,豆包1.6不仅“看图说话”,还能 看图行动 ——驱动智能体在浏览器、Excel 等软件中进行交互操作。这样的能力让智能体可以像人类一样读取网页、点击按钮、填写表单,完成一系列跨软件的任务执行。

这意味着我们可以利用豆包 1.6 完成复杂业务流程的案例:例如自动打开电影网站、筛选当日北京上映电影并按评分排序,最后选定高分影片下单购票,全程由 AI 自主完成。这种多模态理解与图形界面操作能力,标志着豆包 1.6 已为智能体赋予了感知环境并采取行动的“大脑”,突破了传统纯文本模型的桎梏。

除了更“强”,豆包 1.6 也变得更“便宜”。

在 Agent 大量消耗 Tokens 的场景下,成本是规模化应用的阿喀琉斯之踵。为此,豆包大模型 1.6 采用了 统一定价模式 ,无论是否开启深度思考模式,无论是文本还是视觉,tokens 价格均一致,按照输入上下文长度区间定价。

最新豆包大模型发布火山引擎推出Agent开发新范式-4

随着模型能力的进步,AI 有望成为开发过程的“调度者”,通过调用不同的 Agent 和工具,让软件开发实现真正的 All-in-One ,显著降低开发门槛并提升效率。

豆包 1.6 正是这一理念的最佳注脚:多模态深度思考的强大模型、大幅降低的使用成本,以及与工程实践的紧密结合,使得规模化的 Agent 应用成为可能。

PromptPilot:人与大模型沟通的「嘴替」

如果说豆包1.6是 Agent 的大脑,PromptPilot 则可以看作人与大模型沟通的嘴替。

在大模型应用落地过程中,开发者经常面临需求表达模糊、Prompt 调试低效的痛点。调教一条精妙的 Prompt 往往需要反复试错,这对初学者和领域专家都构成了门槛。

火山引擎推出的 PromptPilot 平台,正是为了解决这一难题。

最新豆包大模型发布火山引擎推出Agent开发新范式-5

有了它,用户不需要精通大模型原理,只需用行业术语或大白话描述需求场景,PromptPilot 就能自动理解需求、生成高质量的 Prompt,并优化模型输出。

PromptPilot 通过“需求理解 -> 问题生成 -> 输出优化”三个环节,将 Prompt 调试效率 提升了 300% 。 这意味着过去可能要花费数小时甚至数天手工调整的提示词,现在借助智能工具几分钟就能完成迭代。

对于行业应用而言,这无疑建立了一个 闭环的 Prompt 优化流程 —— 需求->Prompt->反馈优化->再应用 ,不断提高智能体对业务语境的理解力。可以说,PromptPilot 让“大模型调教”不再像炼金术般晦涩难懂,而变成了一键即可执行的工程流程,极大降低了企业定制 AI 应用的门槛。

MCP 服务:构建一站式 Agent 开发与部署环境

在大会上,另一个吸引人的发布是火山引擎的 MCP Servers 服务 。

还是把大模型比作 Agent 的大脑,MCP 则扮演着 Agent 的 躯体和四肢 :它连接大脑与外部世界的一切所需。从概念验证到真正落地,Agent 开发往往面临“最后一公里”的挑战——如何将模型、工具、环境有机结合起来,打通从开发到部署的全流程?MCP 服务的诞生正是为了解决 Agent 从理念到产品的链路断层问题。

MCP Servers 的本质是一个 超级连接器 :一方面,它将火山引擎的各类云服务能力进行封装,供 Agent 以类似调用函数的方式使用;另一方面,它通过标准化协议把不同的 Agent 开发工具和平台贯通起来,形成一个统一的生态。

在 MCP 出现之前,开发者构建一个复杂 Agent,往往需要东拼西凑多个组件:调用模型API、对接数据库/云存储、引入外部工具接口,再将这些杂糅在一起部署运行。任何一个环节的阻滞,都会造成“最后一公里”的中断。而 MCP 提供了一个模块化、一致化的解决方案:开发者只需按照规范注册配置,即可让 Agent 具备调用云端各种资源和工具的能力,大幅简化了系统集成的难度。

具体来说,火山引擎已在 MCP 生态广场中内置了 200+ 种基础 MCP 服务,覆盖从搜索、地图、企业办公,到内容生成、数据库、函数计算等各类常用功能。

最新豆包大模型发布火山引擎推出Agent开发新范式-6

这些服务由火山官方和第三方提供,经 MCP 协议标准化后,Agent 调用它们就像调用模型一样简单。更方便的是,MCP 已经 和多款开发工具 深度集成,包括AI原生 IDE TRAE、方舟开发者体验中心以及扣子开发平台等。在 TRAE 或扣子中,开发者只需选择需要的 MCP 服务并生成一段JSON 配置,即可一键接入相应功能。

MCP 的出现意味着,过去需要多名工程师耗时数周搭建的运行环境,现在几乎零门槛、一键即可打通。

从此开发者可以一站式完成 Agent 应用开发的端到端流程!

对于开发者来说,MCP 提供了如同“乐高积木”般的即插即用能力:想让 Agent 获取实时资讯?调用搜索服务即可;需要 Agent 存储记忆?接入云数据库服务;完成开发后还愁部署上线?MCP 直接帮你在火山引擎云上托管,一键生成应用访问链接。

所有这些繁琐环节都被打包进 MCP 的底层支撑里,开发者能够更专注于 Agent 的逻辑和策略本身,而不必为环境搭建和维护分心。这种 AI 云原生的 Agent 开发环境极大提高了智能应用从开发到上线的效率,让“小团队也能造出大智能”。

TRAE 和扣子升级: 助力企业高效构建 AI 开发范式

火山引擎为帮助企业 高效开发 Agent ,在 TRAE 和扣子上面也有直接的体现。

首先来看 国内首个 AI 原生 IDE 产品 TRAE ,TRAE 不止于 AI 代码生成,而是要做 AI 开发。

它为开发者提供了代码补全、局部代码生成功能,支持代码重构、批量修改、知识问答等复杂任务,有效解决了开发各环节跳端效率低、AI 能力只覆盖编码场景而非全流程得痛点。

TRAE 之所以要深耕 AI 软件开发,是因为 AI 时代对话将成为新的终端,用户输入的不再是代码,而是任务目标和标准;AI 在统一的工作空间中理解、组织并交付结果。从 AI 写代码 到 AI 做开发,从工具增强到流程重构,从 TRAE 看到了火山引擎对未来开发形态的思考。

据说 TRAE 的下一个版本还将整合不同 Agent 和工具,协调任务流程,实现自动串联操作,逐步从 AI 辅助编程向支持 AI 开发全流程进阶。

再来看一下为了适配 Agent 的发展而全面升级的扣子平台。

扣子用 Agent 重塑生产力,它由原先的 Agent 低代码开发平台,升级成为覆盖 Agent 低代码开发、全代码开发,Agent 调优和 Agent 协作的全生命周期平台。

最新豆包大模型发布火山引擎推出Agent开发新范式-7

这里重点提一下扣子罗盘和扣子空间。

扣子罗盘服务于任何搭建形式的 Agent 调优,能够在 Agent 评测、观测、效果调优、数据飞轮等能力建设上,高效地帮助低代码开发者和全代码开发者持续迭代运行 Agent。前面提到的 Trae 和下面提到扣子空间也都是基于扣子罗盘构建和调优,正是因为有了罗盘的助力,才能让两个产品快速迭代、快速优化。

扣子空间则是用户和 Al Agent 协同办公的最佳场所。在扣子空间里有精通各项技能的「通用实习生」以及各行各业的「领域专家」,开发者可以利用扣子空间完成很多智能体操作:撰写调研报告、制作PPT、制作互动式教学网站、网页小游戏、制订旅游攻略等等。

此外,本次大会上亮相的 veRL、DeerFlow、UI-TARS 等开源项目也为 AI 云原生和AI 开发范式做了强有力支撑。

比如 veRL 强化学习框架,它可轻松扩展多种强化学习算法,无缝集成现有 LLM 基础设施与模块化 API,助力开发者快速搭建 RL 模型开发管线,提升对话规划、智能编程、复杂策略优化等场景的开发效率与资源利用率。

目前该项目已经取得了9.6k star。

开源地址 : https://github.com/volcengine/verl

尾声:原动力启航,智未来可期

火山引擎此次带来的 Agent 开发新范式,融合了模型、工具和平台的创新,为智能体技术的落地带来了全新的解题思路。从产业观察者的角度来看,这套范式之所以令人激动,正是因为它有望破解过去阻碍 Agent 规模化应用的四大难题: 模型能力瓶颈、成本与算力掣肘、开发链路冗长、生态闭环迭代。

整个 Force 大 会展示的这套 AI 云原生全栈服务 (豆包1.6、 PromptPilot、火山引擎 MCP 服务等 ) ,清 晰地传递出一个信号:火山引擎正通过系统性解决上述关键挑战(模型、成本、链路、生态), 推动 Agentic AI 技术从概念探索迈向大规模应用实践。

可以预见,一个转折点正静静来临:软件应用开发范式正从过去“调用外部 AI”渐渐转向“由 AI 孕育生成”。面对这一变化,我们需要做的,正是理解并拥抱这种新范式,让自己的想象力在 AI 原生的沃土中开花结果。

在这个 Agentic AI 元年,AI 云原生的新风已起,我们不妨大胆畅想:当 AI 不再是冰冷的指令执行,而成为有自主智能的数字劳动力,我们的软件世界将迎来何等蓬勃的生命力?

让我们拭目以待,在火山引擎等创新者的引领下,Agentic AI 之船正破浪前行。新时代的原动力已然觉醒,它必将推动智能产业驶向更加壮阔的未来。

开发者们,请拥抱这一刻,把握这一代技术浪潮, 让我们共同迎接由 Agentic AI 所开创的璀璨新篇章!

THE END
分享
二维码
< <上一篇
下一篇>>