ℹ️ Skipped - page is already crawled
| Filter | Status | Condition | Details |
|---|---|---|---|
| HTTP status | PASS | download_http_code = 200 | HTTP 200 |
| Age cutoff | PASS | download_stamp > now() - 6 MONTH | 0 months ago |
| History drop | PASS | isNull(history_drop_reason) | No drop reason |
| Spam/ban | PASS | fh_dont_index != 1 AND ml_spam_score = 0 | ml_spam_score=0 |
| Canonical | PASS | meta_canonical IS NULL OR = '' OR = src_unparsed | Not set |
| Property | Value |
|---|---|
| URL | https://www.infoq.cn/article/IKlqb65QLRYzFkrgpMvc |
| Last Crawled | 2026-04-10 23:21:31 (17 hours ago) |
| First Indexed | 2025-09-11 14:07:27 (7 months ago) |
| HTTP Status Code | 200 |
| Meta Title | 百度发布文心大模型X1.1、开源新模型,王海峰:飞桨文心生态开发者达2333万 - InfoQ |
| Meta Description | 百度整体新增代码中已经有45%由AI生成。 |
| Meta Canonical | null |
| Boilerpipe Text | 9 月 9 日,在 WAVE SUMMIT 深度学习开发者大会上,百度重磅发布了文心大模型 X1.1,并公布文心和飞桨的一系列技术、产品、生态最新成果。
文心 X1.1 深度思考模型上线
百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰正式发布文心大模型 X1.1 深度思考模型,该模型在事实性、指令遵循、智能体等能力上均有显著提升。目前,用户可以在文心一言官网、文小言 APP 使用文心大模型 X1.1。文心大模型 X1.1 已正式上线百度智能云千帆平台,对企业客户及开发者全面开放使用。
据王海峰现场介绍,文心大模型 X1 是基于文心大模型 4.5 训练而来的深度思考模型,升级后的 X1.1 主要采用了迭代式混合强化学习训练框架,一方面通过混合强化学习,同时提升通用任务和智能体任务的效果;另一方面通过自蒸馏数据的迭代式生产及训练,不断提升模型整体效果。相比文心大模型 X1,X1.1 的事实性提升 34.8%,指令遵循提升 12.5%,智能体提升 9.6%。
在多个权威基准评测中,文心大模型 X1.1 整体表现超越 DeepSeek R1-0528,在部分任务上展现出领先优势。同时,在与国际顶尖模型 GPT-5 和 Gemini 2.5 Pro 相比,效果持平。
文心大模型 X1.1 在多个基准测试达到 SOTA
飞桨框架 v3.2 发布,ERNIE-4.5-21B-A3B-Thinking 模型开源
据介绍,文心大模型的持续快速进化,得益于百度在芯片、框架、模型和应用上的全栈布局,尤其是飞桨深度学习框架和文心大模型的联合优化。
会上,百度 AI 技术生态总经理马艳军正式对外发布飞桨(PaddlePaddle)框架 v3.2,以及文心大模型开发套件 ERNIEKit、大模型高效部署套件 FastDeploy 和两大 AI 科学计算套件 PaddleCFD、PaddleMaterials,全面降低大模型从训练到部署的应用门槛。
马艳军表示,依托计算优化、并行策略和原生容错能力三大核心升级,飞桨框架 v3.2 突破大模型训练技术难题,显著提升了训练效率,在 ERNIE-4.5-300B-A47B 模型上实现预训练 MFU 达 47%。同时,该版本强化了类 CUDA 芯片适配能力,实现了最高 92%的算子内核复用率,并全面兼容 Safetensors 权重及生态加速库一键接入,显著降低部署成本。
在推理部署侧,大模型高效部署套件 FastDeploy 通过模型压缩、推理和服务协同优化,显著提升端到端推理性能。基于该套件,ERNIE-4.5-300B-A47B 模型在 TPOT 50ms 时延条件下,实现了输入 57K tokens/秒、输出 29K tokens/秒的高吞吐性能。
面向科研领域,PaddleCFD 和 PaddleMaterials 两大 AI 科学计算开发套件能够有效提升流体力学和材料科学领域的研发效率,缩短科研周期,并提升任务精度。
此外,百度开源了最新思考模型 ERNIE-4.5-21B-A3B-Thinking,该模型是在 ERNIE-4.5-21B-A3B 基础上训练的深度思考模型,在内容创作、逻辑推理、数学计算、代码生成与工具调用等多个任务中表现卓越。另外,还开源了大规模计算图数据集 GraphNet,提供了超 2700 个模型计算图及标准化评测体系,填补了 AI 编译器测试基准的空白,助力优化设计与性能提升。
其中,提供了更加便捷模型后训练方案的 ERNIEKit 文心大模型开发套件,仅需 4 张 GPU 即可对 ERNIE-4.5-300B-A47B 模型进行高效调优。
据最新数据披露,飞桨文心生态开发者达到 2333 万,服务企业达到 76 万家。
百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜表示,大模型能力的扩展和效率的提升,带来了更前瞻、更有想象力的创新应用,比如超拟真数字人的直播。百度研制了剧本驱动多模协同的数字人技术,实现了语言、声音和形象的协调一致。
文心快码三大升级
此外,百度智能代码助手文心快码全新升级至 3.5S(Super Synergistic AgentS)版本,强化多智能体自协同能力,实现“一人即团队”开发新模式。
据百度副总裁陈洋介绍,文心快码 3.5S 版本从三方面进行了升级。首先,智能体能力更强,能懂业务,会分解任务列表,执行更准;其次,从单智能体到多智能体协同,动态生成多个智能体,自主协同一起解决复杂任务;最后,团队协作更强,基于 Rules 与 MCP 构建统一的经验库,实现团队知识传承。
现场数据显示,文心快码目前已服务超过 1000 万的开发者。在百度内部,整体新增代码中已经有 45%由 AI 生成,其中前 10%的 Agent 用户,AI 完成的部分甚至超过了 75%。 |
| Markdown | [](https://www.infoq.cn/)
[首页](https://www.infoq.cn/)
[AI会议 hot](https://www.infoq.cn/archives)
[AI课程 hot](https://time.geekbang.org/resource?pt=1)
[AI应用 hot](https://agicamp.com/?utm_source=infoqbar)
[报告](https://www.infoq.cn/minibook)
[HarmonyOS](https://www.infoq.cn/zones/harmonyos/)
[Snowflake new](https://www.infoq.cn/space/snowflake)
[更多 **]()
** 写点什么
#### **创作场景
**
- 记录自己日常工作的实践、心得
- 发表对生活和职场的感悟
- 针对感兴趣的事件发表随笔或者杂谈
- 从 0 到 1 详细介绍你掌握的一门语言、一个技术,或者一个兴趣、爱好
- 或者,就直接把你的个人博客、公众号直接搬到这里
登录/注册
### 登录后可以:

收到更感兴趣的内容

关注/评论/点赞/收藏

观看完整回放视频

写文章/发布动态
登录解锁
- [企业动态]()
- [行业深度]()
- [AI&大模型]()
- [出海]()
- [后端]()
- [芯片&算力]()
- [架构]()
- [大数据]()
- [软件工程]()
- [云计算]()
- [大前端]()
- [管理/文化]()
**
**
**
**
**
# 百度发布文心大模型 X1.1、开源新模型,王海峰:飞桨文心生态开发者达 2333 万
- [褚杏娟]()
- 2025-09-11
北京
- 本文字数:1656 字
阅读完需:约 5 分钟
00:00
[1\.0x **]()
大小:932.92K时长:00:00

9 月 9 日,在 WAVE SUMMIT 深度学习开发者大会上,百度重磅发布了文心大模型 X1.1,并公布文心和飞桨的一系列技术、产品、生态最新成果。
## 文心 X1.1 深度思考模型上线
百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰正式发布文心大模型 X1.1 深度思考模型,该模型在事实性、指令遵循、智能体等能力上均有显著提升。目前,用户可以在文心一言官网、文小言 APP 使用文心大模型 X1.1。文心大模型 X1.1 已正式上线百度智能云千帆平台,对企业客户及开发者全面开放使用。
据王海峰现场介绍,文心大模型 X1 是基于文心大模型 4.5 训练而来的深度思考模型,升级后的 X1.1 主要采用了迭代式混合强化学习训练框架,一方面通过混合强化学习,同时提升通用任务和智能体任务的效果;另一方面通过自蒸馏数据的迭代式生产及训练,不断提升模型整体效果。相比文心大模型 X1,X1.1 的事实性提升 34.8%,指令遵循提升 12.5%,智能体提升 9.6%。
在多个权威基准评测中,文心大模型 X1.1 整体表现超越 DeepSeek R1-0528,在部分任务上展现出领先优势。同时,在与国际顶尖模型 GPT-5 和 Gemini 2.5 Pro 相比,效果持平。

文心大模型 X1.1 在多个基准测试达到 SOTA
## 飞桨框架 v3.2 发布,ERNIE-4.5-21B-A3B-Thinking 模型开源
据介绍,文心大模型的持续快速进化,得益于百度在芯片、框架、模型和应用上的全栈布局,尤其是飞桨深度学习框架和文心大模型的联合优化。
会上,百度 AI 技术生态总经理马艳军正式对外发布飞桨(PaddlePaddle)框架 v3.2,以及文心大模型开发套件 ERNIEKit、大模型高效部署套件 FastDeploy 和两大 AI 科学计算套件 PaddleCFD、PaddleMaterials,全面降低大模型从训练到部署的应用门槛。
马艳军表示,依托计算优化、并行策略和原生容错能力三大核心升级,飞桨框架 v3.2 突破大模型训练技术难题,显著提升了训练效率,在 ERNIE-4.5-300B-A47B 模型上实现预训练 MFU 达 47%。同时,该版本强化了类 CUDA 芯片适配能力,实现了最高 92%的算子内核复用率,并全面兼容 Safetensors 权重及生态加速库一键接入,显著降低部署成本。
在推理部署侧,大模型高效部署套件 FastDeploy 通过模型压缩、推理和服务协同优化,显著提升端到端推理性能。基于该套件,ERNIE-4.5-300B-A47B 模型在 TPOT 50ms 时延条件下,实现了输入 57K tokens/秒、输出 29K tokens/秒的高吞吐性能。
面向科研领域,PaddleCFD 和 PaddleMaterials 两大 AI 科学计算开发套件能够有效提升流体力学和材料科学领域的研发效率,缩短科研周期,并提升任务精度。
此外,百度开源了最新思考模型 ERNIE-4.5-21B-A3B-Thinking,该模型是在 ERNIE-4.5-21B-A3B 基础上训练的深度思考模型,在内容创作、逻辑推理、数学计算、代码生成与工具调用等多个任务中表现卓越。另外,还开源了大规模计算图数据集 GraphNet,提供了超 2700 个模型计算图及标准化评测体系,填补了 AI 编译器测试基准的空白,助力优化设计与性能提升。
其中,提供了更加便捷模型后训练方案的 ERNIEKit 文心大模型开发套件,仅需 4 张 GPU 即可对 ERNIE-4.5-300B-A47B 模型进行高效调优。
据最新数据披露,飞桨文心生态开发者达到 2333 万,服务企业达到 76 万家。
百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜表示,大模型能力的扩展和效率的提升,带来了更前瞻、更有想象力的创新应用,比如超拟真数字人的直播。百度研制了剧本驱动多模协同的数字人技术,实现了语言、声音和形象的协调一致。
## 文心快码三大升级
此外,百度智能代码助手文心快码全新升级至 3.5S(Super Synergistic AgentS)版本,强化多智能体自协同能力,实现“一人即团队”开发新模式。
据百度副总裁陈洋介绍,文心快码 3.5S 版本从三方面进行了升级。首先,智能体能力更强,能懂业务,会分解任务列表,执行更准;其次,从单智能体到多智能体协同,动态生成多个智能体,自主协同一起解决复杂任务;最后,团队协作更强,基于 Rules 与 MCP 构建统一的经验库,实现团队知识传承。
现场数据显示,文心快码目前已服务超过 1000 万的开发者。在百度内部,整体新增代码中已经有 45%由 AI 生成,其中前 10%的 Agent 用户,AI 完成的部分甚至超过了 75%。
**划线
**评论
**复制
2025-09-11 02:437032
文章版权归极客邦科技InfoQ所有,未经许可不得转载。
**[AI&大模型](https://www.infoq.cn/topic/AI&LLM)
** 轻点一下,留下你的鼓励
## 评论
发布
暂无评论
延伸阅读——来自 InfoQ 精选
- [亚马逊云科技推出Qwen3与DeepSeek-V3.1模型的完全托管服务](https://www.infoq.cn/article/M6PxwVj5aVzzW3NfftTM?utm_source=1&utm_medium=article)
其他开放权重模型还包括来自Meta、Mistral AI和OpenAI的模型
作者: [褚杏娟]()
2025-09-19

- [昨夜,OpenAI 祭出首个实时编码模型,没用英伟达芯片!谷歌重磅更新 Deep Think,姚顺宇参与](https://www.infoq.cn/article/re3CXNqi9tyPH4lIOohq?utm_source=1&utm_medium=article)
不靠英伟达,AI巨鳄连夜血拼!
作者: [李冬梅]()
2026-02-13

- [“大模型第一股”打响上市前哨战!智谱GLM-4.7 刷新开源编程SOTA,修复代码、终端操作表现超Claude 4.5](https://www.infoq.cn/article/ICEBaOAkFYcYIe9c6lJV?utm_source=1&utm_medium=article)
正在 冲刺大模型第一股 的 智谱,今天又拿出了诚意满满的新一代大模型 GLM-4.7,还给开源了。tasks)的提升,同时在 推理能力 等方面也有所增强。
作者: [木子](),[允毅]()
2025-12-29

- [“大模型第一股”打响上市前哨战!智谱刷新开源编程SOTA,在修复代码、终端操作表现超Claude 4.5](https://www.infoq.cn/article/wTgh5tfft66Zf8AWQutD?utm_source=1&utm_medium=article)
前端和设计师心头一紧
作者: [木子](),[允毅]()
2025-12-23

- [腾讯混元开源翻译模型1.5,端侧可部署,效果超越商用API](https://www.infoq.cn/article/jPBQa2PLqigECgqqYQOP?utm_source=1&utm_medium=article)
腾讯混元面向端侧场景开源翻译模型。
作者: [腾讯]()
2025-12-30

[**换一换]() [查看更多]()
### 电子书
### 大厂实战PPT下载
[换一换 **]()
- 
促进软件开发及相关领域知识与创新的传播
- [关于我们](https://www.infoq.cn/about)
[我要投稿](https://www.infoq.cn/contribute)
[合作伙伴](https://www.geekbang.org/partner)
[加入我们](https://www.infoq.cn/link?target=https%3A%2F%2Fwww.lagou.com%2Fgongsi%2Fj43775.html)
[关注我们](https://infoq.cn/official/account)
- 联系我们
[内容投稿:editors@geekbang.com](mailto:editors@geekbang.com)
[业务合作:hezuo@geekbang.com](mailto:hezuo@geekbang.com)
[反馈投诉:feedback@geekbang.com](mailto:feedback@geekbang.com)
[加入我们:zhaopin@geekbang.com](mailto:zhaopin@geekbang.com)
联系电话:010-64738142
地址:北京市朝阳区望京北路9号2幢7层A701
- InfoQ 近期会议
[北京 · QCon 全球软件开发大会 2026.4.16-18](https://qcon.infoq.cn/2026/beijing?utm_source=infoq&utm_medium=footer)
[上海 · AICon 全球人工智能开发与应用大会 2026.6.26-27](https://aicon.infoq.cn/2026/shanghai?utm_source=infoq&utm_medium=footer)
- 全球 InfoQ
[InfoQ En](https://www.infoq.com/)
[InfoQ Jp](https://www.infoq.com/jp/)
[InfoQ Fr](http://www.infoq.com/fr/)
[InfoQ Br](http://www.infoq.com/br/)
Copyright © 2026, Geekbang Technology Ltd. All rights reserved. 极客邦控股(北京)有限公司 \| [京 ICP 备 16027448 号 - 5](https://www.infoq.cn/link?target=https%3A%2F%2Fbeian.miit.gov.cn%2F)[京公网安备 11010502039052号](https://www.infoq.cn/link?target=http%3A%2F%2Fwww.beian.gov.cn%2Fportal%2FregisterSystemInfo%3Frecordcode%3D11010502039052) [\| 产品资质](https://time.geekbang.org/hybrid/certificates) |
| Readable Markdown | 9 月 9 日,在 WAVE SUMMIT 深度学习开发者大会上,百度重磅发布了文心大模型 X1.1,并公布文心和飞桨的一系列技术、产品、生态最新成果。
## 文心 X1.1 深度思考模型上线
百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰正式发布文心大模型 X1.1 深度思考模型,该模型在事实性、指令遵循、智能体等能力上均有显著提升。目前,用户可以在文心一言官网、文小言 APP 使用文心大模型 X1.1。文心大模型 X1.1 已正式上线百度智能云千帆平台,对企业客户及开发者全面开放使用。
据王海峰现场介绍,文心大模型 X1 是基于文心大模型 4.5 训练而来的深度思考模型,升级后的 X1.1 主要采用了迭代式混合强化学习训练框架,一方面通过混合强化学习,同时提升通用任务和智能体任务的效果;另一方面通过自蒸馏数据的迭代式生产及训练,不断提升模型整体效果。相比文心大模型 X1,X1.1 的事实性提升 34.8%,指令遵循提升 12.5%,智能体提升 9.6%。
在多个权威基准评测中,文心大模型 X1.1 整体表现超越 DeepSeek R1-0528,在部分任务上展现出领先优势。同时,在与国际顶尖模型 GPT-5 和 Gemini 2.5 Pro 相比,效果持平。

文心大模型 X1.1 在多个基准测试达到 SOTA
## 飞桨框架 v3.2 发布,ERNIE-4.5-21B-A3B-Thinking 模型开源
据介绍,文心大模型的持续快速进化,得益于百度在芯片、框架、模型和应用上的全栈布局,尤其是飞桨深度学习框架和文心大模型的联合优化。
会上,百度 AI 技术生态总经理马艳军正式对外发布飞桨(PaddlePaddle)框架 v3.2,以及文心大模型开发套件 ERNIEKit、大模型高效部署套件 FastDeploy 和两大 AI 科学计算套件 PaddleCFD、PaddleMaterials,全面降低大模型从训练到部署的应用门槛。
马艳军表示,依托计算优化、并行策略和原生容错能力三大核心升级,飞桨框架 v3.2 突破大模型训练技术难题,显著提升了训练效率,在 ERNIE-4.5-300B-A47B 模型上实现预训练 MFU 达 47%。同时,该版本强化了类 CUDA 芯片适配能力,实现了最高 92%的算子内核复用率,并全面兼容 Safetensors 权重及生态加速库一键接入,显著降低部署成本。
在推理部署侧,大模型高效部署套件 FastDeploy 通过模型压缩、推理和服务协同优化,显著提升端到端推理性能。基于该套件,ERNIE-4.5-300B-A47B 模型在 TPOT 50ms 时延条件下,实现了输入 57K tokens/秒、输出 29K tokens/秒的高吞吐性能。
面向科研领域,PaddleCFD 和 PaddleMaterials 两大 AI 科学计算开发套件能够有效提升流体力学和材料科学领域的研发效率,缩短科研周期,并提升任务精度。
此外,百度开源了最新思考模型 ERNIE-4.5-21B-A3B-Thinking,该模型是在 ERNIE-4.5-21B-A3B 基础上训练的深度思考模型,在内容创作、逻辑推理、数学计算、代码生成与工具调用等多个任务中表现卓越。另外,还开源了大规模计算图数据集 GraphNet,提供了超 2700 个模型计算图及标准化评测体系,填补了 AI 编译器测试基准的空白,助力优化设计与性能提升。
其中,提供了更加便捷模型后训练方案的 ERNIEKit 文心大模型开发套件,仅需 4 张 GPU 即可对 ERNIE-4.5-300B-A47B 模型进行高效调优。
据最新数据披露,飞桨文心生态开发者达到 2333 万,服务企业达到 76 万家。
百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜表示,大模型能力的扩展和效率的提升,带来了更前瞻、更有想象力的创新应用,比如超拟真数字人的直播。百度研制了剧本驱动多模协同的数字人技术,实现了语言、声音和形象的协调一致。
## 文心快码三大升级
此外,百度智能代码助手文心快码全新升级至 3.5S(Super Synergistic AgentS)版本,强化多智能体自协同能力,实现“一人即团队”开发新模式。
据百度副总裁陈洋介绍,文心快码 3.5S 版本从三方面进行了升级。首先,智能体能力更强,能懂业务,会分解任务列表,执行更准;其次,从单智能体到多智能体协同,动态生成多个智能体,自主协同一起解决复杂任务;最后,团队协作更强,基于 Rules 与 MCP 构建统一的经验库,实现团队知识传承。
现场数据显示,文心快码目前已服务超过 1000 万的开发者。在百度内部,整体新增代码中已经有 45%由 AI 生成,其中前 10%的 Agent 用户,AI 完成的部分甚至超过了 75%。 |
| Shard | 5 (laksa) |
| Root Hash | 3265164560527275005 |
| Unparsed URL | cn,infoq!www,/article/IKlqb65QLRYzFkrgpMvc s443 |