ℹ️ Skipped - page is already crawled
| Filter | Status | Condition | Details |
|---|---|---|---|
| HTTP status | PASS | download_http_code = 200 | HTTP 200 |
| Age cutoff | FAIL | download_stamp > now() - 6 MONTH | 7.2 months ago |
| History drop | PASS | isNull(history_drop_reason) | No drop reason |
| Spam/ban | PASS | fh_dont_index != 1 AND ml_spam_score = 0 | ml_spam_score=0 |
| Canonical | PASS | meta_canonical IS NULL OR = '' OR = src_unparsed | Not set |
| Property | Value |
|---|---|
| URL | http://jjckb.xinhuanet.com/20250910/4e01ea29c3164ffb9038c32f45415ff5/c.html |
| Last Crawled | 2025-09-12 00:26:15 (7 months ago) |
| First Indexed | not set |
| HTTP Status Code | 200 |
| Meta Title | 百度开源ERNIE-4.5-21B-A3B-Thinking:轻量化模型推理能力再升级-经济参考网 _ 新华社《经济参考报》官方网站 |
| Meta Description | 百度开源ERNIE-4.5-21B-A3B-Thinking:轻量化模型推理能力再升级-" 近日举行的WAVE SUMMIT深度学习开发者大会2025现场,百度正式开源最新的思考模型ERNIE-4.5-21B-A3B-Thinking。" |
| Meta Canonical | null |
| Boilerpipe Text | 近日举行的WAVE SUMMIT深度学习开发者大会2025现场,百度正式开源最新的思考模型ERNIE-4.5-21B-A3B-Thinking。 据介绍,ERNIE-4.5-21B-A3B-Thinking 采用了混合专家(MoE) 架构,总参数规模达210亿,每个 token 激活 30 亿参数,通过指令微调及强化学习训练。ERNIE-4.5-21B-A3B-Thinking 是在 ERNIE-4.5-21B-A3B 基础上训练的深度思考模型,该模型支持 128K 的上下文窗口,适用于需要长上下文的复杂推理任务。该模型不仅在逻辑推理、数学、科学,代码与文本生成等需要人类专家的任务上实现了显著提升,还具备高效的工具调用能力,能够支持复杂任务的自动化处理。 ERNIE-4.5-21B-A3B-Thinking 模型以 Apache License 2.0 协议开源,允许商业使用。该模型已在 HuggingFace、星河社区等主流开源社区同步发布,FastDeploy、 vLLM、Transformers 等开源工具已经实现了对该模型的支持,可以直接加载模型并使用。其中,FastDeploy 提供一键部署能力,支持单张加速卡运行,方便用户快速开展推理服务。 ERNIE-4.5-21B-A3B-Thinking 作为一款 21B 总参数量,激活仅 3B 的轻量级模型,在各项测试中的表现紧追业界顶级大尺寸模型,以轻量级规模实现了接近 SOTA 的智能表现。 公开资料显示,6月30日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。目前,文心开源系列模型已在行业中得到广泛应用。 在WAVE SUMMIT深度学习开发者大会2025上,百度还正式发布文心大模型X1.1深度思考模型,该模型在事实性、指令遵循、智能体等能力上均有大幅提升。目前,用户可以在文心一言官网、文小言APP使用文心大模型X1.1。文心大模型X1.1已正式上线百度智能云千帆平台,对企业客户及开发者全面开放使用。(华柏) |
| Markdown | 新华通讯社主管
## [首页](https://www.jjckb.cn/) \>\> 正文
百度开源ERNIE-4.5-21B-A3B-Thinking:轻量化模型推理能力再升级
2025-09-10 来源:经济参考网
【[大](http://jjckb.xinhuanet.com/20250910/4e01ea29c3164ffb9038c32f45415ff5/c.html) [中](http://jjckb.xinhuanet.com/20250910/4e01ea29c3164ffb9038c32f45415ff5/c.html) [小](http://jjckb.xinhuanet.com/20250910/4e01ea29c3164ffb9038c32f45415ff5/c.html)】
近日举行的WAVE SUMMIT深度学习开发者大会2025现场,百度正式开源最新的思考模型ERNIE-4.5-21B-A3B-Thinking。
据介绍,ERNIE-4.5-21B-A3B-Thinking 采用了混合专家(MoE) 架构,总参数规模达210亿,每个 token 激活 30 亿参数,通过指令微调及强化学习训练。ERNIE-4.5-21B-A3B-Thinking 是在 ERNIE-4.5-21B-A3B 基础上训练的深度思考模型,该模型支持 128K 的上下文窗口,适用于需要长上下文的复杂推理任务。该模型不仅在逻辑推理、数学、科学,代码与文本生成等需要人类专家的任务上实现了显著提升,还具备高效的工具调用能力,能够支持复杂任务的自动化处理。
ERNIE-4.5-21B-A3B-Thinking 模型以 Apache License 2.0 协议开源,允许商业使用。该模型已在 HuggingFace、星河社区等主流开源社区同步发布,FastDeploy、 vLLM、Transformers 等开源工具已经实现了对该模型的支持,可以直接加载模型并使用。其中,FastDeploy 提供一键部署能力,支持单张加速卡运行,方便用户快速开展推理服务。
ERNIE-4.5-21B-A3B-Thinking 作为一款 21B 总参数量,激活仅 3B 的轻量级模型,在各项测试中的表现紧追业界顶级大尺寸模型,以轻量级规模实现了接近 SOTA 的智能表现。

公开资料显示,6月30日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。目前,文心开源系列模型已在行业中得到广泛应用。
在WAVE SUMMIT深度学习开发者大会2025上,百度还正式发布文心大模型X1.1深度思考模型,该模型在事实性、指令遵循、智能体等能力上均有大幅提升。目前,用户可以在文心一言官网、文小言APP使用文心大模型X1.1。文心大模型X1.1已正式上线百度智能云千帆平台,对企业客户及开发者全面开放使用。(华柏)

凡标注来源为“经济参考报”或“经济参考网”的所有文字、图片、音视频稿件,及电子杂志等数字媒体产品,版权均属《经济参考报》社有限责任公司,未经书面授权,不得以任何形式刊载、播放。[获取授权](http://101607190002448.bqy.pub/)

- [关于我们](http://www.jjckb.cn/jc_ad.htm)
- [版权声明](http://www.jjckb.cn/2015-07/02/c_134375958.htm)
- [媒体刊例](http://www.jjckb.cn/2015-07/02/c_134375971.htm)
- [信披平台](http://www.jjckb.cn/xinpi/xinpipt.htm)
- [商务合作](http://www.jjckb.cn/2015-07/02/c_134375970.htm)
《经济参考报》社有限责任公司版权所有 本站所有新闻内容未经协议授权,禁止转载使用
新闻线索提供热线:010-63074375 63072334 报社地址:北京市宣武门西大街57号
JJCKB.CN 京ICP备2024066810号-1
新闻线索提供热线:010-63074375 63072334
JJCKB.CN 《经济参考报》社有限责任公司版权所有
本站内容未经协议授权,禁止转载使用
[京ICP备18039543号-1](https://beian.miit.gov.cn/)
百度开源ERNIE-4.5-21B-A3B-Thinking:轻量化模型推理能力再升级
 |
| Readable Markdown | null |
| Shard | 109 (laksa) |
| Root Hash | 15122588747751572109 |
| Unparsed URL | com,xinhuanet!jjckb,/20250910/4e01ea29c3164ffb9038c32f45415ff5/c.html h80 |