ERNIE-4.5-21B-A3B-Thinking
互联网
2025-09-16 10:46:37
ERNIE-4.5-21B-A3B-Thinking 是百度推出的专注于推理任务的大型语言模型。采用混合专家(MoE)架构,总参数量达210亿,每个token激活30亿参数,支持128K的长上下文窗口,适用于复杂推理任务。模型通过文本预训练构建语言核心骨干,在推理增强后训练阶段,利用监督式微调(SFT)和渐进式强化学习(PRL)等技术,显著提升了逻辑推理、数学计算、科学问题解答等能力。支持高效的工具调用,可与vLLM、Transformers 4.54+和FastDeploy等集成,适用于程序合成、符号推理及多智能体工作流等场景。