2026年1月22日上午,百度正式发布文心大模型5.0正式版,该模型参数规模达2.4万亿,采用统一自回归架构,首次实现文本、图像、音频与视频等多模态数据在单一模型框架内的联合训练与协同生成,突破了传统“后期融合”式多模态模型的语义割裂瓶颈。
据官方披露,文心5.0在40余项国际权威基准测试中表现突出,其语言理解与多模态推理能力已超越谷歌Gemini-2.5-Pro及OpenAI GPT-5-High等主流模型,被百度定义为“稳居全球第一梯队”。技术层面,该模型基于超大规模混合专家(MoE)架构,激活参数比例低于3%,在保障强大生成能力的同时显著优化推理效率,使其更适用于高并发企业级应用场景。
区别于行业普遍采用的“先文本后多模态”拼接策略,文心5.0从预训练阶段即引入多源异构数据,构建统一的语义表征空间。这意味着模型在处理“图文矛盾识别”“声画情感对齐”或“视频逻辑推理”等复杂任务时,无需依赖多个子模型协同,而是由同一套神经网络完成端到端的理解与生成。

为提升模型的专业性与价值观对齐能力,百度同步推进“文心导师”计划。目前该计划已汇聚835位来自科技、金融、医疗、教育、能源等十余个重点行业的专家,以及数学、物理、化学、生物、文学、历史、哲学等基础学科的学者。这些专家通过知识注入、案例校准与伦理评估等方式,持续优化模型在专业问答、创意写作、逻辑推演及文化适配等方面的表现。
在应用落地方面,文心5.0正式版已全面开放服务:个人用户可通过文心App及文心一言官网直接体验;企业与开发者则可经由百度智能云千帆大模型平台调用API,集成至智能客服、内容生产、工业设计、科研辅助等场景。此前,其Preview版本已在LMArena全球大模型竞技场多次位列中文榜首,并在创意写作、复杂指令遵循等维度获得领先评分。


