12月31日,浪潮旗下YuanL
网页链接团队宣布开源发布源Yuan3.0Flash多模态基础大模型。Yuan3.0Flash是一个40B参数规模的模型,采用稀疏混合专家(MoE)架构,单次推理仅激活约3.7B参数。该模型通过强化学习训练方法(RAPO)和反思抑制奖励机制(RIRM),在提升推理准确性的同时,显著降低了推理过程的token消耗和算力成本。
Yuan3.0Flash由视觉编码器、语言主干网络和多模态对齐模块组成。语言主干网络使用局部过滤增强的Attention结构(LFA)和混合专家(MoE)结构,以提高注意力精度并降低训练与推理的算力开销。在多模态方面,模型将视觉信号转化为token,并与语言token一起输入到语言主干网络,通过多模态对齐模块实现跨模态特征对齐。此外,引入自适应图像分割机制,支持高分辨率图像理解,同时降低显存需求及算力开销。
在企业场景的多个任务中,如RAG(ChatRAG)、多模态检索(Docmatix)、多模态表格理解(MMTab)和摘要生成(SummEval),Yuan3.0Flash的表现已优于GPT-5.1。在多模态推理与语言推理评测中,Yuan3.0Flash(40B)的精度接近Qwen3-VL235B-A22B(235B)与DeepSeek-R1-0528(671B),但token消耗仅约为其1/4~1/2,有效降低了企业大模型应用成本。Yuan3.0Flash现已全面开源,全系列模型参数和代码均可免费下载使用。


来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。