腾讯Robotics X实验室联合腾讯混元团队推出专为具身智能打造的基础模型HY-Embodied-0.5,旨在提升机器人在物理世界中的感知与交互能力,推动大模型向具身控制领域延伸。该系列采用全新架构与训练范式,包含MoT-2B与MoE-32B两款主力模型,前者主打端侧实时响应,后者侧重高性能推理。模型引入视觉与语言模态非共享参数的混合Transformer架构、原生分辨率视觉编码器HY-ViT2.0及视觉潜在Token机制,并基于超1亿条具身数据实施多阶段强化训练。在22项权威评测中,MoT-2B取得16项最佳成绩,性能超越Qwen3-VL-4B及RoboBrain2.5;旗舰版MoE-A32B综合表现可与Gemini3.0Pro等国际模型抗衡。实测显示,该模型为机器人在打包、堆叠等任务中提供更优表现,为具身智能落地奠定基础。