DeepSeek的多模态技术报告提出基于视觉原语的思考——这一创新推理框架将点、边界框等空间标记提升为“思维的基本单元”。通过将这些视觉原语直接融入思考过程,模型在“推理”时能够“指代”,从而将其认知轨迹有效锚定在图像的物理坐标中。
技术报告还指出,该框架基于高度优化的架构,具备极高的视觉标记效率。尽管模型规模紧凑且图像标记预算较低,DeepSeek的多模态模型在具有挑战性的计数和空间推理基准测试上,能够与GPT-5.4、Claude-Sonnet-4.6和Gemini-3-Flash等前沿模型匹配。这为开发更高效、更具可扩展性的System-2类多模态智能提供了新的方向。