一、技术背景与核心挑战 在大型语言模型(LLM)的推理过程中,传统方法往往面临两难困境:为保证答案准确性需要完整执行所有计算步骤,但冗余推理会导致资源浪费和响应延迟。某大学研究团队针对这一痛点提出创新方……