Chain of Draft: 借鉴人类草稿思维让大型语言模型更快地思考这个研究探讨了大型语言模型(LLMs)在执行复杂推理任务时面临的计算资源消耗与响应延迟问题。研究特别聚焦于思维链(Chain-of-Thought, CoT)提示范式的效率局限性。CoT虽然有效,但在推理过程中需要生成冗长、详尽的逐步推理,导致计算资源利用率低下且延迟显著增加。这与人类问题解决机制形成鲜明对比——人类倾向于通过简洁的草图或速记笔记捕捉核心见解,避免冗余阐述。本研究旨在通过引入更高效的推理模式,缩小AI与人类认知处理方式间的差距。