1.香港中科大

近年来,以 OpenAI-o1、Qwen3、DeepSeek-R1 为代表的大型推理模型(LRMs)在复杂推理任务上取得了惊人进展,它们能够像人类一样进行长链条的思考、反思和探索然而,这些模型在面对精确的数学计算时,仍然会「心有余而力不足」,常常出现效率低下甚至算错的问题。

2.中科大usnews

一个直观的解决方案,是为模型配备代码解释器(Code Interpreter)等计算工具但这引入了一个更深层次的挑战,也是当前领域面临的关键瓶颈:认知冲突:模型内部基于概率的、模糊的「思考」,与外部工具返回的确定性的、精确的「知识」之间存在冲突,导致模型陷入无意义的反复验证和「纠结」。

3.中科大imcc

行为低效:模型倾向于先用自然语言进行冗长的推演,再用代码验证,造成「延迟计算」;或者不信任代码返回的结果,进行不必要的「结果不信任」和手动核算,白白浪费了大量计算资源(tokens)数据稀缺:如何为这种新型的「模型 – 工具」协同推理模式,合成高质量的训练数据,本身就是一个开放性难题。

4.中科大深造率

那么,如何让大模型学会「何时」以及「如何」高效地使用工具,将自身的抽象推理能力与工具的精确计算能力完美结合?来自中国科学技术大学、香港中文大学(深圳)、通义千问的联合研究团队给出了他们的答案:CoRT (Code-Optimized Reasoning Training) —— 一个旨在教会大型语言模型高效利用代码工具进行推理的后训练(post-training)框架。

5.homebrew中科大

该框架通过创新的数据合成策略和多阶段训练流程,显著提升了模型的数学推理能力和效率

NeurIPS 2025 | 中科大、港中深、通义千问联合发布CoRT:仅30个样本教会大模型高效推理,token消耗降低50%(插图

6.ahr999中科大

目前,该论文已被 NeurIPS 2025 接收,相关模型和代码均已开源。

NeurIPS 2025 | 中科大、港中深、通义千问联合发布CoRT:仅30个样本教会大模型高效推理,token消耗降低50%(插图1

7.中科大scifinder

论文链接:https://arxiv.org/abs/2510.20342项目仓库:https://github.com/ChengpengLi1003/CoRT方法核心:从「数据冷启动」到「智能体调优」的三步走

8.中科大isscc

CoRT 框架的核心思想是,通过高质量的数据和精细化的训练,重塑模型与工具的交互模式,使其从低效的「验证」思维转向高效的「计算」思维。

NeurIPS 2025 | 中科大、港中深、通义千问联合发布CoRT:仅30个样本教会大模型高效推理,token消耗降低50%(插图2

9.cwk中科大

1.Hint-Engineering (提示工程):数据冷启动的艺术挑战:高质量的「模型 – 工具」交互数据极度稀缺简单地提示模型使用代码,会产生大量冗长、低效的推理轨迹核心思路:研究团队首次提出了一种名为「提示工程」(Hint-Engineering)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。