目录:
1.香港中科大
2.中科大usnews
3.中科大imcc
4.中科大深造率
5.homebrew中科大
6.ahr999中科大
7.中科大scifinder
8.中科大isscc
9.cwk中科大
10.中科大 science
1.香港中科大
近年来,以 OpenAI-o1、Qwen3、DeepSeek-R1 为代表的大型推理模型(LRMs)在复杂推理任务上取得了惊人进展,它们能够像人类一样进行长链条的思考、反思和探索然而,这些模型在面对精确的数学计算时,仍然会「心有余而力不足」,常常出现效率低下甚至算错的问题。
2.中科大usnews
一个直观的解决方案,是为模型配备代码解释器(Code Interpreter)等计算工具但这引入了一个更深层次的挑战,也是当前领域面临的关键瓶颈:认知冲突:模型内部基于概率的、模糊的「思考」,与外部工具返回的确定性的、精确的「知识」之间存在冲突,导致模型陷入无意义的反复验证和「纠结」。
3.中科大imcc
行为低效:模型倾向于先用自然语言进行冗长的推演,再用代码验证,造成「延迟计算」;或者不信任代码返回的结果,进行不必要的「结果不信任」和手动核算,白白浪费了大量计算资源(tokens)数据稀缺:如何为这种新型的「模型 – 工具」协同推理模式,合成高质量的训练数据,本身就是一个开放性难题。
4.中科大深造率
那么,如何让大模型学会「何时」以及「如何」高效地使用工具,将自身的抽象推理能力与工具的精确计算能力完美结合?来自中国科学技术大学、香港中文大学(深圳)、通义千问的联合研究团队给出了他们的答案:CoRT (Code-Optimized Reasoning Training) —— 一个旨在教会大型语言模型高效利用代码工具进行推理的后训练(post-training)框架。
5.homebrew中科大
该框架通过创新的数据合成策略和多阶段训练流程,显著提升了模型的数学推理能力和效率

6.ahr999中科大
目前,该论文已被 NeurIPS 2025 接收,相关模型和代码均已开源。

7.中科大scifinder
论文链接:https://arxiv.org/abs/2510.20342项目仓库:https://github.com/ChengpengLi1003/CoRT方法核心:从「数据冷启动」到「智能体调优」的三步走
8.中科大isscc
CoRT 框架的核心思想是,通过高质量的数据和精细化的训练,重塑模型与工具的交互模式,使其从低效的「验证」思维转向高效的「计算」思维。

9.cwk中科大
1.Hint-Engineering (提示工程):数据冷启动的艺术挑战:高质量的「模型 – 工具」交互数据极度稀缺简单地提示模型使用代码,会产生大量冗长、低效的推理轨迹核心思路:研究团队首次提出了一种名为「提示工程」(Hint-Engineering)


评论(0)