目录:
1.北大的物理
2.北大物理学院大神
3.北京大学物理学四大神兽
4.北大物理系课程
5.北大理论物理大神
6.北大物理系有多恐怖
7.北大物理系牛人
8.北大 物理学家
9.北大物理学课程
10.北京大学物理系学霸
1.北大的物理
LLM 智能体很赞,正在成为一种解决复杂难题的强大范式不过,这种成功目前更多还停留在「经验主义」的工程实践层面 —— 我们知道它好用,但往往不知道它在宏观上为何如此运作那么,我们是否能找到一个理论框架,像物理学描述自然界那样,去理解和统一智能体的宏观动力学(macroscopic dynamics)?。
2.北大物理学院大神
为了解开这个黑盒,近日,北京大学物理学院、高能物理研究中心以及北京计算科学研究中心联合发力,跨界借用了物理学中经典的最小作用量原理(least action principle)他们提出了一种新颖的方法,成功估计了嵌入在智能体中的 LLM 隐秘的生成方向性(directionality),揭示了 AI 生成过程背后可能存在的「物理定律」。

3.北京大学物理学四大神兽
论文标题:Detailed balance in large language model-driven agents论文地址:https://arxiv.org/pdf/2512.10047简单来说,他们通过实验测量了 LLM 生成状态之间的转移概率。
4.北大物理系课程
基于此,他们在统计上发现了 LLM 生成转移中的细致平衡 (detailed balance) 现象这表明:LLM 的生成可能不是通过一般性地学习规则集和策略来实现的,而是通过隐式地学习一类潜在的势函数 (potential functions),这些势函数可能超越了不同的 LLM 架构和提示词模板。
5.北大理论物理大神
该团队表示:「据我们所知,这是首次在不依赖特定模型细节的情况下,发现 LLM 生成动力学中的宏观物理定律」什么意思呢?通俗来说,该团队发现 AI 的思考并不是「死记硬背」,而是像水往低处流一样遵循「物理本能」。
6.北大物理系有多恐怖
是的,LLM 智能体在解决问题时,其行为模式并不像很多人以为的那样仅仅是在匹配规则或随机尝试,而是隐约看到了一张无形的地形图(势函数)在这个地形图中,错误的答案就像是高地,而正确的答案则是谷底智能体的每一次推理和生成,实际上都是在最小作用量原理的驱动下,自然而然地向着势能更低、质量更好的状态流动。
7.北大物理系牛人
这意味着,AI 能够解决复杂问题,是因为它在海量参数中内化出了一种全局的「直觉」,这也是科学家首次在 AI 生成过程中发现了不依赖于特定模型的宏观物理定律这一发现将 AI 研究从「炼丹术」提升到了可量化的「物理科学」高度。
8.北大 物理学家
通过验证物理学中的「细致平衡」现象,该团队证实了 AI 的思维跳跃并非无迹可寻,而是像热力学平衡系统一样有着严格的数学比例这让我们可以用物理指标来给不同的大模型画像;比如,研究发现:Claude-4 像个急于交卷的优等生,倾向于快速收敛到某个答案(势井),但也容易固执己见;
9.北大物理学课程
GPT-5 Nano 则像个探险家,虽然收敛慢,但更愿意在状态空间中多走走,探索未知的可能性这一理论框架让我们可以用科学测量的手段去预测和控制 AI 的行为,而不再仅仅依赖盲目的工程试错看起来,也正如谷歌前些天的一篇论文展现的那样,AI 智能体的研究不再只是简单的工程实践,而是正在提升为建立在有效测量基础上的、可预测且可量化的科学。
10.北京大学物理系学霸
下面具体来看看这个北大团队究竟发现了什么理论为了严谨地表述这一问题,该团队研究的是一个核心由一个或多个 LLM 组成的智能体该智能体将其当前状态 f 作为输入,通过一系列确定性的步骤对状态进行组织和评估,从而生成一个相关的提示词。
随后,该提示词被输入到一个或多个 LLM 中,其结构化的输出经解析后得到一个新的状态 g该状态是研究 LLM 动力学的最小单位这种生成过程可以被视为状态空间 𝒞 中的一个马尔可夫转移过程,其转移核为 P (g|f),保留了 LLM 生成的多样性和适应性。
状态由智能体在每个时间步保留的完整信息定义,这应当包含智能体执行连续推理或类比过程所需的所有信息在本文中,智能体仅包含 LLM 的单个生成步骤,记


评论(0)