1.字节 北大 pua

你没听错,让模型在预训练阶段就开始思考。字节,加州大学,普林斯顿大学,蒙特利尔大学,北京大学,卡内基梅隆大学等等一众顶尖学府、研究机构联合发布了一种语言模型的全新范式:Ouro模型。

预训练就学会思考!字节、北大等用14亿参数,撬动百亿模型推理能力(插图

2.字节 lite模型

Ouro模型用14亿参数实现了百亿级模型的推理能力,核心在于它在预训练阶段就学会了循环思考大语言模型的推理能力,大多通过类似思维链(Chain-of-Thought, CoT)的方法在后天训练中生成冗长的文本来实现。

3.字节跳动北大

这种方式像是让模型事后诸葛,而非在学习之初就内化推理能力Ouro模型,其名取自衔尾蛇(Ouroboros)的自我吞食与循环意象,代表了一种全新的范式:循环语言模型(Looped Language Models,

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。