1.基于多模态知识图谱的推理

本文作者来自北京邮电大学、腾讯微信、清华大学共同第一作者为北京邮电大学博士生乔润祺与硕士生谭秋纳,其共同完成的代表性工作 We-Math 于 ACL 2025 发表,并曾在 CVPR、ACL、ICLR、AAAI、ACM MM 等多个顶会中有论文发表。

2.多模态数据分析

本文的通讯作者为博士生导师张洪刚与微信视觉技术中心李琛,We-Math 系列工作为乔润祺在微信实习期间完成

We-Math 2.0:全新多模态数学推理数据集 × 首个综合数学知识体系(插图

3.mod 数论

论文标题:We-Math 2.0: A Versatile MathBook System for Incentivizing Visual Mathematical Reasoning论文链接:https://arxiv.org/abs/2508.10433

4.多模态数据挖掘

主页链接:https://we-math2.github.io/代码链接:https://github.com/We-Math/We-Math2.0数据集链接:https://huggingface.co/datasets/We-Math/We-Math2.0-Standard

We-Math 2.0:全新多模态数学推理数据集 × 首个综合数学知识体系(插图1

5.pagerank数学模型

近期,多模态大模型在图像问答与视觉理解等任务中进展迅速随着 Vision-R1 、MM-Eureka 等工作将强化学习引入多模态推理,数学推理也得到了一定提升然而,在逻辑性与知识系统性要求极高的数学任务中,模型仍然达不到像人类一样进行严密推理的水平,这一问题仍然是开放性难题。

对此,我们仍然认为理想的学习范式应该是让模型先掌握所需的知识,再进一步提升泛化能力基于这一思考,我们提出了 We-Math2.0:1.

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。