目录:
1.uvision智谱
2.智谱ai
3.智谱ai是什么公司
4.智谱科技干嘛的
5.智谱官网
6.智谱科技怎么样
7.智谱app
8.智谱智能科技有限公司
9.下载软件智谱app
10.智谱科技 融资
1.uvision智谱
这不巧了吗……智谱和DeepSeek,又双叒撞车了。太卷了,DeepSeek-OCR刚发布不到一天,智谱就开源了自家的视觉Token方案——Glyph。

2.智谱ai
既然是同台对垒,那自然得请这两天疯狂点赞DeepSeek的卡帕西来鉴赏一下:或许你也会对我们的工作感兴趣。

3.智谱ai是什么公司
发论文就发论文,怎么还争上宠了。(doge)网友调侃be like:AI界也有自己的霸总爱情片。

4.智谱科技干嘛的
智谱也做视觉压缩是的,与DeepSeek-OCR一样,智谱这篇论文的目标同样也是通过视觉的方式,破解当下LLM上下文冗长的难题激增的上下文随着LLM能力一路狂飙,用户和厂商对于长上下文的需求也越来越迫切。
5.智谱官网
毕竟,不论是长文档分析、代码审查,还是多轮对话,模型可不能像金鱼那样看过就忘要让它们真正靠谱地执行任务,就得有足够稳定的「工作记忆」但扩充上下文可是个相当吃力不讨好的工作举个例子:如果把上下文从50K扩到100K,算力的消耗大约会变成原来的四倍。
6.智谱科技怎么样
原因在于,更多的Token,就意味着模型需要记住更多的激活值、缓存、注意力权重,这些东西在训练和推理阶段都是靠真金白银堆出来的如果能实实在在地提升性能,多花点钱也认了可最让人心痛的是,砸了重金扩上下文,模型还不一定更聪明。
7.智谱app
IBM的研究就指出,光靠“多塞 Token”并不能保证模型表现线性提升相反,当输入太长、信息太杂时,模型反而可能陷入噪声干扰和信息过载,越看越糊涂关于这类问题,目前大概有三种比较主流的解决方案:第一类,是扩展位置编码。
8.智谱智能科技有限公司
在Transformer结构里,模型并不知道输入的先后顺序,因此要给每个Token加上“位置编码”,告诉模型这是谁先谁后而扩展位置编码的做法,就是把原有的位置编码区间直接向外延伸比如,把0~32K的位置区间“插值”到0~100K,这样,模型就能在工作时接受更长的输入,而不必重新训练。
9.下载软件智谱app
虽然如此,这并没有解决推理成本的问题,模型在推理阶段依旧要遍历所有上下文而且,模型虽然能继续读下去,但由于它在训练中从未见过如此长的上下文,现在逼着人家读肯定表现不会好第二类,是改造注意力机制既然上下文变长了,那就让模型「读」快一点,比如用稀疏注意力、线性注意力等技巧,提高每个Token的处理效率。
10.智谱科技 融资
但再怎么快,账还是那本账,Token的总量没有减少,如果上下文都到了几十万,多高的效率也顶不住第三类,是检索增强RAG路线它通过外部检索先挑重点、再喂给模型,输入变短了,推理轻快了但大家也知道,RAG的输出结果肯定不如模型基于训练数据的回答,而且还会因多出来的检索步骤拖慢整体响应。
踏破铁鞋无觅处,上下文真是个令人头疼的问题看「图」说话为了解决这个问题,研究团队提出了一种新范式——Glyph大道至简:既然纯文本的信息密度不够,那就把它放进图片里普通LLM处理文本时,是把句子拆成一个个独立的Token依次输入,效率很低。
比如,如果一句话能分成1000个Token,模型就得老老实实算1000个向量,还要在它们之间做注意力计算相比之下,Glyph不会逐字阅读,而是先把整段文字排版成图像式的视觉Token,再把这张「截图」交给VLM去处理。
之所以要这么做,是因为图像能承载的信息密度远高出纯文本,仅需一个视觉Token就能容纳原先需要好几个文本Token的内容借助这种方式,即便是一个上下文固定的VLM,无需借助稀疏注意力、RAG等工具,也能轻松吃下足以「撑死」LLM的超长文本。
举个例子:小说《简·爱》大约有240K的文本Token,对一台上下文窗口只有128K的传统LLM来说,只能塞进去一半这种情况下,如果你想问一些涉及到故事跨度比较大的问题,传统模型多半答不上来比如:女主离开桑菲尔德后,谁在她陷入困境时帮助了她?。
但如果使用Glyph,把整本书渲染成紧凑的图像,大约只需要80K视觉Token。

这样一来,同样是128K上下文的VLM就能轻松看完整部《简·爱》,对故事脉络心中有数,也能从更大的全局视角来回答问题这么立竿见影的效果,是怎么实现的呢?Glyph的训练流程主要分为三个阶段:第一阶段:持续预训练(Continual Pre-training)。
这一阶段的目标,是让模型把自己的长上下文理解能力从文字世界迁移到视觉世界具体而言,研究团队先尽可能多地将海量长文本渲染成不同风格的图像,把VLM扔在各式各样排版、字体、布局中“读图识文”,以便训练出更强的泛化能力。
在这个过程中,模型会不断学习如何把图像中的文字信息,与原始文本语义对齐第二阶段:LLM驱动的渲染搜索(LLM-driven Rendering Search)虽然多样化的渲染方式能提升模型的泛化能力,但在实际应用中,效率和精度必须兼顾。
文字如何转成图,决定了压缩率与可读性之间的微妙平衡字体太大、排版太松固然不好,这样做信息密度太低,有悖于视觉Token的初衷不过,过于追求信息密度也不是好事字体小、布局紧,虽然压缩率高,却可能让模型“看不清”,理解出现偏差。
为此,研究团队引入由LLM驱动的遗传搜索算法,让模型自动探索最优的渲染参数——比如字体大小、页面布局、图像分辨率等——力求在尽可能压缩的同时不丢语义第三阶段:后训练(Post-training)在找到最优的渲染方案后,研究团队又动手做了两件事:。
有监督微调和强化学习,旨让模型在“看图读文”这件事上更聪明、更稳此外,他们还在SFT和RL阶段都加上了辅助OCR对齐任务,教模型学会从图像里准确还原文字细节,让视觉和文本两种能力真正融为一体最终,Glyph一举练成两大神功:。
1、看懂长文,推理稳准狠2、认清细节,读图不伤脑靠着这套组合拳,Glyph在高压缩的视觉上下文任务里依然能游刃有余狂砍75%上下文读懂了原理,接下来让我们看看Glyph的实际表现如何事实证明,Glyph的确有助于大幅削减Token数。
实验结果显示,Glyph在多项长上下文基准测试中实现了3–4倍的Token压缩率,同时依然保持与主流模型(如Qwen3-8B)相当的准确度。

这种压缩不仅减轻了算力负担,还带来了约4倍的prefill与解码速度提升,以及约2倍的SFT训练加速。

更令人惊喜的是,在极端压缩的情况下,一个上下文窗口仅128K的VLM,依然能够应对相当于百万Token级的文本任务,并丝毫不落下风。

此外,虽然Glyph的训练数据主要来自渲染后的文本图像,但它在多模态任务上同样表现出色,证明了其强大的泛化潜力。

综上所述,这篇论文提出了一种名为Glyph的长上下文建模框架核心思路是把长文本“画”成图,再让VLM去看图读文,做到一目十行,从而能实现高效的上下文扩展论文作者这么厉害的成果,都是谁做出来的?论文的一作是。
Jiale Cheng,他是清华大学的博士生,主要研究方向包括自然语言生成、对话系统和相关的人工智能交互技术。

目前,Jiale已发布了多篇论文,并在谷歌学术上有不错的影响力。

此外,论文还有三位主要贡献者:Yusen Liu、Xinyu Zhang、Yulin Fei。遗憾的是,都没有太多公开资料。担任本文通讯作者的是黄民烈教授。

黄教授本科与博士均毕业于清华大学,目前是清华大学计算机科学与技术系长聘教授,同时兼任智能技术与系统实验室副主任、清华大学基础模型中心副主任此外,他还是北京聆心智能科技有限公司的创始人兼首席科学家黄教授的研究方向主要集中在人工智能、深度学习、强化学习,自然语言处理等。
像素或成最终Token继MoE名声鹊起后,DeepSeek-OCR的出现再次在AI领域掀起了一波技术革命。截至10月22日,抱抱脸上最受欢迎的前四个模型,全部都支持OCR。

一方面,自然是视觉Token本身的巨大潜力在上下文建模方面,视觉Token的表现堪称惊艳——DeepSeek-OCR仅用100个视觉Token,就能在原本需要800个文本Token的文档上取得高达97.3%的准确率。
这种效率提升,意味着AI的门槛正被迅速拉低据DeepSeek介绍,引入OCR技术后,单张NVIDIA A100-40G GPU每天可处理超过20万页文档按这个速度推算,仅需一百多张卡,就足以完成一次完整的模型预训练。
降本增效历来是开源阵营的强项,但在这次热议中,大家的关注点不再仅仅停留于此——视觉Token的出现,或许正在从底层重塑LLM的信息处理方式未来,像素可能取代文本,成为下一代AI的基本信息单元卡帕西指出,像素天生比文本更适合作为LLM的输入,主要有两点原因:。
1、信息压缩更高


评论(0)