news 2026/5/15 12:41:05

机器学习周报三十四

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
机器学习周报三十四

文章目录

    • 摘要
    • Abstract
      • 1 RandAR
      • 总结

摘要

自回归模型应用到视觉领域有所拓展,但是没有达到自回归模型在语言处理领域的GPT时刻,本周看到一篇探索自回归模型如何达到GPT时刻的论文。

Abstract

Autoregressive models have been applied in the visual field, but they have not yet reached the ‘GPT moment’ that autoregressive models achieved in language processing. This week, I came across a paper exploring how autoregressive models could reach the GPT moment.

1 RandAR


Auto-Regressive (AR) 范式,提供了把所有文本任务、文本应用统一在一起的Formulation。
结合Decoder-only结构,Next-token Prediction使得大规模训练对Infra友好、可以非常高效。
正因为第一点”统一的Formulation",可以收集海量数据,最终得到一个能够Zero-shot泛化的大模型。
是什么限制了这些模型复刻GPT范式的成功:按照一维的顺序做Next-token Prediction,势必要把二维的Image Tokens转化成一维的序列,而之前的方法在这里采用了一个提前规定好的顺序——Raster-Order,也就是从图片的左上角开始一行一行地生成Image Tokens,
无法按照任意顺序处理Image Tokens,所以很显然,他们面对editing任务或者针对图片特定区域Perception的任务会很挣扎。因此,这样的Next-token Prediction很难成为"把所有任务统一在一起的Formulation"——也就是违背了上面GPT成功的第一个条件。
无法Zero-shot泛化,也正是因为生成顺序的限制,这样的模型很难未经训练直接泛化到新的场景上,比如说新的图片分辨率(resolution)、提取图片的Representation。也就违背了上面的第三个条件。
RandAR的起点:
让一个和GPT相同的Decoder-only Transformer可以按照Random-order生成图像
RandAR可以Zero-shot泛化到新的场景上,包括但不限于一些全新的角度——Parallel Decoding (next set-of-token)、生成更高分辨率图片,而且它还可以直接做Generative Model的另一面——Representation Learning。
既然我们想要让模型可以生成任意顺序的图像Token,那么我们需要把顺序用某种方式“告诉”模型。我们用一种特殊的Token,叫做"Position Instruction Tokens",代表下一个需要生成的Image Token在哪个位置,来指导模型生成Image Tokens。

Parallel Decoding:每一步同时生成多个来自随机位置的Token即可。这样的方式可以直接提速2.5倍,而不会带来任何的FID降低。这是由训练的随机性天然得到的,不需要任何的微调和改变。
图像编辑、Inpainting、Outpainting:可以处理任意顺序,我们的RandAR可以解决这两种应用。方法很简单:把所有已知的上下文(Context Tokens)放在一开始,然后让模型去生成新的Tokens。
Zero-shot放大分辨率:模型是在256x256的图片上训练的,那么它的参数是否可以直接生成更大分辨率,例如512x512的图片?在这里,我们特殊强调要求图片必须展示一个unified object,而不是通过Outpainting可以实现。我们因为可以控制生成顺序,所以提出了两步走的方法:
第一步先找对应低分辨率的Token生成,得到全局结构
第二步再去填充高分辨率的Token,得到高频细节

Representation Learning:Decoder-only模型采用的是Causal Attention,也就意味着在序列中靠前的Token没有办法”看见“在后面的Token,那它的Representation就只能代表很少的一部分信息。最极端的例子就是——第一个图片Token只有它自己Patch的信息,根本无法知道图片的其它位置。
一个直接的解决办法就是——把图像Token序列再输入一遍,然后只取第二轮序列的Representation,这样每个图片Token都可以得到完整的图片信息了。从对比中可以看到,使用了Random-order的模型可以直接泛化到这种提取Representation的方式,但是按照Raster-order训练的模型却会直接崩掉。

总结

RandAR与RAR的思路很类似,也提出了很好的思路,后续会将这个工程复现。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/10 1:27:26

霜儿-汉服-造相Z-Turbo开源可部署:提供Ansible自动化部署Playbook

霜儿-汉服-造相Z-Turbo开源可部署:提供Ansible自动化部署Playbook 想快速搭建一个能生成唯美古风汉服人像的AI模型服务吗?今天要介绍的“霜儿-汉服-造相Z-Turbo”就是一个专门为此设计的开源项目。它基于强大的Z-Image-Turbo模型,并融合了精…

作者头像 李华
网站建设 2026/5/3 4:38:29

遥感图像处理新利器:Git-RSCLIP快速入门

遥感图像处理新利器:Git-RSCLIP快速入门 你是不是也遇到过这样的烦恼?面对海量的卫星遥感图像,想快速找到特定地物(比如河流、农田、机场)的图片,却只能一张张人工翻看,效率极低。或者&#xf…

作者头像 李华
网站建设 2026/5/1 17:21:46

工业机器人视觉系统:EagleEye+DAMO-YOLO TinyNAS实现精准抓取

工业机器人视觉系统:EagleEyeDAMO-YOLO TinyNAS实现精准抓取 想象一下,一条繁忙的自动化生产线上,机械臂正以惊人的速度分拣着形态各异的零件。它不需要预先编程每个零件的精确位置,也不需要昂贵的定制夹具。它只需要“看”一眼&…

作者头像 李华
网站建设 2026/5/14 11:07:04

GLM-OCR详细步骤:升级Transformers至最新稳定版避免tokenize兼容问题

GLM-OCR详细步骤:升级Transformers至最新稳定版避免tokenize兼容问题 如果你在部署GLM-OCR时遇到了奇怪的报错,比如tokenize函数调用失败,或者模型加载时出现版本不匹配的警告,那很可能是因为transformers库的版本问题。GLM-OCR作…

作者头像 李华
网站建设 2026/5/1 6:06:19

轻量级AI助手:用granite-4.0-h-350m实现代码补全与文本摘要

轻量级AI助手:用granite-4.0-h-350m实现代码补全与文本摘要 1. 为什么你需要一个“能装进U盘”的AI助手? 你有没有过这样的经历:在客户现场调试系统,突然需要快速补全一段Python函数;或者在出差路上收到一份20页的技…

作者头像 李华
网站建设 2026/5/7 11:57:35

internlm2-chat-1.8b在科研辅助场景:论文润色+英文摘要生成+查重建议

internlm2-chat-1.8b在科研辅助场景:论文润色英文摘要生成查重建议 如果你是一名研究生、科研工作者,或者正在为毕业论文发愁的学生,这篇文章就是为你准备的。写论文最头疼的是什么?是反复修改的语法错误,是憋不出一个…

作者头像 李华