news 2026/5/8 15:56:30

港大与字节跳动联手:让AI图像编辑“自我审查“

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
港大与字节跳动联手:让AI图像编辑“自我审查“

这项由香港大学计算与数据科学学院、字节跳动Seed团队、深圳环湾区具身AI与计算机视觉研究中心以及香港中文大学联合完成的研究,于2026年4月30日以预印本形式发布在arXiv平台,论文编号为arXiv:2604.27505v1。感兴趣的读者可以通过这个编号直接检索原文。

一、"图片改坏了也不自知"——AI图像编辑面临的核心困境

每次你用手机修图软件说"把背景换成海边",软件不仅把背景换了,还顺手把你的脸色也调成了沙滩黄,这种令人哭笑不得的经历,其实折射出一个深层的技术难题:AI怎么判断自己改得好不好?

在当今的AI世界里,文字生成图片(Text-to-Image)已经相当成熟。研究者们有一套叫做"人类反馈强化学习"(RLHF)的训练方法,简单说就是让AI根据人类的喜好进行奖惩式学习——做得好就加分,做得差就扣分。这套机制让文生图AI越来越懂得怎样讨人喜欢。

然而图像编辑这件事,比凭空画一张图要复杂得多。编辑一张图不仅要求AI"画出指令要求的内容",还要求它"保留不该动的地方",同时还得"整体看起来自然不别扭"。这三个要求同时满足,难度远超简单的图片生成。

更糟糕的是,现有的AI图像编辑系统缺乏一个靠谱的"审查员"。大多数系统要么用一个通用的AI打一个总分,就好比让一个不懂音乐的人给交响乐演奏打分——他可能只会说"听起来挺响亮的",却完全无法区分哪个乐手跑调了。这种笼统的评分方式,导致AI拿到的反馈信号模糊不清,自然也就学不到真正有价值的东西。

面对这个困境,来自港大和字节跳动的研究团队提出了一个核心洞见:与其用一个只会打总分的裁判,不如培养一个会"逐条对账"的核查员。他们将这套系统命名为Edit-R1,其中最关键的组件叫做"推理奖励模型"(Reasoning Reward Model,简称RRM)。

二、从"打分员"到"核查员"——Edit-R1的核心思路

Edit-R1的核心哲学,可以用一个生活场景来理解:装修验收。

当你的新房装修完成,一个不靠谱的验收员可能只是站在门口看了一眼说"感觉还不错,给85分"。但一个专业的验收员会拿着清单,逐项检查:墙面有没有开裂?插座位置对不对?水管压力达标了吗?地板铺设是否平整?每一项都有明确的判断标准,最终的综合评价建立在每个细节都核查过的基础上。

Edit-R1要打造的,正是这样一个"专业验收员"。具体来说,当AI编辑完一张图,这个验收员会先把编辑指令拆解成若干条具体原则,然后逐条比对编辑后的图片,最后把所有单项结果汇总成一个有依据的综合得分。

这种方式被研究团队称为"链式思考"(Chain-of-Thought,简称CoT)验证。链式思考并不是什么神秘技术,本质上就是让AI在给出结论之前,先把思考过程一步步写出来,就像数学考试要求写解题过程一样。这样做的好处是,AI给出的每个判断都有迹可循,而不是从黑箱里突然蹦出一个数字。

这套验证体系把每次图像编辑分解为三类原则:第一类是"保留"原则,即哪些东西应该保持原样,比如人物的面部特征、背景中的特定元素;第二类是"执行"原则,即编辑指令要求改变的内容是否确实完成了,比如颜色是否变了、风格是否转换了;第三类是"质量"原则,即编辑后的图片整体视觉效果是否自然、有没有出现奇怪的瑕疵。

三、两阶段训练:先"模仿高手",再"自我打磨"

知道了要做什么,接下来的问题是怎么训练出这样一个核查员。研究团队设计了一套两阶段的训练流程,第一阶段打好基础,第二阶段精益求精。

第一阶段叫做"冷启动监督微调"(Cold-Start SFT)。顾名思义,就像汽车在冬天需要先预热才能顺畅行驶,AI也需要一个冷启动过程。研究团队首先准备了一个规模庞大的训练数据集——从公开的图像编辑基准数据集中精选了20万个样本。这20万个样本被分成两部分:前10万个是随机抽取的,代表各种常见的编辑任务;后10万个是专门筛选出来的"硬核"案例,这些案例往往需要多步骤的视觉修改、精细的细节处理,或者需要理解隐含的语义信息,总之就是那些容易让AI犯错的棘手情况。

为了生成训练数据,研究团队调用了多个图像编辑模型(包括Flux-Kontext、Bagel、SeedEdit3.0等)对这些样本进行编辑,生成了约200万个"四元组"数据,每个四元组包含原始图片、编辑指令、分解后的原则集合,以及一张编辑后的图片。接下来,他们用多个大型视觉语言模型对这些四元组进行"链式思考"打分,通过改变提示词、调整采样温度、使用不同的AI变体等方式,为每个四元组生成多个不同的"思考+评分"候选版本。

关键的一步在于如何筛选出质量最高的训练样本。研究团队引入了另一个AI充当"质量控制官"——由SeedVLM-1.5担任,对每个候选的推理链条进行独立验证,计算出每条推理链对各个原则的判断准确率,然后选取准确率最高的那个版本作为最终的训练数据。这个过程就好比组织一次作文竞赛,多位学生针对同一道题写解题过程,然后由老师批改,选出逻辑最严密、答案最准确的那篇作为范文供其他人学习。

经过第一阶段训练的模型已经具备了相当不错的推理和评分能力,但研究团队发现它还有明显的局限性:有时候会产生"幻觉"——比如明明一个物体只是略微移动了一点点,它却声称指令已经完全完成;有时候又会过于主观,判断结果与人类的真实偏好存在偏差。

于是第二阶段登场了,这就是研究团队提出的全新算法——"群体对比偏好优化"(Group Contrastive Preference Optimization,简称GCPO)。

四、GCPO:用"擂台赛积分制"来训练AI的审美观

GCPO的设计思路,可以用一个体育赛事来理解——不妨把它想象成一场乒乓球循环赛的积分制度。

在传统的AI训练中,人类标注员会给出两张图片,说"这张比那张好"(A>B)。这种"一对一比较"的数据很常见,但它有一个内在的麻烦:这个核查员AI本身是一个"按步骤思考然后给出评分"的系统,每次评分都会带有一定的随机性,同一张图片两次打分可能稍有不同。如何把这种"每次打分结果不完全一样"的特性,与人类提供的"A比B好"这种确定性判断协调起来?这是一个技术难题。

GCPO的解法是:对每张图片进行多次独立打分,然后通过"跨组竞争"来计算每次打分的奖励信号。

具体操作是这样的:研究团队准备了约1万组由人工标注的偏好对(即人类判断哪张编辑得更好)。对于每一对图片,让核查员AI分别对两张图片各生成N个打分结果。然后进行一场"循环赛":把"更好"那张图的每一个打分结果,都和"更差"那张图的每一个打分结果进行比较,统计"更好"那张图的打分比"更差"那张图高的比例,这个比例就是这次打分的"胜率奖励"。对称地,"更差"那张图的每次打分能比"更好"那张图低的比例,就是它的"败率奖励"。

有了这些奖励数值之后,再在各自的打分组内部计算"相对表现"——比如在对"更好"图片的N次打分中,某次打分如果高于平均水平,就给正向激励,低于平均水平就给负向抑制。这个"组内相对表现"就是所谓的"优势值"(Advantage)。

这套机制的精妙之处在于,它巧妙地将"哪张图比较好"的人类判断,转化成了对AI核查员自身推理过程的直接训练信号,同时通过多次采样平均掉了单次打分的随机噪声。整个过程只需要1万组人类标注数据,还不到第一阶段训练数据量的1%,却能带来显著的性能提升。

从训练过程的曲线来看,经过GCPO训练的核查员AI会逐渐养成一个有趣的习惯:对于正确的判断,它会生成更长的推理链条,把证据分析得更仔细;这从某种意义上说明AI学会了"谨慎"——不轻易下结论,而是把每个细节都想清楚再给分。

五、把"核查员"变成"教练"——用奖励模型来提升编辑模型

有了一个靠谱的核查员之后,第二个大问题随之而来:怎么用它来提升负责编辑图片的AI?

这里有一个技术上的难点:传统的某些训练方法(如REFL)要求奖励模型的打分过程对训练过程"透明可微",就好比教练不仅要告诉运动员"你跳高没跳过去",还要能精确指出"你起跳时左脚用力角度差了2度"——需要能够精确计算影响因子。然而Edit-RRM是一个"先思考再打分"的系统,其推理过程是通过逐字生成文本来实现的,这个过程在数学上是不可微分的,就像你没法对"写日记"这个过程求导数一样。

研究团队因此采用了一种叫做GRPO(Group Relative Policy Optimization,群体相对策略优化)的强化学习算法,这套方法不需要奖励信号可微,只需要它能输出一个数字就够了。

训练过程是这样运作的:编辑模型在面对一个图像编辑任务时,会同时生成一批不同的编辑结果(研究中设置为24张)。核查员对每张结果进行评分,然后计算每张结果的相对排名——在这批24张图中,某张图的分数高于平均就得到正向激励,低于平均就受到负向约束。与此同时,还设置了一个KL散度惩罚项,防止编辑模型的输出风格变化过大,就好比给运动员训练时设置了一个"不能偏离基本姿势太远"的约束,避免过度优化反而走形。

研究团队将Edit-R1应用到了两个当前最先进的开源图像编辑模型上:FLUX.Kontext和Qwen-Image-Edit,以此验证这套框架的实际效果。

六、实验结果:核查员越严格,编辑效果越好

研究团队从两个角度评估了Edit-R1的效果:一是核查员本身的准确性,二是被核查员训练过的编辑模型的实际水平。

在核查员的评估上,研究团队构建了一个内部测试基准,包含5000个经过人工标注偏好的图像编辑对。测试结果显示,完整训练出来的7B参数(70亿参数)版本核查员达到了82.22%的准确率,这意味着在100次人类评判中,这个核查员能与人类意见吻合超过82次。这个成绩明显超过了Seed-1.5-VL(79.3%)和Seed-1.6-VL(77.2%)这两个强大的商用API——值得注意的是,这两个都是字节跳动自家的强力视觉语言模型,能超过它们实属不易。

在公开的独立测试基准EditRewardBench上,这种优势依然存在。竞品EditScore-7B的准确率是65.9%(即便使用推理扩展技术也只能达到72.7%),而Edit-RRM仅凭第一阶段的监督微调就达到了73.3%,加入GCPO后进一步提升到78.2%。由于EditRewardBench是独立构建的,与研究团队的内部流程完全不相关,这个结果可以有效排除"内部测试偏向"的质疑。

研究团队还发现了一个有意义的规律:核查员规模越大,效果越好——3B参数版本和7B参数版本之间存在明显的性能差距,展示出清晰的"参数规模扩展效益"。

在训练动态上有一个反直觉的现象值得一提:经过GCPO训练的核查员(RL-RRM)在给编辑模型训练时,提供的"训练奖励"反而比未经GCPO训练的版本(SFT-RRM)更低,但"测试奖励"却更高。这说明GCPO把核查员训练得更加严格,它不会随随便便给高分——正是这种严格反而倒逼编辑模型做得更好。

在对编辑模型的提升效果上,以FLUX.Kontext为例,经过Edit-R1框架训练后,其综合得分(Overall Score)从5.77提升到了6.24,语义一致性得分(Semantic Consistency)从6.27跃升至6.86。在最具挑战性的"动作变化"类别(如让静止的猫变成奔跑状态)上,相对提升幅度达到了15.2%(从4.01提升到4.62)。在人工评测中,使用了Edit-R1框架训练的FLUX.Kontext的GSB得分达到了+23.2,意味着人类评审认为它明显优于原始版本。

对于已经相当强大的Qwen-Edit模型,整体提升幅度较小(综合得分从7.45提升到7.50),这主要是因为该模型本身已经受益于大量的Best-of-N采样优化。但即便如此,在"动作变化"这类难度极高的任务上,Edit-R1依然带来了显著改善。

定性结果同样令人印象深刻。在"颜色更改"任务中,Edit-R1能够精确地只修改目标物体的颜色,而不会引发全图的色调变化;在"物体添加/删除"任务中,基线模型往往无法准确理解指令,而Edit-R1训练过的模型能够正确执行;在"材质替换"(比如把小狗变成粘土质感)和"动作变更"(比如让飞机处于起飞状态)等复杂任务上,改进效果尤为明显。

七、一个具体案例:RRM如何抓住"帽子颜色走偏"的错误

研究团队在论文中展示了一个生动的失败矫正案例,可以直观地理解Edit-R1整个系统的运作逻辑。

任务是:给一个卡通小女孩的短袖上衣改成红色,同时保留她的蓝色帽子、双麻花辫、浅棕色下装以及背景中的绿色叶片和石头。

在仅使用第一阶段监督微调的SFT模型输出中,有一张"失败样本":上衣确实变成了红色,但帽子也跟着变成了红色——属于典型的"属性扩散"错误,改了不该改的东西。

核查员AI(RRM)对这张失败图片逐条进行了原则核查,在检查"帽子是否保留了原来的浅蓝色风格"这一条时,给出了0分(未通过),并在推理过程中明确指出了这个问题。这个精确的扣分信号通过强化学习传导给了编辑模型,使其在后续训练中学会了"只改上衣颜色,不影响帽子颜色"。

经过强化学习训练后,该模型的"成功样本"完美地完成了任务:上衣变红,帽子依然是蓝色,其他所有细节都保持原样。RRM对这张图片的每一条原则都给出了1分(通过),最终得出满意的综合评价。

这个案例清晰地展示了从笼统打分到逐条核查的范式转变带来的实际价值——正是那一条针对帽子颜色的精确扣分,让AI学会了区分"该改的"和"不该改的"。

说到底,Edit-R1做的事情,就是给AI图像编辑系统安装了一套"逐条对账"的质检系统,而不是简单地"看一眼打个分"。这套质检系统不仅自己越来越准(超过了商用大模型API的判断准确率),还能有效地督促负责编辑图片的AI做得更好。

这对于普通用户意味着什么?短期来看,受益于这类研究,图像编辑软件会变得更听话——你让它只改颜色,它就只改颜色;你让它换背景,它就不会顺手动你的脸。长期来看,这种"把大任务拆成小任务逐条核查"的思路,可能会成为让AI在各类复杂任务中做得更精确的通用方法论。

值得思考的是,当AI拥有了越来越精准的自我评判能力,我们是否需要重新考虑"什么叫做一张编辑得好的照片"?毕竟,AI的判断标准来自于人类的标注数据,而人类的审美本身也在不断变化。感兴趣的读者可以通过arXiv上的论文编号2604.27505进一步探索这个研究的技术细节。

Q&A

Q1:Edit-RRM和普通打分AI有什么区别?

A:普通打分AI通常只看一眼图片就输出一个总分,无法说明哪里好哪里不好。Edit-RRM则会先把编辑指令拆解成若干条具体原则,比如"颜色是否改变了"、"背景是否保留了"、"整体质量是否自然",逐条核查后再综合出最终分数,这样每个判断都有明确依据,评分结果也更接近人类的真实判断。

Q2:GCPO算法为什么只需要1万条人类标注数据就能有效果?

A:GCPO的核心是对每张图片生成多次独立评分,然后通过"跨组比较"把人类的偏好判断(A比B好)转化成具体的奖励信号。多次采样平均掉了单次打分的随机性,使得每条人类标注数据能提供更丰富的训练信号。因此哪怕只有1万条数据,也能有效精准地调整模型的判断偏好。

Q3:Edit-R1框架可以用在哪些图像编辑软件上?

A:Edit-R1是一个通用的训练框架,研究团队已经成功将其应用于FLUX.Kontext和Qwen-Image-Edit两个开源图像编辑模型,均取得了明显改进。理论上,任何基于流匹配或扩散模型的图像编辑系统都可以接入这套框架,只要其生成过程支持GRPO算法所需的采样和优化操作即可。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/8 15:56:25

从九大网盘到专业下载:LinkSwift如何重塑你的文件管理体验

从九大网盘到专业下载:LinkSwift如何重塑你的文件管理体验 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 ,支持 百度网盘 / 阿里云盘 / 中国移动云盘 / …

作者头像 李华
网站建设 2026/5/8 15:54:17

API认证第三课:美国石油学会API认证流程(API Q1专项)

美国石油学会(API)认证的核心的是会标许可(Monogram)与质量体系注册(API QR/Q1),其中API Q1作为应用最广泛的质量体系认证,其整体流程规范且严谨,共分为前期准备、体系建…

作者头像 李华