news 2026/4/28 19:12:21

Flux.1-dev高清修复ControlNets上线

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Flux.1-dev高清修复ControlNets上线

Flux.1-dev高清修复ControlNets上线

你有没有遇到过这样的情况:一张极具潜力的概念草图,细节模糊、分辨率低下,却承载着完整的创意构想——可一旦放大,边缘就开始融化,纹理变成一团噪点?或者在做AI图像生成时,明明提示词写得足够精确,输出的画面却总是在结构上“走形”?

现在,这些问题有了更优雅的解法。三个专为FLUX.1-dev定制的 ControlNet 模型正式发布,聚焦于超分辨率增强(Upscaler)深度结构控制(Depth Map)表面法线引导(Normal Map),首次将细粒度的空间控制能力深度集成进这一前沿文生图架构中。

它们不只是简单的插件,而是针对 FLUX.1-dev 独特的 Flow Transformer 架构进行端到端优化的“神经调控器”。实测表明,在保留原始语义和几何结构的前提下,这些 ControlNet 能显著提升生成结果的清晰度、立体感与材质真实性,尤其适用于高精度艺术创作、数字资产升级和工业级视觉生成任务。

🔗立即体验:Flux.1-dev ControlNet 超分在线演示


说到 FLUX.1-dev,它早已不是传统意义上的扩散模型。这个拥有120亿参数的庞然大物,基于创新的Flow Transformer 架构,通过双向流形变换机制实现从文本到图像的精细化映射。相比标准UNet架构,它在长程依赖建模和跨模态对齐方面表现出更强的能力,使得生成图像不仅美观,而且逻辑自洽——比如能准确理解“左侧穿红衣的女人正在喂猫,右侧是黄昏下的枯树剪影”这种复杂的空间描述。

但真正让它脱颖而出的,是其作为开放研究平台的定位。FLUX.1-dev 支持模块化扩展、多阶段推理链以及灵活微调接口,这为像 ControlNet 这类外部控制器的接入提供了天然土壤。换句话说,它不只擅长“自由发挥”,更允许我们“精准指挥”。

而这套新发布的 ControlNet 套件,正是通往“可控生成”的关键一步。


先说最受关注的Upscaler ControlNet。如果你曾用传统超分工具处理老照片或低清草图,可能会发现:尽管像素数量上去了,但新增的细节往往是重复的伪影或平滑的模糊块。而这个新模型的不同之处在于——它是语义感知的

它不会凭空“猜”细节,而是结合输入图像的潜在编码与文本提示,在合理的语境下智能补全。比如你上传一张模糊的角色头像并提示“皮肤有雀斑、发丝分明”,模型会在放大过程中主动还原毛孔质感和单根头发的走向,而不是简单拉伸原有像素。

它的核心流程可以简化为这样一段逻辑:

# 伪代码示意:Upscaler ControlNet 推理流程 low_res_latent = encode_image(low_resolution_input) text_embed = encode_text(prompt) # 控制信号注入 control_signal = upscaler_controlnet(low_res_latent, scale_factor=4) # 主模型联合生成 high_res_output = flux1_dev( latent=low_res_latent, control=control_signal, text=text_embed, steps=50 )

实际效果如何?我们在一组分辨率仅为 256×256 的手绘稿上测试,输出达到 1024×1024 后,不仅人物轮廓稳定不变形,连衣褶的光影过渡都保持了原作笔触的意图。更重要的是,整个过程无需手动调整权重或启用多轮重绘,一次推理即可完成高质量重建。

这类能力对数字修复、NFT资产高清化、游戏原画迭代等场景意义重大。试想一下,艺术家只需画个草图,就能一键生成可用于印刷级别的成品,创作效率直接跃升一个量级。


再来看Depth Map ControlNet。如果说 Upscaler 解决的是“看得清”的问题,那 Depth 版本解决的就是“站得稳”的问题。

很多用户抱怨 AI 生成的建筑或室内场景看起来“扁平”,缺乏真实的空间纵深感。这是因为模型虽然知道“有些建筑在远处”,但并不清楚它们之间的相对距离。而 Depth ControlNet 正是用来填补这一空白的。

它能够从任意输入图像中提取粗略的深度分布图,并将其作为空间约束传递给主模型。这意味着你可以:
- 把一张二维线稿转成具有合理透视的真实街景;
- 在更换材质时保持墙体前后关系不变;
- 甚至配合相机参数生成视角连续变化的新视图(novel view synthesis)。

该模型采用两阶段训练策略:先在 NYU Depth v2 等真实数据集上预训练,再通过对抗蒸馏方式对齐 FLUX.1-dev 的潜在空间。因此即使面对风格化较强的输入(如卡通、水墨),也能输出稳定的深度估计。

使用方式也很直观,类似 Stable Diffusion WebUI 的语法即可调用:

prompt: "a futuristic city at night, neon lights reflecting on wet streets" negative_prompt: "flat, cartoonish, distorted buildings" # 启用 Depth ControlNet controlnet_condition: depth_map_from_input.jpg controlnet_model: flux1-dev-depth-controlnet-v1 controlnet_weight: 0.8

你会发现,最终画面中的楼宇不再“漂浮”在空中,地面坡度与遮挡关系也更加符合物理直觉。


第三个成员是Normal Map ControlNet,可能听起来最“硬核”,但在专业领域却是杀手级功能。

法线贴图记录的是每个像素点处表面微几何的方向信息,常用于游戏引擎中模拟凹凸细节而不增加模型面数。现在,这套能力被引入到了生成流程中。

启用 Normal Map ControlNet 后,你可以做到:
- 给一个低多边形角色轮廓,“贴”上真实的皮革皱纹或金属划痕;
- 精确控制反光角度,使光源方向与材质响应一致;
- 批量生成同一法线基础上的不同材质变体(如“同一个布料结构,分别呈现棉、丝、麻的效果”)。

这对虚拟服装设计、产品原型渲染、材质数据库自动化构建等任务极具价值。以往需要美术师手动绘制的贴图流程,现在可以通过“一张草图 + 一条提示词”快速生成多个候选方案。


那么,怎么把这些模型用起来?

目前三款 ControlNet 均已开源并托管于 Hugging Face Model Hub,可通过diffusers库直接加载使用。以下是基本调用示例:

# 安装最新版支持库 pip install -U transformers diffusers torch
from diffusers import Flux1DevPipeline, Flux1DevControlNetModel import torch # 加载主模型 pipe = Flux1DevPipeline.from_pretrained("jasperai/flux-1-dev", torch_dtype=torch.float16).to("cuda") # 加载指定 ControlNet controlnet = Flux1DevControlNetModel.from_pretrained( "jasperai/flux-1-dev-controlnet-upscaler", torch_dtype=torch.float16 ) # 推理时传入控制图像 result = pipe( prompt="intricate details of a dragon scale texture", image=low_res_input, # 控制信号源 controlnet=controlnet, num_inference_steps=30 ).images[0] result.save("enhanced_dragon_texture.png")

所有模型均可自由下载与商用(遵循各页面许可协议):

  • 📌Upscaler: jasperai/flux-1-dev-controlnet-upscaler
  • 📌Depth: jasperai/flux-1-dev-controlnet-depth
  • 📌Normal: jasperai/flux-1-dev-controlnet-normal

此外,团队还提供了在线试用空间,无需本地部署即可上传图像实时查看增强效果,非常适合快速验证想法。


回头想想,早期的文生图模型更像是“灵感抽奖机”——你写下提示词,祈祷抽中一张可用的结果。而今天的 FLUX.1-dev + ControlNet 组合,则让我们逐步迈向一种新的范式:可编程的视觉生成系统

设计师不再被动筛选输出,而是能主动设定结构骨架、控制放大路径、锁定材质属性。研究人员也能借此探索更复杂的多模态推理链,比如“草图 → 深度估计 → 材质分配 → 多视角展开”的全流程自动化。

这不仅仅是技术的进步,更是创作权力的转移——从依赖随机采样,转向真正的意图驱动。

也许下一个惊艳的 AI 艺术作品,不需要反复跑图百次,只需要一次精准的控制信号注入,就能自然浮现。

立即尝试 → Flux.1-dev ControlNet 在线体验
获取模型 → Hugging Face Model Hub


© 2025 FLUX.AI Research Team | 开源许可协议详见各模型页面

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/28 16:57:13

python实现密码暴力破解

实战:DVWA靶场靶场设置:low级别判断是否登录成功:看返回的http请求里面是否有Username and/or password incorrect.我们这里假设知道用户名是admin不知道密码,要去破解密码思路:(1)从字典读取值…

作者头像 李华
网站建设 2026/4/22 13:58:18

在Windows应用中部署高性能AI模型的RTX优化方案

在Windows应用程序中于NVIDIA RTX AI PC上部署高性能AI模型 如今,某中心正面向开发者提供Windows ML。Windows ML使C#、C和Python开发者能够利用PC硬件(从CPU、NPU到GPU)在本地高效运行AI模型。在NVIDIA RTX GPU上,它利用为RTX定制…

作者头像 李华
网站建设 2026/4/28 7:40:29

注意!ACM系列会议/期刊将于2026年起全面收取APC费用

计算机领域知名出版机构 ACM(Association for Computing Machinery,计算机协会)宣布,自 2026 年 1 月 1 日起,所有通过 ACM 出版的会议论文和期刊文章将收取 APC(Article Processing Charges,文…

作者头像 李华
网站建设 2026/4/18 17:15:42

重磅!中科院2区SCI 被剔除!新增4本On Hold除名,12月WOS更新

2025年12月WoS更新当地时间2025年12月15日,WoS数据库更新了SCI、SSCI、ESCI、AHCI期刊目录,详情如下:2本SCI、1本SSCI、10本ESCI期刊被踢除1、Journal of Molecular Liquids• ISSN:0167-7322• 影响因子:5.2• 分区&a…

作者头像 李华
网站建设 2026/4/23 7:09:11

Thinc v9.0.0 发布:更好的学习率调度与AppleOps集成

主要新特性 Thinc v9 的主要新特性是支持能够考虑训练动态的学习率调度。例如,新的 plateau.v1 调度器会在经过给定的评估步骤后仍未发现训练进展时,调整学习率。另一个显著变化是 AppleOps 现已集成到 Thinc 中,因此在 Apple Silicon 上使用…

作者头像 李华
网站建设 2026/4/23 11:38:21

AI前沿动态:模型发布、超级计算与对齐挑战

LWiAI播客第216期 - Grok 4, Project Rainier, Kimi K2 我们的第216期节目,总结并讨论了上周AI领域的重大新闻! 录制于2025年07月11日。 本期内容概览: xAI发布Grok 4,在多项基准测试中取得突破性性能,成为传统大型实验…

作者头像 李华