vLLM-Omni是vLLM团队推出的全模态框架,扩展了原vLLM的文本处理能力,支持图像、视频和音频等多种模态。它采用非自回归架构和异构输出技术,具有高效缓存管理、流水线并行执行等优势。该框架易用性强,兼容Hugging Face热门模型,提供标准API接口,支持分布式推理。文章详细介绍了安装方法和离线/在线推理示例,为开发者提供了全模态大模型部署的完整解决方案。
但是部署多模态,尤其是最近 N 多全模态大模型,vLLM 就有点捉襟见肘了
vllm-project 团队开源了一个新框架——vLLM-Omni
vLLM-Omni
- 什么是 vLLM-Omni? 最初,vLLM 是为大规模语言模型(LLM)的文本生成任务量身定制的。
然而,随着需求演进,vLLM-Omni将其能力扩展到了更广阔的领域:
•全模态支持:它不仅能处理文本,还支持图像、视频和音频数据。 •非自回归架构:除了支持传统的自回归模型,它还扩展支持了DiT和其他并行生成模型。 • 异构输出**:能够实现从传统文本生成到各种多模态输出的跨越。 - 核心技术优势:为什么它如此之快? •高效的缓存管理:继承并优化了 vLLM 的KV 缓存管理机制。 •流水线并行执行:通过阶段执行的重叠(overlapping)来实现高吞吐量性能。 •灵活的资源调度:基于OmniConnector的全解耦架构,支持跨阶段的动态资源分配。 **高性能 (Performance)**:利用流水线阶段执行来重叠计算,确保高吞吐量性能。当一个阶段在处理时,其他阶段不会闲置。
vLLM-Omni 和 Hugging Face Transformers 对比,展示了在全模态服务中的效率提升。
- 易用性与生态兼容性 对于开发者而言,vLLM-Omni 极易上手且高度兼容,如果你会用 vLLM,你就会用 vLLM-Omni: •无缝集成:支持 Hugging Face 上最热门的开源模型,例如Qwen-Omni和Qwen-Image。 •标准接口:提供与OpenAI 兼容的 API 服务器,极大降低了集成成本。 •分布式推理:支持张量并行、流水线并行、数据并行以及专家并行(EP)。 •开发语言:该项目主要由Python (98.5%)编写,方便社区进行二次开发和贡献。
vLLM-Omni 是首批支持全模态模型服务的开源框架之一,它将 vLLM 卓越的性能扩展到了多模态和非自回归推理的世界。
目前支持的模型
N 卡上阿里 Qwen 能打的多模态模型及户全都支持,华为 NPU 也支持,只是可用模型较少
安装 vllm-omni
推荐使用 uv 进行环境管理
uv venv --python 3.12 --seedsource .venv/bin/activateuv pip install vllm==0.12.0 --torch-backend=autouv pip install vllm-omni内网部署的话,Docker 是必须的
镜像下载:https://hub.docker.com/r/vllm/vllm-omni
docker run --runtime nvidia --gpus 2 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=$HF_TOKEN" \ -p 8091:8091 \ --ipc=host \ vllm/vllm-omni:v0.11.0rc1 \ --model Qwen/Qwen3-Omni-30B-A3B-Instruct --port 8091使用方法:离线推理
以下是使用Tongyi-MAI/Z-Image-Turbo模型进行文生图的简单示例:
from vllm_omni.entrypoints.omni import Omni if __name__ == "__main__": # 初始化 Omni 模型 omni = Omni(model="Tongyi-MAI/Z-Image-Turbo") prompt = "a cup of coffee on the table" # 生成图像 images = omni.generate(prompt) # 保存结果 images[0].save("coffee.png")也可以直接命令行
python text_to_image.py \ --model Tongyi-MAI/Z-Image-Turbo \ --prompt "a cup of coffee on the table" \ --seed 42 \ --cfg_scale 4.0 \ --num_images_per_prompt 1 \ --num_inference_steps 50 \ --height 1024 \ --width 1024 \ --output outputs/coffee.png使用方法:在线推理
启动脚本:
vllm serve Qwen/Qwen-Image --omni --port 8091Method 1: curl 调用 API
curl -s http://localhost:8091/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "messages": [ {"role": "user", "content": "A beautiful landscape painting"} ], "extra_body": { "height": 1024, "width": 1024, "num_inference_steps": 50, "true_cfg_scale": 4.0, "seed": 42 } }' | jq -r '.choices[0].message.content[0].image_url.url' | cut -d',' -f2 | base64 -d > output.pngMethod 2: Python Client 调用
python openai_chat_client.py --prompt "A beautiful landscape painting" --output output.pngMethod 3: 使用 Gradio Demo¶
官方还提供了 Gradio 实现的前端
#https://github.com/vllm-project/vllm-omnipython gradio_demo.py然后浏览器访问http://localhost:7860
完成脚本:https://github.com/vllm-project/vllm-omni/blob/main/examples/online_serving/text_to_image/gradio_demo.py
最后,官方还提供了一系列实用教程,涉及文生图、图生图、全模态等等:
https://docs.vllm.ai/projects/vllm-omni/en/latest/user_guide/examples/online_serving/text_to_image/#example-materials
在最后,这个项目的核心开发者都是中国面孔
后续我要用 4090 实际运行 Z-Image-Turbo 并进行实测,教程后续更新
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
为什么说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程⑤⑥
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**