news 2026/4/15 17:13:18

Ryuko-NEHT Reloaded! MAME 0.116 游戏合集

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Ryuko-NEHT Reloaded! MAME 0.116 游戏合集

Ryuko-NEHT Reloaded! MAME 0.116 游戏合集

站在巨人的肩上,走的更远。

镜像/应用大全,欢迎访问

一键模型下载,推理,微调,合并工具。


# 一锤定音(大模型工具)

ms-swift是魔搭社区提供的大模型与多模态大模型训练部署框架,现已支持600+ 纯文本大模型300+ 多模态大模型的完整生命周期管理,涵盖预训练、微调、人类对齐、推理、评测、量化与部署。开发者可在ms-swift框架中一站式完成从模型下载到上线的全流程操作。

本项目基于MAME 0.116核心构建,融合 Ryuko-NEHT 团队经典 ROM 合集,并以现代 AI 工具链为内核,打造“复古游戏模拟”与“前沿大模型开发”双轨并行的技术实验平台 —— 正如其名:Ryuko-NEHT Reloaded!

我们不仅复刻了经典街机的灵魂,更将其精神注入当代人工智能工程化实践中。


🛠️ 核心能力概览

功能模块支持详情
✅ 模型类型覆盖 LLaMA、Qwen、ChatGLM、Baichuan、InternLM、Phi、StableLM、Falcon、Dolly、BLOOM、OPT、T5、GPT-NeoX、Mistral、Mixtral、DeepSeek、Yi、Cohere、Command-R、OLMo 等主流架构;支持图像生成、视频理解、语音识别、图文问答等多模态任务
✅ 数据集支持内置 150+ 高质量数据集,包括 Alpaca、ShareGPT、UltraFeedback、PKU-SafeRLHF、CoIG、VisualWeb、LLaVA-Instruct、ImageNet、ASR-Corpus 等,同时支持自定义数据集上传与格式解析
✅ 硬件兼容性支持 CPU、NVIDIA RTX 全系列显卡(T4/V100/A10/A100/H100)、华为 Ascend NPU、Apple MPS(M1/M2/M3)等多种异构设备
✅ 训练方式提供 LoRA、QLoRA、DoRA、LoRA+、ReFT、RS-LoRA、LLaMAPro、Adapter、GaLore、Q-Galore、LISA、UnSloth、Liger-Kernel 等轻量级参数高效微调技术
✅ 分布式训练支持 DDP、device_map 模型切分、DeepSpeed ZeRO-2/ZeRO-3、FSDP、Megatron-LM 并行策略,可实现千亿参数模型的高效训练
✅ 量化训练支持 BNB、AWQ、GPTQ、AQLM、HQQ、EETQ 等量化方案下的继续训练(QLoRA + GPTQ 协同训练)
✅ 对齐训练(RLHF/DPO类)完整支持 DPO、GRPO、KTO、SimPO、ORPO、CPO、PPO、RM 建模、GKD 等人类偏好对齐算法
✅ 多模态训练支持 VQA、Captioning、OCR、Grounding、Video-QA 等跨模态任务,集成 CLIP、BLIP、Flamingo、CogVLM 架构
✅ 推理加速支持 PyTorch Native、vLLM、SGLang、LmDeploy 引擎,提供 OpenAI 兼容接口,支持流式输出、批处理、动态 batching
✅ 评测体系基于 EvalScope 构建评测后端,覆盖 C-Eval、MMLU、GSM8K、BBH、HumanEval、MATH、MMMU、SEED-Bench 等 100+ 测评基准
✅ 量化导出支持 AWQ、GPTQ、FP8、BNB INT4/INT8 模型导出,导出后仍可使用 vLLM/LmDeploy 加速推理或进行后续训练

🔧 快速开始指南

在真实环境中体验“大模型 + 街机模拟”的双重快感!

第一步:选择运行环境

请根据你将要加载的模型规模评估所需显存:

模型大小最低显存要求推荐实例配置
7B 参数≥16GB GPU RAMA10 或 T4 实例
13B 参数≥24GB GPU RAMA100 (40G)
34B+ 参数≥80GB GPU RAMH100 / A100x8 集群
多模态大模型≥48GB GPU RAMA100 / H100

👉前往平台右侧新建对应规格实例


第二步:执行初始化脚本

在实例终端中运行以下命令:

/root/yichuidingyin.sh

该脚本名为“一锤定音”,寓意一键搞定所有复杂流程。它将自动完成以下操作:

  1. 环境依赖检测与安装
  2. CUDA/cuDNN/Torch 版本校验
  3. 自动挂载共享存储空间
  4. 初始化 ms-swift 运行时环境
  5. 展示交互式菜单:【模型下载】|【启动训练】|【开始推理】|【执行评测】|【量化压缩】

第三步:按提示操作

脚本运行后会进入图形化选择界面,请根据需求依次操作:

📥 下载模型权重
[1] 选择模型家族: → qwen → llama3 → chatglm → internlm2 → yi → phi3 → mixtral → stable-diffusion-xl → cogvlm ...

支持全球主流开源模型仓库直连下载(ModelScope、HuggingFace、AI Studio),无需手动配置 token 或 git-lfs。

⚙️ 执行训练任务

支持多种训练模式切换:

[2] 选择训练类型: → Pretrain(预训练) → SFT(指令微调) → RLHF(奖励建模 + PPO) → DPO/KTO/CPO/ORPO(直接偏好优化) → QLoRA 微调(低资源适配) → MultiModal-VQA(视觉问答联合训练)

配置文件模板已内置,仅需修改少量超参即可提交训练作业。

▶️ 启动模型推理
[3] 启动推理服务: → CLI 交互模式 → WebUI 图形界面(Gradio) → OpenAI API Server(兼容 v1/chat/completions) → 流式输出开关

启动后可通过本地浏览器访问http://localhost:7860进行对话测试。

📊 开始模型评测
[4] 选择评测数据集: → C-Eval(中文知识) → MMLU(英文通识) → GSM8K(数学推理) → HumanEval(代码生成) → MMMU(多模态理解) → SEED-Bench(视频问答)

评测结果将自动生成 JSON 报告并保存至/results/目录。

🔽 模型量化导出
[5] 选择量化方式: → GPTQ int4(最小体积) → AWQ int4(最佳性能平衡) → FP8(高精度压缩) → BNB int8/int4(训练友好型)

导出后的模型可直接用于移动端部署或边缘计算设备。


🎮 彩蛋功能:MAME 0.116 街机模拟器联动

作为致敬经典的彩蛋,我们在系统底层集成了MAME 0.116模拟核心,搭配 Ryuko-NEHT 团队整理的经典 ROM 包,让你在等待模型训练的同时也能回味童年。

如何启动街机游戏?

# 列出所有可用游戏 mame -listroms | grep mgd2 # 启动《拳皇97》MGD2版 mame kof97mg # 启动《合金弹头3》法语翻译版 mame mslug3fr # 查看支持的所有 hack 版本 cat /opt/mame/dats/Ryuko-NEHT-Reloaded.dat | grep description

当前共收录478 款经典 NeoGeo 游戏 ROM,包含大量稀有 Boss Hack、Remix、Plus 和语言移植版本。


📚 支持的模型和数据集清单

📌官方完整支持列表详见文档:
🔗 https://swift.readthedocs.io/zh-cn/latest/Instruction/%E6%94%AF%E6%8C%81%E7%9A%84%E6%A8%A1%E5%9E%8B%E5%92%8C%E6%95%B0%E6%8D%AE%E9%9B%86.html

常见支持模型举例:

模型名称类型是否支持
Qwen-7B / Qwen-72B文本生成
Llama3-8B / Llama3-70B文本生成
ChatGLM3-6B / GLM4-9B中文对话
InternLM2-7B / 20B全能模型
Yi-6B / Yi-34B多语言强基座
Phi-3-mini / Phi-3-medium小尺寸高性能
Mixtral-8x7BMoE 混合专家
Stable Diffusion XL图像生成
CogVLM / CogAgent视觉语言模型
Whisper-large-v3语音识别
Emu3All-to-All 全模态

主流评测数据集支持情况:

数据集描述是否支持
C-Eval中文综合知识测评
MMLU英文学科知识测评
CEval多学科中文测试
CMMLU中英双语知识图谱
GSM8K数学应用题求解
MATH高阶数学证明
BBH复杂推理任务
HumanEvalPython 编程能力
MBPP小规模编程任务
MMMU多模态多选题
SEED-Bench视频内容理解
ImageNet Zero-Shot图像分类零样本

💡 使用技巧与最佳实践

1. 多卡训练自动分配

使用如下命令启用 DeepSpeed ZeRO-3 多卡训练:

export CUDA_VISIBLE_DEVICES=0,1,2,3 swift sft \ --model_type qwen-7b \ --dataset alpaca-en \ --deepspeed zero3 \ --lora_rank 64 \ --num_train_epochs 3

2. QLoRA + GPTQ 联合训练

对于显存有限但希望微调量化模型的用户:

swift sft \ --model_type llama3-8b-instruct \ --quant_method gptq \ --quant_bits 4 \ --adapter_type qlora \ --use_flash_attn true \ --max_length 4096

3. 快速部署 OpenAI API 服务

一键开启兼容 OpenAI 接口的服务端:

swift infer \ --model_type qwen-7b-chat \ --infer_backend vllm \ --port 8080 \ --openai_api_server

之后即可通过标准请求调用:

from openai import OpenAI client = OpenAI(base_url="http://localhost:8080/v1", api_key="none") response = client.chat.completions.create( model="qwen-7b-chat", messages=[{"role": "user", "content": "你好!"}] ) print(response.choices[0].message.content)

❓ 遇到问题怎么办?

两种方式解决常见问题:

1. 查阅官方文档

📘 完整技术文档地址:
👉 https://swift.readthedocs.io/zh-cn/latest/

包含:
- 安装指南
- 配置参数详解
- 故障排查手册
- 自定义插件开发教程
- 分布式训练最佳实践

2. 社区支持渠道

加入以下社群获取实时帮助:

  • 钉钉群号:2836981677
  • GitHub Issues:https://github.com/modelscope/ms-swift/issues
  • Discord Channel:#ms-swift-support

🤝 致谢

感谢 ModelScope 团队的付出和努力!

正是由于你们持续推动国产大模型生态建设,才使得ms-swift成为可能。我们也致敬 Ryuko-NEHT 团队对经典游戏文化的传承与保护,让怀旧与创新在此交汇。


🔄 更新日志(v0.116-reloaded)

版本时间更新内容
v0.116.02024-03-15初始发布,集成 MAME 0.116 与 ms-swift v1.0.0
v0.116.12024-04-02新增多模态训练支持,升级 vLLM 至 0.4.1
v0.116.22024-05-10支持 ORPO、SimPO、CPO 新增对齐算法
v0.116.32024-06-13加入 HuggingFace TGI 兼容层,优化推理延迟

🎮现在就启动你的实例,运行/root/yichuidingyin.sh,开启属于你的“一锤定音”之旅吧!

无论是训练一个专属的大模型助手,还是重温儿时的街机热血战斗,这里都为你准备好了舞台。

Ryuko-NEHT Reloaded! 不止是回忆,更是未来。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/31 18:24:59

梯度下降法原理与应用解析

梯度下降法原理与应用解析 在机器学习的世界里,模型训练的本质往往归结为一个核心问题:如何找到一组最优参数,让预测误差最小? 这个过程听起来像是一场在黑暗中摸索的旅程——你不知道全局地形,只能靠脚下的一点坡度信…

作者头像 李华
网站建设 2026/4/1 1:30:10

Java实现GIF动态验证码生成与解析

Java实现GIF动态验证码生成与解析 在如今自动化攻击日益频繁的背景下,传统的静态验证码已经难以抵御高级OCR识别和机器学习破解手段。为了提升系统的安全性,越来越多的应用开始采用动态视觉干扰策略——而其中,GIF格式的动态验证码正以其“人…

作者头像 李华
网站建设 2026/4/15 17:04:21

【Open-AutoGLM部署终极指南】:手把手教你从零完成高效AI模型部署

第一章:Open-AutoGLM部署详细步骤详解环境准备与依赖安装 在部署 Open-AutoGLM 之前,需确保系统已配置 Python 3.9 及 pip 包管理工具。推荐使用虚拟环境以隔离依赖。创建并激活虚拟环境: # 创建虚拟环境 python -m venv open-autoglm-env# 激…

作者头像 李华
网站建设 2026/4/8 9:35:14

Docker安装配置与基础操作指南

Docker 安装配置与基础操作指南 在现代 AI 开发中,环境配置往往是令人头疼的第一道门槛。你是否曾为 PyTorch 版本不兼容、CUDA 驱动错配或依赖包冲突而耗费数小时?Docker 的出现正是为了终结这种“在我机器上能跑”的窘境。 作为一款开源的应用容器引…

作者头像 李华
网站建设 2026/4/12 20:12:57

ComfyUI集成DDColor实现老照片上色修复

ComfyUI集成DDColor实现老照片上色修复 在家庭相册的某个角落,或许你曾翻出一张泛黄的老照片——祖辈的结婚照、儿时的全家福、早已消失的街景。它们承载着记忆,却因时间褪去了色彩,变得模糊而遥远。如果有一种方式,能让这些黑白…

作者头像 李华
网站建设 2026/4/10 13:18:43

解决Keras中multi_gpu_model弃用问题

解决Keras中multi_gpu_model弃用问题 在使用TensorFlow进行深度学习模型训练时,你是否曾遇到这样的报错? AttributeError: module tensorflow.keras.utils has no attribute multi_gpu_model如果你正从旧版Keras代码迁移到现代TensorFlow环境&#xff…

作者头像 李华