news 2026/3/9 15:52:30

全球最多下载中文开源数据集更新|OpenCSG持续打造中文高质量数据集开源底座

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
全球最多下载中文开源数据集更新|OpenCSG持续打造中文高质量数据集开源底座

重磅更新

OpenCSG(开放传神)正式发布Fineweb-Edu-Chinese V2.2 数据集,这是目前开源界少有的、覆盖从预训练(Pre-train)到监督微调(SFT)全流程的高质量中文教育数据集。

V2.2 版本标志着 Chinese Fineweb Edu 从单一的预训练语料库,进化为覆盖从知识注入到行为对齐全流程的完备数据解决方案。本次更新在 V2.1 海量预训练数据的基础上,利用 DeepSeek V3.2 强大的文本理解能力,从全网最优质的0.1% 语料中蒸馏出 143.7 万条高质量问答对,为社区提供了一套标准化的后训练(Post-training)数据集。

在预训练数据方面,V2.2 继承了 V2.1 的优势,提供约1.5Ttokens 的高质量教育语料,按照评分等级(4-5 分、3-4 分)进行质量分层存储,支持课程学习策略。数据源整合了 CCI3、MAP-CC、OpenCSG-CC 等多个优质中文语料库,通过 OpenCSG csg-wukong-enterprise V2 评分模型进行严格筛选。

在 SFT 数据方面,V2.2 版本采用“质量至上”策略:只选取评分最高的 Top 0.1% 语料作为种子,利用 DeepSeek V3.2 的阅读理解能力,严格基于原文 Context 生成问答对。不同于自由生成的聊天数据,V2.2 的每一条数据都有确凿的原文依据,有效避免了模型幻觉和事实错误。

版本演进与特性对比

V1.0 - 概念验证

规模:~90M 条目 (300GB)

  • 关键特性与改进:

    初代 BERT 打分模型
    引入MinHash 去重
    数据源:CCI2, SkyPile, Tele-AI

V2.0 - 规模化扩展

规模:~188M 条目 (420B Tokens)

  • 关键特性与改进:

    升级打分器: OpenCSG csg-wukong-enterprise V2
    扩展数据源:Industry2, wanjuan1.0, wudao

V2.1 - 预训练精选

  • 规模:~1.5T Tokens
  • 关键特性与改进:

    质量分层:按分数归档 (4-5分,3-4分)
    新增源:map-cc, opencsg-cc
    支持课程学习

V2.2 - SFT 与对齐

规模:143.7 万条问答对

  • 关键特性与改进:

    DeepSeek V3.2 合成:基于顶级语料生成
    全流程覆盖:提供数据回溯源与纯净微调版
    事实锚定:回答内容严格忠实于原文

Chinese Fineweb Edu Dataset

Chinese Fineweb Edu Dataset是一个专为中文教育领域大模型开发的高质量数据集系列。在当前的大模型研发中,高质量的中文教育语料依然是稀缺资源。通用语料如 Common Crawl 虽然规模巨大,但包含大量广告、碎片化信息和低质文本,直接用于教育模型训练会导致严重的“幻觉”和逻辑混乱。同时,业界开源的指令微调数据多集中于通用对话或代码能力,极度缺乏经过严谨筛选、具备教学逻辑的垂直领域教育问答数据。这导致许多模型虽然能说话,但无法像老师一样“传道授业”。

V2.2 的里程碑意义

为了解决上述痛点,OpenCSG团队在 V2.1 海量预训练数据的基础上,正式推出了 V2.2 SFT 增强版。不仅提供“燃料”(预训练数据),现在更提供“引擎图纸”(SFT 数据)。通过引入 DeepSeek V3.2 的高阶推理能力,将静态的教科书级文本转化为动态的、具有多轮逻辑的问答对。这标志着 Chinese Fineweb Edu 从单一的语料库,进化为覆盖 Pre-train (知识注入) 到 Post-train (行为对齐) 全流程的完备数据解决方案

为什么需要高质量的 SFT 数据?

后训练是赋予大模型“交互能力”和“领域专精”的关键阶段。高质量的 SFT 数据能激发推理能力——仅靠预训练,模型拥有知识但不懂如何运用。通过精心设计的问答对,模型学会根据上下文进行推导、归纳和演绎。在教育场景下,准确性是红线。通过“基于原文生成”的问答对,强制模型学习“依据事实回答”,而非凭空捏造。DeepSeek V3.2 生成的数据不仅仅是简单的事实核查,更包含了“解释性”和“引导性”,模拟人类教师的思维链条。

从 1.4TB 到 143 万的精炼之路

为了确保 DeepSeek 生成出最优质的问答OpenCSG团队对输入端的“种子数据”进行了极其严苛的筛选。

OpenCSG团队沿用了 V2 版本中训练的高精度教育奖励模型,该模型基于文本的知识密度、逻辑连贯性、学术严谨度进行 0-5 分的打分。在数亿条数据中,直接截取了 Score 排名最高的 0.1%-0.5%数据作为种子,这些数据主要由 STEM 领域的原理详解、人文社科的深度解析、百科知识的概念解释以及教育材料的知识点总结构成。

将以上“金牌种子”输入DeepSeek V3.2,利用其强大的指令遵循能力,深度阅读原始文本、识别核心考点、构建教学对话。DeepSeek 被特别提示要生成“详尽、有逻辑步骤”的回答,而非简短的 Yes/No。

V2.2 SFT 数据集详情:重塑后训练流程

本部分数据专为指令微调场景打造。

SFT 数据规格

1. Pure QA SFT【微调首选】

数据量:143.7 万条 | 磁盘占用:3.4 GB

仅包含 Instruction 和 Output,格式轻量,专注于让模型学习由 DeepSeek 提炼出的高质量回答范式。

用途:直接用于 LLaMA-Factory 等框架进行 SFT

  • 特点:标准问答对格式,开箱即用

2. Full Context SFT【数据回溯与备份】

数据量:143.7 万条 | 磁盘占用:14.6 GB

包含了 原始种子文本 + Instruction + Output,保留完整上下文信息。

  • 注意:不建议直接用于 SFT 训练(Token 长度过长且包含非对话内容)
  • 用途:仅作为数据溯源使用。当模型表现异常时,可回溯至该文件检查原始知识点是否准确

数据样例与分析

以下是一个真实的数据样例,展示了 DeepSeek V3.2 生成的高质量问答对:

{ "instruction":"瑞士考古学家费迪南德·克勒是谁?他最著名的考古发现是什么,这对我们理解古代历史有什么帮助?", "input":"", "output":"费迪南德·克勒(Ferdinand Keller, 1800-1881)是一位瑞士重要考古学家...他最著名的考古发现是1853年在瑞士发现的**湖居遗址**(也称"干栏建筑")... 这一发现对理解古代历史的帮助主要体现在: 1. **生活方式重建**:揭示了公元前5000-500年左右阿尔卑斯地区史前人类的居住形态。 2. **文化遗存**:由于水下环境缺氧,大量有机物(如木材、食物残渣)得以保存,为研究当时的技术水平提供了直接证据..." }

数据质量分析:

DeepSeek V3.2 在处理此类任务时,展现了极强的信息提取与总结能力。生成的回答不仅包含了事实,还包含了结构化的解释,这是普通短文本 SFT 数据所不具备的。

快速开始

使用 Hugging Face datasets 库即可一键加载数据集:

from datasets import load_dataset # ------------------------------------------------------- # 场景 A: SFT 指令微调 # ------------------------------------------------------- # 加载纯问答对数据 (3.4GB),格式为标准 instruction/output ds_sft = load_dataset("OpenCSG/Chinese-Fineweb-Edu-V2.2", split="sft_qa") # ------------------------------------------------------- # 场景 B: 数据校验与回溯 # ------------------------------------------------------- # 如果需要查看某条问答是基于哪篇原始文章生成的,请加载 sft_context # 注意:仅用于备份和查阅,不建议直接训练 ds_context = load_dataset("OpenCSG/Chinese-Fineweb-Edu-V2.2", split="sft_context") # ------------------------------------------------------- # 场景 C: 基座模型预训练 # ------------------------------------------------------- # 加载 Score 4-5 的高质量预训练语料 (Parquet 格式) ds_pretrain = load_dataset("OpenCSG/Chinese-Fineweb-Edu-V2.2", data_files="pretrain/score_4_5/*.parquet")

使用建议:

SFT 微调:推荐使用 sft_qa 分支,配合 LLaMA-Factory、Axolotl 等主流微调框架

预训练:建议采用课程学习策略,先使用 Score 4-5 的高质量数据,再逐步引入 Score 3-4 的数据扩大规模

数据溯源:当模型输出异常时,可通过 sft_context 分支回溯原始知识点,检查数据质量

OpenCSG 全球开源 AI 生态

OpenCSG以 Chinese FineWeb Edu 为代表的高质量中文数据集体系,已被全球高校、科研机构及科技企业广泛采用,是支撑中文 NLP 研究与大模型产业落地的核心数据基础,从顶尖高校 AI 实验室到企业级生产环境,它持续为大模型预训练、指令微调与领域适配等关键环节提供可靠支撑,推动研究成果向规模化应用高效转化;在学术领域,该数据集已被 100 + 篇论文引用,多次入选 NeurIPS、ACL 等国际顶会及 Nature 子刊、JMLR 等权威期刊,成为验证中文语言模型泛化能力、知识建模效率与跨语言迁移效果的代表性基础资源。

除了Fineweb-Edu-Chinese系列,OpenCSG 还发布了Cosmopedia-Chinese(合成教科书风格数据)和Smoltalk-Chinese(多样化对话格式数据)等多个高质量中文数据集,构成了完整的OpenCSG Chinese Corpus 语料体系。这些数据集分别针对预训练、后训练和微调等不同阶段的需求进行了专门设计和优化,为中文大语言模型的全生命周期开发提供了全方位的数据支持。

OpenCSG 通过开源数据、评分模型及完整的数据处理工具链,向社区输出可复用的数据治理方法论,持续降低高质量数据的构建与评估门槛,推动中文 AI 生态从 “模型参数竞争” 转向更加理性、可持续的 “数据基础设施建设” 阶段。

高校与研究机构:斯坦福大学(Stanford)、清华大学(Tsinghua)、中国人民大学高瓴人工智能学院、上海人工智能实验室(Shanghai AI Lab)、北京智源研究院(BAAI)、鹏城实验室、西班牙国家级超算中心(BarcelonaSupercomputingCenter)、Mozilla Data Collective等。

企业应用:英伟达(NVIDIA)、面壁智能(ModelBest)、中国移动、中国联通等。

OpenCSG 坚持“开源即文化”的理念,通过透明、共创、共享的社区文化,与全球开发者、工程师和 AI 原生企业共同构建智能体生态。无论是数据集、模型还是工具平台,OpenCSG 始终遵循 Apache 2.0 等开源协议,确保技术成果能够被广泛使用和自由创新。这种开放的态度和持续的贡献,使 OpenCSG 成为中文开源 AI 社区的重要推动者和引领者

数据地址

OpenCSG社区:https://opencsg.com/datasets/OpenCSG/Fineweb-Edu-Chinese-V2.2

hf社区:https://huggingface.co/datasets/opencsg/Fineweb-Edu-Chinese-V2.2

魔搭社区:https://modelscope.cn/datasets/opencsg/Fineweb-Edu-Chinese-V2.2

关于OpenCSG

OpenCSG是全球领先的开源大模型社区平台,致力于打造开放、协同、可持续生态,AgenticOps是人工智能领域的一种AI原生方法论,由OpenCSG(开放传神)提出。AgenticOps是Agentic AI的最佳落地实践也是方法论。核心产品 CSGHub 提供模型、数据集、代码与 AI 应用的 一站式托管、协作与共享服务,具备业界领先的模型资产管理能力,支持多角色协同和高效复用。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/3 21:13:46

赶deadline必备! 10个AI论文网站深度测评:自考毕业论文+格式规范全攻略

在当前快节奏的学术环境中,无论是高校师生还是自考学员,都面临着论文写作时间紧、格式要求高、内容质量把控难等多重挑战。尤其是在临近毕业的关键阶段,如何高效完成一篇符合规范、逻辑严谨的论文,成为许多人的燃眉之急。为此&…

作者头像 李华
网站建设 2026/3/3 22:12:11

机械设计系统如何通过wangEditor控件导入三维模型截图?

《大三程序猿的CMS升级记:Word一键转存公式高清显示,99元预算搞大事!》 一、背景 “师弟,你这CMS新闻系统能直接粘贴Word里的表格和公式吗?” “不能啊师姐,现在编辑器只能粘贴纯文本…” “那毕业论文里…

作者头像 李华
网站建设 2026/3/4 1:59:55

科技成果转化的未来——智能顾问赋能全链条服务生态

在当今快速发展的科技时代,科技成果从实验室走向市场的过程面临着诸多挑战。技术评估困难、市场需求匹配不精准以及成果推广能力弱等问题,严重制约了科研机构、企业和技术转移转化服务机构的发展。为了解决这些痛点,成果转化智能顾问应运而生…

作者头像 李华
网站建设 2026/3/5 21:16:09

python电缆行业生产任务管理系统

目录核心功能模块技术实现特点行业特定需求典型架构设计扩展性考虑开发技术路线结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!以下是关于Python开发的电缆行业生产任务管理系统的摘要整理: 核心功能模块 电缆行业生产任…

作者头像 李华
网站建设 2026/3/9 14:51:57

ComfyUI_NetDist终极指南:零基础实现多GPU分布式AI绘图效率倍增

ComfyUI_NetDist终极指南:零基础实现多GPU分布式AI绘图效率倍增 【免费下载链接】ComfyUI_NetDist Run ComfyUI workflows on multiple local GPUs/networked machines. 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI_NetDist 想让AI绘图效率提升100…

作者头像 李华