干货! 一键领取超火的 20 个 LLM 中文数据集
以下文章来源于OpenBayes贝式计算?,作者小贝
自?ChatGPT?重磅推出以来,大语言模型 (large language Model, LLM) 以其卓越的学习能力在各个领域引起轰动。大模型的训练和调优离不开优质庞大的数据支撑,精心构建的数据集不仅为大模型提供了充分的燃料,还为大模型在垂直领域的应用和性能提升提供了可能。
本文整理了一些适用于大模型训练调优的热门中文公开数据集(按照首字母 A-Z 顺序排列),以供大家了解和使用。
温馨提示:
本文列举的所有数据集,均可在 OpenBayes.com 平台一键 Input 直接在模型训练和部署中使用。
链接直达:
1 Ape210K?中国小学水平数学问题
* 发布机构:猿辅导 AI Lab、西北大学
* 相关标签:算术任务、文本生成
*?直接使用:https://hyper.ai/datasets/28445
Ape210K 是一个新的大规模和模板丰富的数学单词问题数据集,包含 210k 个中国小学水平的数学问题。每个问题都包含最佳答案和得出答案所需的方程式。
2 Belle 数据集
* 发布机构:讯飞科大、CCL、HFL
* 相关标签:文本生成、中文
* 直接使用:https://hyper.ai/datasets/28451
本数据集使用了 1,000 个样本的评估集来评估各种模型,涵盖 9 个真实场景,包含约350 万条由BELLE项目生成的中文指令数据。
3 Chinese Squad?
中文机器阅读理解数据集
* 相关标签:抽取式问答、智能问答
* 直接使用:https://hyper.ai/datasets/28476
本数据集是中文机器阅读理解数据集,通过机器翻译加人工校正的方式从原始 Squad 转换而来,其中包括 V1.1 和 V2.0。
4 CMRC 2018?中文机器阅读理解评测数据集
* 发布机构:讯飞科大、CCL、HFL
* 相关标签:文本生成
* 直接使用:https://hyper.ai/datasets/28470
本数据集包含第二届「讯飞杯」中文机器阅读理解评测 (CMRC 2018) 所使用的数据,并且已被计算语言学顶级国际会议 EMNLP 2019 录用。
5 CrossWOZ? 任务导向对话数据集
* 发布机构:清华大学、BNRIST
* 相关标签:问答数据集、中文
* 直接使用:https://hyper.ai/datasets/28442
CrossWOZ 是首个面向任务的大型中文跨域 Wizard-of-Oz 导向数据集。它包含 5 个场景(景点、酒店、餐馆、地铁、出租)的 6k 个对话和 102k 个句子。此外,语料库包含丰富的对话状态标注和用户与系统双方的对话行为。
6 DRCD Delta 阅读理解数据集
* 发布机构:台达研究中心、台达电子
* 相关标签:文本检测、机器学习
* 直接使用:https://hyper.ai/datasets/28473
台达阅读理解资料集 Delta Reading Comprehension Dataset (DRCD) 属于通用领域繁体中文机器阅读理解资料集。该数据集旨在成为标准的中文机器阅读理解数据集,包含来自 2,108 篇维基百科文章的 10,014 个段落和由标注人员生成的 30,000 多个问题。
7 Douban Conversation Corpus 豆瓣会话语料库
* 发布机构:北京航空航天大学、南开大学、MSR
* 相关标签:问答解析、自然语言处理
* 直接使用:https://hyper.ai/datasets/28497
本数据集包括一个训练数据集、一个开发集和一个基于检索的聊天机器人的测试集。测试数据包含 1000 个对话上下文,对于每个上下文,创建了 10 个响应作为候选。
8 DuReader? 问答数据集
* 发布机构:百度
* 相关标签:问答数据集、智能问答
* 直接使用:https://hyper.ai/datasets/28461
DuReader 是关注于机器阅读理解领域的基准数据集和模型,主要用于智能问答任务。
9 E-KAR 中文版 可解释知识密集型类比推理基准
* 发布机构:复旦大学、ByteDance AI Lab、Brain Technologies, Inc.
* 相关标签:文本生成、自然语言处理
* 直接使用:https://hyper.ai/datasets/28517
E-KAR 全称 Benchmark for Explainable Knowledge-intensive Analogical Reasoning,是一个可解释知识密集型类比推理的基准。现有的词语类比测试基准并不能揭示神经模型类比推理的底层过程,研究人员认为具有推理能力的模型应以正确的理由作为基本信念,因此提出了首个知识性可解释类比推理基准 (E-KAR)。基准数据集包括来自公务员考试的 1,655 个(中文)和 1,251 个(英文)问题, 解决这些问题需要大量的背景知识。
10 FCGEC? 中文语法检错纠错数据集
* 发布机构:浙江大学、华为
* 相关标签:文本检测
* 直接使用:https://hyper.ai/datasets/28512
FCGEC 全称 Fine-Grained Corpus for Chinese Grammatical Error Correction,是一个大规模母语使用者的多参考文本纠检错语料,用于训练以及评估纠检错模型系统,数据来源主要是小初高中学生的病句试题以及新闻聚合网站。
11 KdConv? 中文多领域会话数据集
* 发布机构:清华大学
* 相关标签:文本生成
* 直接使用:https://hyper.ai/datasets/28507
KdConv 是一个中文多领域知识驱动的对话数据集,将多轮对话中的主题建立在知识图谱上。KdConv 包含来自三个领域(电影、音乐和旅行)的 4.5K 个对话,以及平均转数为 19.0 的 86k 个话语。适用于对多转向人类对话中的知识交互进行建模,包括知识规划、知识基础、知识适应等。
12 Math23K? 数学单词数据集
* 发布机构:Tencent AI Lab
* 相关标签:语料库、数学问题
* 直接使用:https://hyper.ai/datasets/28504
Math23K 全称 Math23K for Math Word Problem Solving,是为解决数学单词问题而创建的数据集,包含从互联网上爬取的 23,162 个中文问题。
13 MedDialog? 中文医患对话数据集
* 相关标签:医学研究、对话数据集
* 直接使用:https://hyper.ai/datasets/28483
MedDialog 是大规模的医疗对话数据集,其中包含医生和患者之间的 110 万条对话和 400 万条话语。
14 ODSQA? 开放域口语智能问答数据集
* 发布机构:台湾大学
* 相关标签:智能问答、自然语言处理
* 直接使用:https://hyper.ai/datasets/28500
ODSQA 数据集是用于中文问答的口语数据集,它包含来自 20 位不同演讲者的三千多个问题。
15 RedGPT 自动生成事实型对话数据集
* 相关标签:文本生成、自然语言处理
* 直接使用:https://hyper.ai/datasets/28448
RedGPT 全称 Reference-Enlightened-Dialogue by GPT and for GPT。事实正确性是 ChatGPT 的一大薄弱环节,想要提升事实正确性,可以标注大量的事实型对话数据用于微调 GPT 模型。为避免人工标注的昂贵成本,研究人员提出一种自动生成事实型对话的方法,并公开部分数据 (RedGPT-Dataset-V1-CN),其中共包含 5 万条中文多轮对话。
16 The United Nations Parallel Corpus? 联合国平行语料库 v1.0
* 发布机构:清华大学、BNRIST
* 相关标签:问答数据集、中文
* 直接使用:https://hyper.ai/datasets/28464
CrossWOZ 是首个面向任务的大型中文跨域 Wizard-of-Oz 导向数据集。它包含 5 个场景(景点、酒店、餐馆、地铁、出租)的 6k 个对话和 102k 个句子。此外,语料库包含丰富的对话状态标注和用户与系统双方的对话行为。
17 VQA? 视觉问答数据集
* 相关标签:视觉问答、问答数据集
* 直接使用:https://hyper.ai/datasets/28455
深度学习的发展促进了多模态学习相关任务的解决。视觉问答 (VQA) 是其中极具挑战的例子,它要求从图像中进行高阶场景的解释 (interpretation),并结合相关的问答语言进行建模。给定一张图像和关于该图像的自然语言问题,任务是提供一个准确的自然语言答案。这是一个使用 Keras 实现的端到端系统,旨在完成这一任务。
18 WebQA v1.0? 百度中文问答数据集
* 发布机构:百度
* 相关标签:深度学习、智能问答
* 直接使用:https://hyper.ai/datasets/28467
这是百度于 2016 年开源的数据集,数据来自于百度知道。格式为一个问题多篇意思基本一致的文章,分为人为标注以及浏览器检索。
19 XiaChuFang Recipe Corpus? 下厨房食谱语料库
* 相关标签:文本识别、文本检测
* 直接使用:https://1lh.cc/4jaL8b
本食谱语料库包含 1,520,327 种中国食谱。其中,1,242,206 食谱属于 30,060 菜肴。一道菜平均有 41.3 个食谱。食谱由 415,272 位作者贡献。其中,最有生产力的作者上传 5,394 食谱。
* 直接使用:https://hyper.ai/datasets/28489
20 XQuAD? 跨语言问答数据集
* 发布机构:讯飞科大、CCL、HFL
* 相关标签:问答解析、阅读理解
* 直接使用:https://hyper.ai/datasets/28458
XQuAD(跨语言问答数据集)是一个用于评估跨语言问答性能的基准数据集。该数据集由 SQuAD v1.1(Rajpurkar 等,2016)开发集中的 240 个段落和 1,190 个问题-答案对的子集组成。
一键 Input 上述数据集
丰富的数据集背后仍需要高质量算力平台的支持。目前,OpenBayes 贝式计算平台已支持数据集一键绑定,只需在创建容器期间一键 Input,即可将目标数据集绑定到对应容器,省去了繁琐的下载和上传过程,也不会占用用户个人的存储空间。
视频教程参考:
【OpenBayes 官方教程】组织协作_哔哩哔哩_bilibili
详细文档参见:https://1lh.cc/v2ao4q
此外,OpenBayes 平台还提供超过 500 个精选公共数据集、模型、教程等优质资源,并已经整合到「公共资源」模块中。
现在体验极速绑定,请访问
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!