【通义千问】大模型Qwen GitHub开源工程学习笔记(5)-- 模型的微调【全参数微调】【LoRA方法】【Q-LoRA方法】
2024-01-08 06:14:12
摘要:
训练数据的准备
你需要将所有样本放到一个列表中并存入json文件中。每个样本对应一个字典,包含id和conversation,其中后者为一个列表。示例如下所示:
[
{
"id": "identity_0",
"conversations": [
{
"from": "user",
"value": "你好"
},
{
"from": "assistant",
"value": "我是一个语言模型,我叫通义千问。"
}
]
}
]
微调方法分析
微调脚本能够帮你实现三种微调方法:
- 全参数微调
- LoRA
- Q-LoRA
【全参数微调在训练过程中更新所有参数。】
"全参数微调"是一种在机器学习中用于优化预训练模型的技术。这种技术涉及在特定数据集上继续训练,更新模型的所有参数,以提高模型在特定任务上的性能。"参数"在这里指的是模型中的权重和偏置,它们决定了模型的行为和输出。在训练过程中,通过不断调整这些参数,模型可以更好地适应数据,从而提高预测的准确性。
【LoRA】
"LoRA"(Low-Rank Adaptation,低秩适应)是一种用于大型语言模型的优化
文章来源:https://blog.csdn.net/weixin_46481662/article/details/133819036
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!