炼丹学习笔记1---openPCDet训练配置参数含义介绍
背景:最近偷闲学习openPCDet,记录一下基本训练可能用到的一些配置。以下为个人学习探索,仅供参考。
1、cfg_file
含义: 指定用于训练的配置文件,其中包含了模型、优化器、学习率等相关的配置信息。
作用: 通过配置文件统一管理各种超参数,方便在不同的实验中灵活调整模型和训练设置。
2、batch_size
含义: 每个训练步中用于更新模型参数的样本数。
作用: 控制模型参数的更新频率,影响训练速度和显存占用。
3、epochs
含义: 训练数据集被完整处理的次数。
作用: 控制训练的轮数,一个 epoch 代表整个数据集被模型训练一次。
4、workers
含义: 数据加载时的并行工作线程数。
作用: 提高数据加载效率,加速训练过程。
5、extra_tag
含义: 用于区分实验结果的额外标签。
作用: 区分不同实验的结果文件,方便结果的组织和对比。
6、ckpt
含义: 指定从哪个检查点(模型参数保存的文件)开始训练。
作用: 支持模型训练的断点续训。
7、pretrained_model
含义: 指定预训练模型的路径。
作用: 可以加载预训练模型,用于迁移学习或加速模型收敛。
8、launcher
含义: 分布式训练的启动方式,支持本地、PyTorch 内置和 Slurm。
作用: 配置分布式训练的启动方式。
9、tcp_port
含义: 分布式训练时使用的 TCP 端口。
作用: 配置分布式训练的通信端口。
10、sync_bn
含义: 是否使用同步批量归一化。
作用: 控制是否使用同步批量归一化,适用于分布式训练。
11、fix_random_seed
含义: 是否固定随机种子。
作用: 固定随机种子以便实验的可重复性。
12、ckpt_save_interval
含义: 模型参数保存的间隔,即每隔多少个 epoch 保存一次。
作用: 控制模型参数保存的频率,避免在训练过程中遗失重要的模型状态。
13、local_rank
含义: 本地进程的排名,用于分布式训练中标识不同的进程。
作用: 配置分布式训练中每个本地进程的唯一标识。
14、max_ckpt_save_num
含义: 允许保存的最大检查点数目。
作用: 控制保存的模型参数文件的数量,避免占用过多磁盘空间。
15、merge_all_iters_to_one_epoch
含义: 是否将所有迭代合并为一个 epoch。
作用: 针对一些特殊情况,将所有迭代视为一个 epoch 进行训练。
16、max_waiting_mins
含义: 最大等待时间,训练若在指定时间内未开始将终止。
作用: 避免在分布式训练中等待时间过长。
17、start_epoch
含义: 指定从哪个 epoch 开始训练。
作用: 控制训练的起始 epoch。
18、num_epochs_to_eval
含义: 训练完成后评估的 epoch 数。
作用: 训练完成后执行模型评估的 epoch 数目。
19、save_to_file
含义: 是否将训练结果保存到文件。
作用: 控制是否将训练过程的结果记录到文件中。
20、use_tqdm_to_record
含义: 是否使用 tqdm 进度条记录中间损失。
作用: 控制是否在终端使用 tqdm 进度条显示训练进度。
21、logger_iter_interval
含义: 记录训练损失的迭代间隔。
作用: 控制记录训练损失的频率。
22、ckpt_save_time_interval
含义: 模型参数保存的时间间隔。
作用: 控制模型参数保存的时间间隔,以秒为单位。
23、wo_gpu_stat
含义: 是否关闭 GPU 统计信息。
作用: 控制是否在训练过程中关闭 GPU 的统计信息。
24、use_amp
含义: 是否使用混合精度训练。
作用: 控制是否在训练过程中使用混合精度(Mixed Precision)训练,以减少显存占用并加速训练。
###################
好记性不如烂笔头
积跬步期千里
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!