一、Ultralytics安装
网址:主页 -Ultralytics YOLO 文档
Ultralytics提供了各种安装方法,包括pip、conda和Docker。通过 ultralytics pip包安装最新稳定版本的YOLOv8,或克隆Ultralytics GitHub 存储库以获取最新版本。可以使用Docker在隔离的容器中执行包,避免本 地安装。
pip install ultralytics==8.2.28 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install git+https://github.com/ultralytics/ultralytics.git@main
注意:ultralytics需要PyTorch支持。
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
二、目录
dataset├─train│ ├─images│ └─labels├─test│ ├─images│ └─labels└─mydata.yaml
配置文件
# peach
train: /home/YoloV_/ultralytics-main/dataset/train
val: /home/YoloV_/ultralytics-main/dataset/valid# Classes
names:0: face
三、训练模型
指令训练
yolo train model=yolov8n.pt data=./dataset/mydata.yaml epochs=50 batch=32 imgsz=640
训练结果
四、训练参数
论据 | 默认值 | 说明 |
---|---|---|
model | None | 指定用于训练的模型文件。接受指向预训练模型 .pt 文件或 .yaml 配置文件的路径。对于定义模型结构或初始化权重至关重要。 |
data | None | 数据集配置文件的路径(例如 coco8.yaml )。该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数。 |
epochs | 100 | 训练历元总数。每个历元代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。 |
time | None | 最长训练时间(小时)。如果设置了该值,则会覆盖 epochs 参数,允许训练在指定的持续时间后自动停止。对于时间有限的训练场景非常有用。 |
patience | 0 | 在验证指标没有改善的情况下,提前停止训练所需的历元数。当性能趋于平稳时停止训练,有助于防止过拟合。 |
batch | 16 | Batch size, with three modes: set as an integer (e.g., batch=16), auto mode for 60% GPU memory utilization (batch=-1), or auto mode with specified utilization fraction (batch=0.70). |
imgsz | 640 | 用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。 |
save | True | 可保存训练检查点和最终模型权重。这对恢复训练或模型部署非常有用。 |
save_period | -1 | 保存模型检查点的频率,以 epochs 为单位。值为 -1 时将禁用此功能。该功能适用于在长时间训练过程中保存临时模型。 |
cache | False | 在内存中缓存数据集图像 (True/ram )、磁盘 (disk ),或禁用它 (False )。通过减少磁盘 I/O 提高训练速度,但代价是增加内存使用量。 |
device | None | 指定用于训练的计算设备:单个 GPU (device=0 )、多个 GPU (device=0,1 )、CPU (device=cpu ),或苹果芯片的 MPS (device=mps ). |
workers | 8 | 加载数据的工作线程数(每个 RANK 多 GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。 |
project | None | 保存训练结果的项目目录名称。允许有组织地存储不同的实验。 |
name | None | 训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。 |
exist_ok | False | 如果为 True,则允许覆盖现有的项目/名称目录。这对迭代实验非常有用,无需手动清除之前的输出。 |
pretrained | True | 决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。 |
optimizer | 'auto' | 为培训选择优化器。选项包括 SGD, Adam, AdamW, NAdam, RAdam, RMSProp 等, 或 auto 用于根据模型配置进行自动选择。影响收敛速度和稳定性。 |
verbose | False | 在训练过程中启用冗长输出,提供详细日志和进度更新。有助于调试和密切监控培训过程。 |
seed | 0 | 为训练设置随机种子,确保在相同配置下运行的结果具有可重复性。 |
deterministic | True | 强制使用确定性算法,确保可重复性,但由于对非确定性算法的限制,可能会影响性能和速度。 |
single_cls | False | 在训练过程中将多类数据集中的所有类别视为单一类别。适用于二元分类任务,或侧重于对象的存在而非分类。 |
rect | False | 可进行矩形训练,优化批次组成以减少填充。这可以提高效率和速度,但可能会影响模型的准确性。 |
cos_lr | False | 利用余弦学习率调度器,根据历时的余弦曲线调整学习率。这有助于管理学习率,实现更好的收敛。 |
close_mosaic | 10 | 在训练完成前禁用最后 N 个历元的马赛克数据增强以稳定训练。设置为 0 则禁用此功能。 |
resume | False | 从上次保存的检查点恢复训练。自动加载模型权重、优化器状态和历时计数,无缝继续训练。 |
amp | True | 启用自动混合精度 (AMP) 训练,可减少内存使用量并加快训练速度,同时将对精度的影响降至最低。 |
fraction | 1.0 | 指定用于训练的数据集的部分。允许在完整数据集的子集上进行训练, 这对实验或资源有限的情况非常有用。 |
profile | False | 在训练过程中, 可对 ONNX 和 TensorRT 速度进行剖析, 有助于优化模型部署。 |
freeze | None | 冻结模型的前 N 层或按索引指定的层, 从而减少可训练参数的数量。微调或迁移学习非常有用。 |
lr0 | 0.01 | 初始学习率 (即 SGD=1E-2, Adam=1E-3). 调整这个值对优化过程至关重要, 会影响模型权重的更新速度。 |
lrf | 0.01 | 最终学习率占初始学习率的百分比 = (lr0 * lrf), 与调度程序结合使用, 随着时间的推移调整学习率。 |
momentum | 0.937 | 用于 SGD 的动量因子, 或用于 Adam 优化器的 beta1, 用于将过去的梯度纳入当前更新。 |
weight_decay | 0.0005 | L2 正则化项, 对大权重进行惩罚, 以防止过度拟合。 |
warmup_epochs | 3.0 | 学习率预热的历元数, 学习率从低值逐渐增加到初始学习率, 以在早期稳定训练。 |
warmup_momentum | 0.8 | 热身阶段的初始动力, 在热身期间逐渐调整到设定动力。 |
warmup_bias_lr | 0.1 | 热身阶段的偏置参数学习率,有助于 稳定初始历元的模型训练。 |
box | 7.5 | 损失函数中边框损失部分的权重,影 响对准确预测边框坐标的重视程度 |
cls | 0.5 | 分类损失在总损失函数中的权重,影 响正确分类预测相对于其他部分的重 要性。 |
dfl | 1.5 | 分布焦点损失权重,在某些YOLO 版 本中用于精细分类。 |
pose | 12.0 | 姿态损失在姿态估计模型中的权重, 影响着准确预测姿态关键点的重点。 |
kobj | 2.0 | 姿态估计模型中关键点对象性损失的 权重,平衡检测可信度与姿态精度。 |
label_smoothing | 0.0 | 应用标签平滑,将硬标签软化为目标 标签和标签均匀分布的混合标签,可 以提高泛化效果。 |
nbs | 64 | 用于损耗正常化的标称批量大小。 |
overlap_mask | True | 决定在训练过程中分割掩码是否应该 重叠,适用于实例分割任务。 |
mask_ratio | 4 | 分割掩码的下采样率,影响训练时使用的掩码分辨率。 |
dropout | 0.0 | 分类任务中正则化的丢弃率,通过在 训练过程中随机省略单元来防止过拟 合。 |
val | True | 可在训练过程中进行验证,以便在单 独的数据集上对模型性能进行定期评 估。 |
plots | False | 生成并保存训练和验证指标图以及预 测示例图,以便直观地了解模型性能 和学习进度。 |
batch大小设置方案:
固定 Batch Size:设置固定值 (例如: batch=16)。
自动模式 (60%的GPU显存占用):使用 batch=-1 自动调整batch 大小,实现大约60%的CUDA内存占用。
带有使用分数值的自动模式:通过设置一个分数值(例如, batch=0.70),来根据指定的GPU内存使用分数调整批处理大小
五、增强设置和超参数
增强技术通过在训练数据中引入可变性,帮助模型更好地泛化到未见数据 中,对提高YOLO 模型的稳健性和性能至关重要。下表概述了每种增强参 数的目的和效果:
论据 | 默认值 | 说明 |
---|---|---|
hsv_h | 0.015 | 图像色调中的最大变化。 |
hsv_s | 0.7 | 图像饱和度的最大变化。 |
hsv_v | 0.4 | 图像值 (亮度) 的最大变化。 |
degrees | 0.0 | 图像旋转的最大角度。 |
translate | 0.1 | 图像平移的最大比例 (按图像尺寸)。 |
scale | 0.5 | 图像比例的最大变化。 |
shear | 0.0 | 图像剪切的最大量。 |
perspective | 0.0 | 图像透视变换的最大失真。 |
mosaic | 1.0 | 启用马赛克数据增强,这是一种将多个训练图像组合成一个图像以提高对象变化的方法。 |
mixup | 0.0 | 启用 mixup 数据增强,这是一种将图像和标签混合在一起以正则化模型的方法。 |
copy_paste | 0.0 | 启用复制粘贴数据增强,这是一种将对象从一个图像随机复制到另一个图像的方法。 |
这些设置可根据数据集和手头任务的具体要求进行调整。试验不同的值有 助于找到最佳的增强策略,从而获得最佳的模型性能。