|
|
@@ -40,72 +40,74 @@ pip install -r requirements.txt
|
|
|
| 多尺度训练 | True |
|
|
|
|
|
|
## 实验结果
|
|
|
-### COCO
|
|
|
-- 下载 COCO.
|
|
|
+### VOC
|
|
|
+- 下载 VOC.
|
|
|
```Shell
|
|
|
cd <PyTorch_YOLO_Tutorial>
|
|
|
cd dataset/scripts/
|
|
|
-sh COCO2017.sh
|
|
|
+sh VOC2007.sh
|
|
|
+sh VOC2012.sh
|
|
|
```
|
|
|
|
|
|
-- 检查 COCO
|
|
|
+- 检查 VOC
|
|
|
```Shell
|
|
|
cd <PyTorch_YOLO_Tutorial>
|
|
|
-python dataset/coco.py
|
|
|
+python dataset/voc.py
|
|
|
```
|
|
|
|
|
|
-当COCO数据集的路径修改正确后,运行上述命令应该会看到COCO数据的可视化图像。
|
|
|
-
|
|
|
-- 使用COCO训练模型
|
|
|
+- 使用 VOC 训练模型
|
|
|
|
|
|
For example:
|
|
|
```Shell
|
|
|
-python train.py --cuda -d coco --root path/to/COCO -v yolov1 -bs 16 --max_epoch 150 --wp_epoch 1 --eval_epoch 10 --fp16 --ema --multi_scale
|
|
|
+python train.py --cuda -d voc --root path/to/VOC -v yolov1 -bs 16 --max_epoch 150 --wp_epoch 1 --eval_epoch 10 --fp16 --ema --multi_scale
|
|
|
```
|
|
|
|
|
|
**P5-Model on COCO:**
|
|
|
|
|
|
-| Model | Scale | IP | AP<sup>val<br>0.5:0.95 | AP<sup>test<br>0.5:0.95 | FPS<sup>3090<br>FP32-bs1 | FLOPs<br><sup>(G) | Params<br><sup>(M) | Weight |
|
|
|
-|--------|-------|------|------------------------|-------------------------|--------------------------|-------------------|--------------------|--------|
|
|
|
-| YOLOv1 | 640 | √ | 35.5 | | 100 | 9.0 | 2.3 | |
|
|
|
-| YOLOv2 | 640 | √ | | | | 33.5 | 8.3 | |
|
|
|
-| YOLOv3 | 640 | √ | | | | 86.7 | 23.0 | |
|
|
|
-| YOLOv4 | 640 | √ | | | | 175.4 | 46.5 | |
|
|
|
+| Model | Scale | IP | Epoch | AP50 | FPS<sup>3090<br>FP32-bs1 | FLOPs<br><sup>(G) | Params<br><sup>(M) | Weight |
|
|
|
+|--------|-------|------|-------|------|--------------------------|-------------------|--------------------|--------|
|
|
|
+| YOLOv1 | 640 | √ | 150 | 76.7 | | 37.8 | 21.3 | [ckpt](https://github.com/yjh0410/PyTorch_YOLO_Tutorial/releases/download/yolo_tutorial_ckpy/yolov1_voc.pth) |
|
|
|
+| YOLOv2 | 640 | √ | 150 | 79.8 | | 53.9 | 30.9 | [ckpt](https://github.com/yjh0410/PyTorch_YOLO_Tutorial/releases/download/yolo_tutorial_ckpy/yolov2_voc.pth) |
|
|
|
+| YOLOv3 | 640 | √ | 150 | 82.0 | | 167.4 | 54.9 | [ckpt](https://github.com/yjh0410/PyTorch_YOLO_Tutorial/releases/download/yolo_tutorial_ckpy/yolov3_voc.pth) |
|
|
|
+| YOLOv4 | 640 | √ | 150 | 83.6 | | 162.7 | 61.5 | [ckpt](https://github.com/yjh0410/PyTorch_YOLO_Tutorial/releases/download/yolo_tutorial_ckpy/yolov4_voc.pth) |
|
|
|
+| YOLOX | 640 | √ | 150 | | | | | |
|
|
|
|
|
|
-*所有的模型都使用了ImageNet预训练权重(IP),所有的FLOPs都是在COCO-val数据集上以640x640或1280x1280的输入尺寸来测试的。FPS指标是在一张3090型号的GPU上以batch size=1的输入来测试的,请注意,测速的内容包括模型前向推理、后处理以及NMS操作。*
|
|
|
+*所有的模型都使用了ImageNet预训练权重(IP),所有的FLOPs都是在VOC2007 test数据集上以640x640或1280x1280的输入尺寸来测试的。FPS指标是在一张3090型号的GPU上以batch size=1的输入来测试的,请注意,测速的内容包括模型前向推理、后处理以及NMS操作。*
|
|
|
|
|
|
-### VOC
|
|
|
-- 下载 VOC.
|
|
|
+### COCO
|
|
|
+- 下载 COCO.
|
|
|
```Shell
|
|
|
cd <PyTorch_YOLO_Tutorial>
|
|
|
cd dataset/scripts/
|
|
|
-sh VOC2007.sh
|
|
|
-sh VOC2012.sh
|
|
|
+sh COCO2017.sh
|
|
|
```
|
|
|
|
|
|
-- 检查 VOC
|
|
|
+- 检查 COCO
|
|
|
```Shell
|
|
|
cd <PyTorch_YOLO_Tutorial>
|
|
|
-python dataset/voc.py
|
|
|
+python dataset/coco.py
|
|
|
```
|
|
|
|
|
|
-- 使用 VOC 训练模型
|
|
|
+当COCO数据集的路径修改正确后,运行上述命令应该会看到COCO数据的可视化图像。
|
|
|
+
|
|
|
+- 使用COCO训练模型
|
|
|
|
|
|
For example:
|
|
|
```Shell
|
|
|
-python train.py --cuda -d voc --root path/to/VOC -v yolov1 -bs 16 --max_epoch 150 --wp_epoch 1 --eval_epoch 10 --fp16 --ema --multi_scale
|
|
|
+python train.py --cuda -d coco --root path/to/COCO -v yolov1 -bs 16 --max_epoch 150 --wp_epoch 1 --eval_epoch 10 --fp16 --ema --multi_scale
|
|
|
```
|
|
|
|
|
|
**P5-Model on COCO:**
|
|
|
|
|
|
-| Model | Scale | IP | mAP | FPS<sup>3090<br>FP32-bs1 | FLOPs<br><sup>(G) | Params<br><sup>(M) | Weight |
|
|
|
-|--------|-------|------|-----|--------------------------|-------------------|--------------------|--------|
|
|
|
-| YOLOv1 | 640 | √ | | | 37.8 | 21.3 | |
|
|
|
-| YOLOv2 | 640 | √ | | | 53.9 | 30.9 | |
|
|
|
-| YOLOv3 | 640 | √ | | | | | |
|
|
|
-| YOLOv4 | 640 | √ | | | | | |
|
|
|
+| Model | Scale | IP | Epoch | AP<sup>val<br>0.5:0.95 | AP<sup>test<br>0.5:0.95 | Weight |
|
|
|
+|--------|-------|------|-------|------------------------|-------------------------|--------|
|
|
|
+| YOLOv1 | 640 | √ | 150 | | | |
|
|
|
+| YOLOv2 | 640 | √ | 150 | | | |
|
|
|
+| YOLOv3 | 640 | √ | 250 | | | |
|
|
|
+| YOLOv4 | 640 | √ | 250 | | | |
|
|
|
+| YOLOX | 640 | √ | 250 | | | |
|
|
|
|
|
|
-*所有的模型都使用了ImageNet预训练权重(IP),所有的FLOPs都是在VOC2007 test数据集上以640x640或1280x1280的输入尺寸来测试的。FPS指标是在一张3090型号的GPU上以batch size=1的输入来测试的,请注意,测速的内容包括模型前向推理、后处理以及NMS操作。*
|
|
|
+*所有的模型都使用了ImageNet预训练权重(IP),所有的FLOPs都是在COCO-val数据集上以640x640或1280x1280的输入尺寸来测试的。FPS指标是在一张3090型号的GPU上以batch size=1的输入来测试的,请注意,测速的内容包括模型前向推理、后处理以及NMS操作。*
|
|
|
|
|
|
## 训练
|
|
|
### 使用单个GPU来训练
|