yjh0410 vor 2 Jahren
Ursprung
Commit
3163f3f449
2 geänderte Dateien mit 5 neuen und 5 gelöschten Zeilen
  1. 3 3
      train_multi_gpus.sh
  2. 2 2
      train_single_gpu.sh

+ 3 - 3
train_multi_gpus.sh

@@ -4,10 +4,10 @@ python -m torch.distributed.run --nproc_per_node=8 train.py \
                                                     -dist \
                                                     -d coco \
                                                     --root /data/datasets/ \
-                                                    -m rtcdet_s \
+                                                    -m rtcdet_m \
                                                     -bs 128 \
                                                     -size 640 \
-                                                    --wp_epoch 3 \
+                                                    --wp_epoch 5 \
                                                     --max_epoch 300 \
                                                     --eval_epoch 10 \
                                                     --no_aug_epoch 20 \
@@ -15,7 +15,7 @@ python -m torch.distributed.run --nproc_per_node=8 train.py \
                                                     --fp16 \
                                                     --sybn \
                                                     --multi_scale \
-                                                    --save_folder weights/debug/ \
+                                                    --save_folder weights/ \
                                                     # --load_cache \
                                                     # --resume weights/coco/yolox_l/yolox_l_best.pth \
 

+ 2 - 2
train_single_gpu.sh

@@ -3,14 +3,14 @@ python train.py \
         --cuda \
         -d coco \
         --root /data/datasets/ \
-        -m rtcdet_s \
+        -m rtcdet_m \
         -bs 16 \
         -size 640 \
         --wp_epoch 3 \
         --max_epoch 300 \
         --eval_epoch 10 \
         --no_aug_epoch 20 \
-        --grad_accumulate 8 \
+        --grad_accumulate 1 \
         --ema \
         --fp16 \
         --multi_scale \