train_ddp.sh 917 B

123456789101112131415
  1. # 8 GPUs
  2. python -m torch.distributed.run --nproc_per_node=8 train.py \
  3. --cuda \
  4. -dist \
  5. -d coco \
  6. --root /data/datasets/ \
  7. -m yolov1 \
  8. -bs 128 \
  9. -size 640 \
  10. --wp_epoch 1 \
  11. --max_epoch 150 \
  12. --eval_epoch 10 \
  13. --ema \
  14. --fp16 \
  15. --multi_scale \