推論¶
与えられたビデオまたは連続画像を含むフォルダを推論するためのデモスクリプトを提供します。ソースコードはこちらにあります。
入力としてフォルダを使用する場合、その中の画像名は**ソート可能**である必要があります。つまり、ファイル名に含まれる数字に従って画像を並べ替えることができます。現在、ファイル名が.jpg
、.jpeg
、.png
で終わる画像の読み込みのみをサポートしています。
MOT モデルの推論¶
このスクリプトは、入力ビデオ/画像を複数物体追跡またはビデオインスタンスセグメンテーションモデルで推論できます。
python demo/mot_demo.py \
${INPUTS}
${CONFIG_FILE} \
[--checkpoint ${CHECKPOINT_FILE}] \
[--detector ${DETECTOR_FILE}] \
[--reid ${REID_FILE}] \
[--score-thr ${SCORE_THR}] \
[--device ${DEVICE}] \
[--out ${OUTPUT}] \
[--show]
INPUT
とOUTPUT
は、どちらもmp4 ビデオ形式とフォルダ形式をサポートします。
重要:DeepSORT
、SORT
、StrongSORT
の場合、reid
の重みとdetector
の重みを個別にロードする必要があります。そのため、重みをロードするために--detector
と--reid
を使用します。ByteTrack
、OCSORT
、QDTrack
、MaskTrackRCNN
、Mask2Former
などの他のアルゴリズムは、重みをロードするために--checkpoint
を使用します。
オプション引数
CHECKPOINT_FILE
:チェックポイントはオプションです。DETECTOR_FILE
:検出器はオプションです。REID_FILE
:reid はオプションです。SCORE_THR
:バウンディングボックスをフィルタリングするためのスコアのスレッショルド。DEVICE
:推論を行うデバイス。オプションはcpu
またはcuda:0
などです。OUTPUT
:視覚化されたデモの出力。指定されていない場合、--show
を使用してビデオをリアルタイムで表示する必要があります。--show
:ビデオをリアルタイムで表示するかどうか。
MOT モデルの実行例
# Example 1: do not specify --checkpoint to use --detector
python demo/mot_demo.py \
demo/demo_mot.mp4 \
configs/sort/sort_faster-rcnn_r50_fpn_8xb2-4e_mot17halftrain_test-mot17halfval.py \
--detector \
https://download.openmmlab.com/mmtracking/mot/faster_rcnn/faster-rcnn_r50_fpn_4e_mot17-half-64ee2ed4.pth \
--out mot.mp4
# Example 2: use --checkpoint
python demo/mot_demo.py \
demo/demo_mot.mp4 \
configs/qdtrack/qdtrack_faster-rcnn_r50_fpn_8xb2-4e_mot17halftrain_test-mot17halfval.py \
--checkpoint https://download.openmmlab.com/mmtracking/mot/qdtrack/mot_dataset/qdtrack_faster-rcnn_r50_fpn_4e_mot17_20220315_145635-76f295ef.pth \
--out mot.mp4