tools/
ディレクトリには多くの便利なツールが用意されています。
MOT テスト時パラメータ検索¶
tools/analysis_tools/mot/mot_param_search.py
は、MOT モデルの tracker
のパラメータを検索できます。これは、tools/test.py
と同じ方法で使用されますが、設定が異なります。
以下は、設定を変更する方法を示す例です
記録する望ましい評価指標を定義します。
たとえば、
evaluator
を次のように定義できます。test_evaluator=dict(type='MOTChallengeMetrics', metric=['HOTA', 'CLEAR', 'Identity'])
もちろん、
test_evaluator
のmetric
の内容をカスタマイズすることもできます。['HOTA', 'CLEAR', 'Identity']
から1つ以上を選択できます。検索するパラメータと値を定義します。
次のようなトラッカーがあると仮定します。
model=dict( tracker=dict( type='BaseTracker', obj_score_thr=0.5, match_iou_thr=0.5 ) )
トラッカーのパラメータを検索する場合は、次の例のように値をリストに変更するだけです。
model=dict( tracker=dict( type='BaseTracker', obj_score_thr=[0.4, 0.5, 0.6], match_iou_thr=[0.4, 0.5, 0.6, 0.7] ) )
次に、スクリプトは合計12件のケースをテストし、結果をログに記録します。
MOT エラーの可視化¶
tools/analysis_tools/mot/mot_error_visualize.py
は、複数のオブジェクトの追跡のエラーを可視化できます。このスクリプトには、推論の結果が必要です。デフォルトでは、赤いバウンディングボックスは偽陽性、黄色のバウンディングボックスは偽陰性、青いバウンディングボックスはIDの切り替えを示します。
python tools/analysis_tools/mot/mot_error_visualize.py \
${CONFIG_FILE}\
--input ${INPUT} \
--result-dir ${RESULT_DIR} \
[--output-dir ${OUTPUT}] \
[--fps ${FPS}] \
[--show] \
[--backend ${BACKEND}]
RESULT_DIR
には、すべての動画の推論結果が含まれており、推論結果は txt
ファイルです。
オプションの引数
OUTPUT
: 可視化されたデモの出力。指定しない場合、--show
は動画をその場で表示するために必須です。FPS
: 出力動画の FPS。--show
: 動画をその場で表示するかどうか。BACKEND
: ボックスを可視化するためのバックエンド。オプションはcv2
とplt
です。
データセットの参照¶
tools/analysis_tools/mot/browse_dataset.py
は、トレーニングデータセットを可視化して、データセットの構成が正しいかどうかを確認できます。
例
python tools/analysis_tools/browse_dataset.py ${CONFIG_FILE} [--show-interval ${SHOW_INTERVAL}]
オプションの引数
SHOW_INTERVAL
: 表示間隔(秒)。--show
: 画像をその場で表示するかどうか。