今回の記事はほぼ私の作業メモとなります。もうしわけありません。
やりたいこと
2020年、こんなツイートしていました。
「誰でもエオルゼア文字を読める世界を!」
— ゲレの工房 (@gelehrte_crest) 2020年5月31日
「 #言語を超える力 」というアプリを制作しています#FF14 のSSからエオルゼア文字を英数字に変換します
現在アプリ開発のためにエオルゼア文字が入っているSSを募集中#言語を超える力でこのSS読んで
もしくは#languageecho_testSS
でレスお願いします pic.twitter.com/RPzWZ1yKX5
それから色々なサービスなどを試しましたが、あまりうまくいかず挫折していました。
現在の作業ログ
アノテーション
こんな感じで行います。とりあえずジャンボくじテンダーのドラムロールに対して、数字のタグ付け(アノテーション)をこれから進めていきたいと思います。幸い、2年間に渡ってドラムロールを撮り続けた私なので、画像データだけはあるのです。
今週もジャンボくじテンダーをパシャリ#言語を超える力#言語を超える力でこのSS読んで#FF14 pic.twitter.com/UWu8jRsTrk
— ゲレの工房 (@gelehrte_crest) 2022年4月16日
作業環境はWindows 11
参考にしたサイトはMacですが、我が家のMacPCはMac bookで、どちらかというと仕事用。プライベートで作業できるWindowsに環境を整えたかったのです。FF14もWindowsで動かしていますしね。いくつかPATHが通りにくかったりレジストリをいじったりする必要がありましたが、参考記事の中のTensorBoardで学習状況をみれるところまで進みました。
コマンド備忘録
これは完全に私用の備忘録です。
作業環境はvenvを使いました
python -m venv env
でインストール
.\env\Scripts\activate
で起動
cd .\models\research\ python object_detection/model_main_tf2.py --pipeline_config_path="./object_detection_tools/config/efficientdet_d0_coco17_tpu-32.config" --model_dir="./saved_model_01" --num_train_steps=10000 --alsologtostderr
で学習
TensorBoardは
python -m tensorboard.main --logdir='saved_model_01'
で起動できます。
学習終わったら、モデルを使える形にエクスポートして、ラベルのリストもコピー
python object_detection/exporter_main_v2.py --input_type image_tensor --pipeline_config_path ./object_detection_tools/config/efficientdet_d0_coco17_tpu-32.config --trained_checkpoint_dir ./saved_model_01 --output_directory ./exported_graphs python convert_pbtxt_label.py -l='object_detection_tools/data/tf_label_map.pbtxt' > ./exported_graphs/labels.txt
テスト用スクリプトを起動
cd .\object_detection_tools\ python scripts/object_detection_tf2.py -l='../exported_graphs/labels.txt' -m='../exported_graphs/saved_model/' -d='video' -i='../../../test.mp4'
実際にテストしてみた
以前FF14のドラムロールを動画撮影していたので、それに対して物体検知のテストしてみました。
かなり良い精度だと思います。
今後の予定
終わりに
久しぶりに「言語を超える力」アプリの作業を再開しました。なにか早く、作業状況・更新情報をお伝えできれば嬉しいです。
追記:色々「Object Detection API」での学習方法を修正してみた
続きの記事はこちらで。
blog.gelehrte.com