iinfer (Image Inference Application)
- onnx又はmmlabフォーマットのAIモデルファイルを実行するアプリケーションです。
- ドキュメントはこちら。
- このアプリケーションはcmdboxをベースにしています。
- iinferを使用することで、AIモデルを簡単に実行することが出来ます。
- 動作確認したモデルは動作確認済みモデルに記載しています。
- 主なAIタスクは、画像分類、物体検知、領域検知、顔検知、顔認識です。
- 複数の
iinfer コマンドの入出力をつなげる、パイプライン処理を行うことが出来ます。
- GUIモードを使用することで、
iinfer コマンド操作を簡単に行うことが出来ます。
iinferの動作イメージ

- iinfer client は imageファイル や camera から画像を取得し、 推論結果 predict.json を出力します。
- iinfer server は推論を行うサーバーです。 iinfer client からの要求に応えて、推論結果を iinfer client に返します。
- iinfer server は予め ai model をロードしておくことで、推論を高速化します。
- iinfer client と iinfer server は Redis 経由で通信します。
- iinfer server と Redis は dockerコンテナ を使用して起動させることが出来ます。
インストール方法
- 次のコマンドで iinfer をインストールしてください。
- また、Docker 版の Redis サーバーもインストールしてください。
- 詳細なインストール方法は こちら を参照してください。
docker run -p 6379:6379 --name redis -e REDIS_PASSWORD=password -it ubuntu/redis:latest
pip install iinfer
iinfer -v
- WebモードでSAMLを使用する場合、依存関係のあるモジュールをインストールしてください。
pip install iinfer[saml]
apt-get install -y pkg-config libxml2-dev libxmlsec1-dev libxmlsec1-openssl build-essential libopencv-dev
- Webモードで
--agent useを使用する場合、依存関係のあるモジュールをインストールしてください。
pip install "pydantic>=2.0.0,<3.0.0"
pip install "fastmcp>=2.14.0" "mcp>=1.10.0,<2.0.0"
pip install "google-adk>=1.21.0" "litellm"
iinferの使用方法
iinferを使用するには、次のコマンドを実行します:

iinfer -m gui -c start
-
コマンドモードで利用する場合
iinfer -m client -c deploy -n <任意のモデル名> -f \
--model_file <モデルファイル> \
--model_conf_file <モデル設定ファイル> \
--predict_type <推論タイプ> \
--label_file <ラベルファイル>
iinfer -m client -c deploy_list -f
iinfer -m client -c start -n <モデル名> -f \
--use_track
iinfer -m client -c predict -n <モデル名> -f \
-i <推論させる画像ファイル> \
-o <推論結果の画像ファイル> \
--output_preview
iinfer -m client -c capture | \
iinfer -m client -c predict -n <モデル名> \
--stdin \
--image_type capture \
--nodraw | \
iinfer -m postprocess -c det_filter -f -P \
--stdin \
--score_th 0.8
iinfer -m client -c stop -n <モデル名> -f
Lisence
This project is licensed under the MIT License, see the LICENSE file for details